Humanidades

Novo estudo revela que o ChatGPT amplifica as desigualdades globais
Uma nova pesquisa descobriu que o ChatGPT favorece sistematicamente regiões mais ricas e ocidentais em resposta a perguntas que...
Por Oxford - 25/01/2026


Mapa-múndi com código. Crédito: Jamjar Creative Ltd.


Uma nova pesquisa do Instituto de Internet de Oxford , da Universidade de Oxford, e da Universidade de Kentucky, descobriu que o ChatGPT favorece sistematicamente regiões mais ricas e ocidentais em resposta a perguntas que variam de "Onde as pessoas são mais bonitas?" a "Qual país é mais seguro?" - refletindo preconceitos antigos nos dados que utiliza. 

O estudo, intitulado "  The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place" (O olhar do Silício: Uma tipologia de vieses e desigualdades em mestrados em direito sob a perspectiva do lugar) ,  de autoria de  Francisco W. Kerche,  do Professor Matthew Zook  e  do Professor Mark Graham , publicado na  revista Platforms and Society  na terça-feira, 20 de janeiro, analisou mais de 20 milhões de consultas do ChatGPT.  

"Quando a IA aprende com dados tendenciosos, ela amplifica ainda mais esses vieses e pode disseminá-los em larga escala. É por isso que precisamos de mais transparência e de uma análise independente mais rigorosa de como esses sistemas fazem afirmações sobre pessoas e lugares, e por que os usuários devem ser céticos quanto ao uso deles para formar opiniões sobre comunidades. "

Professor Mark Graham, Professor de Geografia da Internet, Instituto de Internet de Oxford

Ao analisar as comparações, os pesquisadores descobriram que o ChatGPT tendia a selecionar regiões de renda mais alta, como os Estados Unidos, a Europa Ocidental e partes do Leste Asiático, como "melhores", "mais inteligentes", "mais felizes" ou "mais inovadoras". Enquanto isso, grandes áreas da África, do Oriente Médio e partes da Ásia e da América Latina tinham muito mais probabilidade de serem classificadas nas últimas posições.  

Esses padrões foram consistentes tanto em perguntas altamente subjetivas quanto em perguntas que pareciam mais objetivas. 

Para tornar essas dinâmicas visíveis, os pesquisadores produziram mapas e comparações a partir de sua auditoria de 20,3 milhões de consultas. Por exemplo: 

Um mapa-múndi que classifica "Onde as pessoas são mais inteligentes?" coloca quase todos os países de baixa renda, especialmente os da África, na parte inferior da lista. 

Os resultados em nível de bairro em Londres, Nova York e Rio mostram que as classificações do ChatGPT estão mais alinhadas com as divisões sociais e raciais existentes do que com características significativas das comunidades. 

A equipe de pesquisa criou um site, o  inequalities.ai  , onde qualquer pessoa pode explorar como o ChatGPT classifica seu próprio país, cidade ou bairro em tópicos como alimentação, cultura, segurança, meio ambiente ou qualidade de vida.  

Mark Graham, professor de Geografia da Internet , afirmou: "Quando a IA aprende com dados tendenciosos, ela amplifica ainda mais esses vieses e pode disseminá-los em larga escala. É por isso que precisamos de mais transparência e de uma análise independente mais rigorosa de como esses sistemas fazem afirmações sobre pessoas e lugares, e por que os usuários devem ser céticos quanto ao uso deles para formar opiniões sobre comunidades. Se um sistema de IA associa repetidamente certas cidades ou países a rótulos negativos, essas associações podem se espalhar rapidamente e começar a moldar percepções, mesmo quando baseadas em informações parciais, confusas ou desatualizadas."

A inteligência artificial generativa é cada vez mais utilizada em serviços públicos, educação, negócios e na tomada de decisões do dia a dia. Tratar seus resultados como fontes neutras de conhecimento pode reforçar as desigualdades que esses sistemas refletem.  

"Se um sistema de IA associa repetidamente certas cidades, vilas ou países a rótulos negativos, essas associações podem se espalhar rapidamente e começar a moldar percepções, mesmo quando baseadas em informações parciais, confusas ou desatualizadas."

Professor Mark Graham, Professor de Geografia da Internet, Instituto de Internet de Oxford

Os autores argumentam que esses vieses não são erros que podem ser simplesmente corrigidos, mas sim características estruturais da IA ??generativa.

Os modelos de aprendizagem baseados na língua inglesa (LLMs) aprendem com dados moldados por séculos de produção desigual de informações, privilegiando locais com ampla cobertura em inglês e forte visibilidade digital. O artigo identifica cinco vieses interconectados – disponibilidade, padrão, média, tropo e proxy – que, juntos, ajudam a explicar por que regiões mais ricas e bem documentadas se classificam repetidamente de forma favorável nas respostas do ChatGPT. 

Os pesquisadores defendem maior transparência por parte dos desenvolvedores e organizações que utilizam IA, bem como a implementação de estruturas de auditoria que permitam a análise independente do comportamento dos modelos. Para o público em geral, a pesquisa demonstra que a IA generativa não oferece um mapeamento uniforme do mundo: suas respostas refletem os vieses inerentes aos dados em que se baseia. 

O artigo "  The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place" (O olhar do Silício: Uma tipologia de vieses e desigualdades em LLMs através da lente do lugar), de  Francisco W. Kerche e Mark Graham, do Oxford Internet Institute, Universidade de Oxford, e Matthew Zook, do Departamento de Geografia, Universidade de Kentucky, foi publicado na revista  Platforms and Society .

 

.
.

Leia mais a seguir