Humanidades

Ferramenta de pesquisa em mídias sociais reduz a tensão política
Pesquisadores de Stanford criaram um método para reduzir a visibilidade de postagens antidemocráticas e altamente partidárias no X, diminuindo a polarização e, potencialmente, dando aos usuários maior controle sobre seus feeds.
Por Sara Zaske - 02/12/2025


Getty Images


Uma nova ferramenta demonstra que é possível diminuir a animosidade partidária em um feed do Google – sem remover publicações políticas e sem a cooperação direta da plataforma.

A pesquisa liderada por Stanford, publicada na revista Science , também indica que um dia poderá ser possível permitir que os usuários controlem seus próprios algoritmos de mídia social.

Uma equipe multidisciplinar criou uma ferramenta online integrada que reordena o conteúdo, movendo as publicações para baixo no feed do usuário quando elas contêm atitudes antidemocráticas e animosidade partidária, como incitação à violência ou prisão de apoiadores do partido adversário.

Em um experimento que utilizou a ferramenta com cerca de 1.200 participantes ao longo de 10 dias durante as eleições de 2024, aqueles que tiveram o conteúdo antidemocrático rebaixado demonstraram visões mais positivas do partido de oposição. O efeito também foi bipartidário, sendo válido tanto para pessoas que se identificavam como liberais quanto para conservadoras.

“Os algoritmos das redes sociais impactam diretamente nossas vidas, mas até agora, somente as plataformas tinham a capacidade de entendê-los e moldá-los”, disse Michael Bernstein, professor de ciência da computação na Escola de Engenharia de Stanford e autor sênior do estudo. “Demonstramos uma abordagem que permite que pesquisadores e usuários finais tenham esse poder.”

A ferramenta também pode abrir caminhos para criar intervenções que não apenas atenuem a animosidade partidária, mas também promovam maior confiança social e um diálogo democrático mais saudável entre os partidos, acrescentou Bernstein, que também é pesquisador sênior do Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford.

Para este estudo, a equipe se baseou em pesquisas sociológicas anteriores de Stanford, identificando categorias de atitudes antidemocráticas e animosidade partidária que podem representar ameaças à democracia. Além de defender medidas extremas contra o partido adversário, essas atitudes incluem declarações que demonstram rejeição a qualquer cooperação bipartidária, ceticismo em relação a fatos que favorecem os pontos de vista do outro partido e disposição para abrir mão de princípios democráticos em benefício do partido favorecido.

Prevenindo o sequestro emocional

Segundo Jeanne Tsai, coautora do estudo, costuma haver uma resposta emocional imediata e inevitável ao se deparar com esse tipo de conteúdo.

“Esse conteúdo polarizador pode simplesmente sequestrar a atenção das pessoas, fazendo com que se sintam mal no momento em que o veem”, disse Tsai, professor de psicologia na Escola de Humanidades e Ciências de Stanford.

O estudo reuniu pesquisadores da Universidade de Washington e da Northeastern, bem como de Stanford, para abordar o problema a partir de uma perspectiva de diversas disciplinas, incluindo ciência da computação, psicologia, ciência da informação e comunicação.

O primeiro autor do estudo, Tiziano Piccardi, ex-bolsista de pós-doutorado no laboratório de Bernstein, criou uma extensão para a web acoplada a um modelo de linguagem de inteligência artificial que analisa publicações em busca desses tipos de sentimentos antidemocráticos e partidários negativos extremos. A ferramenta então reordena as publicações no feed X do usuário em questão de segundos.

Em seguida, em experimentos separados, os pesquisadores pediram a um grupo de participantes, que consentiram em ter seus feeds modificados, que visualizassem conteúdo X com esse tipo de conteúdo em destaque ou com classificação inferior ao longo de 10 dias, e compararam suas reações com um grupo de controle. Nenhuma publicação foi removida, mas as publicações políticas mais incendiárias apareceram em posições mais baixas ou mais altas em seus feeds de conteúdo.

O impacto na polarização foi evidente, disse Piccardi, que agora é professor assistente de ciência da computação na Universidade Johns Hopkins.

“Quando os participantes foram expostos a menos desse conteúdo, eles se sentiram mais receptivos às pessoas do partido adversário”, disse ele. “Quando foram expostos a mais, eles se sentiram mais indiferentes.”

Pequena mudança com um impacto potencialmente grande

Antes e depois do experimento, os pesquisadores avaliaram os participantes em relação aos seus sentimentos em relação ao partido adversário, numa escala de 1 a 100. Entre os participantes que tiveram o conteúdo negativo menos valorizado, suas atitudes melhoraram, em média, em dois pontos – o equivalente à mudança estimada nas atitudes ocorrida na população geral dos EUA ao longo de um período de três anos.

Estudos anteriores sobre intervenções em redes sociais para mitigar esse tipo de polarização apresentaram resultados mistos. Essas intervenções também foram instrumentos bastante rudimentares, disseram os pesquisadores, como classificar as postagens cronologicamente ou interromper completamente o uso das redes sociais.

Este estudo demonstra que uma abordagem mais matizada é possível e eficaz, afirmou Piccardi. Ela também pode dar às pessoas mais controle sobre o que veem, o que pode ajudar a melhorar sua experiência geral nas redes sociais, já que reduzir a visibilidade desse conteúdo não apenas diminuiu a polarização dos participantes, mas também seus sentimentos de raiva e tristeza.

Os pesquisadores agora estão investigando outras intervenções usando um método semelhante, incluindo aquelas que visam melhorar a saúde mental. A equipe também disponibilizou o código da ferramenta atual, para que outros pesquisadores e desenvolvedores possam usá-lo para criar seus próprios sistemas de classificação, independentemente do algoritmo de uma plataforma de mídia social.

 

.
.

Leia mais a seguir