Humanidades

3 perguntas: Devavrat Shah sobre como coibir a desinformação online
Especialista em processamento de dados sociais propõe ajustar algoritmos de feed de notícias para imitar melhor as interações da vida real.
Por Daniel Ackerman - 26/02/2021


O professor do MIT Devavrat Shah compartilha como algoritmos de mídia social podem ser ajustados para conter a disseminação de informações incorretas e promover uma diversidade de pontos de vista. Créditos: Imagem: Allegra Boverman

O espectro das “notícias falsas” paira sobre muitas facetas da sociedade moderna. Ondas de desinformação online abalaram eventos sociais, desde a pandemia de Covid-19 até as eleições nos Estados Unidos. Mas não precisa ser assim, de acordo com Devavrat Shah, professor do Departamento de Engenharia Elétrica e Ciência da Computação e do Instituto de Dados, Sistemas e Sociedade. Shah pesquisa os algoritmos de recomendação que geram feeds de notícias nas redes sociais. Ele propôs uma nova abordagem que poderia limitar a disseminação de informações incorretas, enfatizando o conteúdo gerado pelos próprios contatos do usuário, em vez de qualquer coisa que seja tendência global. Enquanto o Congresso e uma nova administração presidencial ponderavam se e como regulamentar a mídia social, Shah compartilhou suas ideias com o MIT News .

Como a desinformação se espalha online e os algoritmos de mídia social aceleram essa disseminação?

Devavrat Shah: A desinformação se espalha quando uma mentira é repetida. Isso remonta a milhares de anos. Fui lembrado ontem à noite enquanto lia histórias para dormir para meu filho de 6 anos, das fábulas do Panchatantra :

Certa vez, um brâmane realizou cerimônias sagradas para um rico comerciante e recebeu uma cabra em troca. Ele estava voltando carregando a cabra nos ombros quando três bandidos o viram e decidiram enganá-lo para que lhes desse a cabra. Um após o outro, os três bandidos cruzaram o caminho do brâmane e fizeram-lhe a mesma pergunta - "Ó Brahmin, por que você carrega um cachorro nas costas?"

O tolo brâmane pensou que devia estar carregando um cachorro, se três pessoas lhe disseram isso. Sem se preocupar em olhar para o animal, ele soltou a cabra.

Em certo sentido, essa é a forma padrão de radicalização: você continua ouvindo algo, sem questionar e sem pontos de vista alternativos. Então a desinformação se torna a informação. Essa é a principal maneira pela qual a informação se espalha de maneira incorreta. E esse é o problema com os algoritmos de recomendação, como aqueles que provavelmente serão usados ​​pelo Facebook e Twitter. Geralmente, eles priorizam o conteúdo que recebeu muitos cliques e curtidas - seja verdade ou não - e o mistura com conteúdo de fontes em que você confia. Esses algoritmos são fundamentalmente projetados para concentrar sua atenção em alguns posts virais em vez de diversificar as coisas. Então, infelizmente, eles estão facilitando o processo de desinformação.

Isso pode ser corrigido com algoritmos melhores? Ou são necessários moderadores de conteúdo mais humanos?

Devavrat Shah: Isso pode ser feito por meio de algoritmos. O problema com a moderação de conteúdo humano é que uma empresa humana ou de tecnologia está chegando e ditando o que é certo e o que é errado. E essa é uma abordagem muito reducionista. Acho que o Facebook e o Twitter podem resolver esse problema sem serem reducionistas ou ter uma abordagem pesada para decidir o que é certo ou errado. Em vez disso, eles podem evitar essa polarização e simplesmente deixar as redes operarem da maneira como o mundo opera naturalmente offline, por meio de interações entre pares. As redes sociais online distorceram o fluxo de informações e colocaram a capacidade de fazê-lo nas mãos de poucos. Então, vamos voltar à normalidade.

Há um ajuste simples que pode causar impacto: uma quantidade medida de diversidade deve ser incluída nos feeds de notícias por todos esses algoritmos. Porque? Bem, pense em uma época anterior às mídias sociais, quando podemos conversar com pessoas em um escritório ou saber notícias por meio de amigos. Embora ainda estejamos expostos à desinformação, sabemos quem nos disse essa informação e tendemos a compartilhá-la apenas se confiarmos nessa pessoa. Portanto, a menos que a desinformação venha de muitas fontes confiáveis, raramente é amplamente compartilhada.

Existem duas diferenças principais online. Em primeiro lugar, o conteúdo que as plataformas inserem é misturado com o conteúdo de fontes em que confiamos, tornando mais provável que consideremos essas informações pelo valor de face. Em segundo lugar, a desinformação pode ser facilmente compartilhada online, de modo que a vemos muitas vezes e nos convencemos de que é verdade. A diversidade ajuda a diluir a desinformação, expondo-nos a pontos de vista alternativos, sem abusar de nossa confiança. 

Como isso funcionaria com a mídia social?

Devavrat Shah: Para fazer isso, as plataformas podem subamostrar postagens aleatoriamente de uma maneira que pareça realidade. É importante que uma plataforma tenha permissão para filtrar feeds de notícias por algoritmos - caso contrário, haverá muito conteúdo para consumir. Mas, em vez de depender de conteúdo recomendado ou promovido, um feed poderia puxar a maior parte de seu conteúdo, totalmente ao acaso, de todas as minhas conexões na rede. Portanto, a polarização de conteúdo por meio de recomendações repetidas não aconteceria. E tudo isso pode - e deve - ser regulamentado.

Uma forma de progredir em direção a um comportamento mais natural é filtrar de acordo com um contrato social entre usuários e plataformas, uma ideia na qual os juristas já estão trabalhando. Conforme discutimos, o feed de notícias dos usuários impacta seus comportamentos, como suas preferências de voto ou compra. Em um trabalho recente, mostramos que podemos usar métodos de estatística e aprendizado de máquina para verificar se o feed de notícias filtrado respeita o contrato social em termos de como ele afeta o comportamento do usuário. Como argumentamos neste trabalho, verifica-se que tal contratação pode não impactar a receita “final” da plataforma em si. Ou seja, a plataforma não precisa necessariamente escolher entre honrar o contrato social e gerar receita.

De certa forma, outras concessionárias, como as operadoras de telefonia, já estão obedecendo a esse tipo de acordo contratual com a "lista de chamadas sem spam" e respeitando se seu número de telefone está listado publicamente ou não. Ao distribuir informações, as mídias sociais também fornecem uma utilidade pública em certo sentido e devem ser regulamentadas como tal.

 

.
.

Leia mais a seguir