Humanidades

3 perguntas: Devavrat Shah sobre como coibir a desinformação online
Especialista em processamento de dados sociais propaµe ajustar algoritmos de feed de nota­cias para imitar melhor as interaçaµes da vida real.
Por Daniel Ackerman - 26/02/2021


O professor do MIT Devavrat Shah compartilha como algoritmos de ma­dia social podem ser ajustados para conter a disseminação de informações incorretas e promover uma diversidade de pontos de vista. Créditos: Imagem: Allegra Boverman

O espectro das “nota­cias falsas” paira sobre muitas facetas da sociedade moderna. Ondas de desinformação online abalaram eventos sociais, desde a pandemia de Covid-19 atéas eleições nos Estados Unidos. Mas não precisa ser assim, de acordo com Devavrat Shah, professor do Departamento de Engenharia Elanãtrica e Ciência da Computação e do Instituto de Dados, Sistemas e Sociedade. Shah pesquisa os algoritmos de recomendação que geram feeds de nota­cias nas redes sociais. Ele propa´s uma nova abordagem que poderia limitar a disseminação de informações incorretas, enfatizando o conteaºdo gerado pelos pra³prios contatos do usua¡rio, em vez de qualquer coisa que seja tendaªncia global. Enquanto o Congresso e uma nova administração presidencial ponderavam se e como regulamentar a ma­dia social, Shah compartilhou suas ideias com o MIT News .

Como a desinformação se espalha online e os algoritmos de ma­dia social aceleram essa disseminação?

Devavrat Shah: A desinformação se espalha quando uma mentira érepetida. Isso remonta a milhares de anos. Fui lembrado ontem a  noite enquanto lia histórias para dormir para meu filho de 6 anos, das fa¡bulas do Panchatantra :

Certa vez, um bra¢mane realizou cerima´nias sagradas para um rico comerciante e recebeu uma cabra em troca. Ele estava voltando carregando a cabra nos ombros quando três bandidos o viram e decidiram engana¡-lo para que lhes desse a cabra. Um após o outro, os três bandidos cruzaram o caminho do bra¢mane e fizeram-lhe a mesma pergunta - "a“ Brahmin, por que vocêcarrega um cachorro nas costas?"

O tolo bra¢mane pensou que devia estar carregando um cachorro, se três pessoas lhe disseram isso. Sem se preocupar em olhar para o animal, ele soltou a cabra.

Em certo sentido, essa éa forma padrãode radicalização: vocêcontinua ouvindo algo, sem questionar e sem pontos de vista alternativos. Então a desinformação se torna a informação. Essa éa principal maneira pela qual a informação se espalha de maneira incorreta. E esse éo problema com os algoritmos de recomendação, como aqueles que provavelmente sera£o usados ​​pelo Facebook e Twitter. Geralmente, eles priorizam o conteaºdo que recebeu muitos cliques e curtidas - seja verdade ou não - e o mistura com conteaºdo de fontes em que vocêconfia. Esses algoritmos são fundamentalmente projetados para concentrar sua atenção em alguns posts virais em vez de diversificar as coisas. Então, infelizmente, eles estãofacilitando o processo de desinformação.

Isso pode ser corrigido com algoritmos melhores? Ou são necessa¡rios moderadores de conteaºdo mais humanos?

Devavrat Shah: Isso pode ser feito por meio de algoritmos. O problema com a moderação de conteaºdo humano éque uma empresa humana ou de tecnologia estãochegando e ditando o que écerto e o que éerrado. E essa éuma abordagem muito reducionista. Acho que o Facebook e o Twitter podem resolver esse problema sem serem reducionistas ou ter uma abordagem pesada para decidir o que écerto ou errado. Em vez disso, eles podem evitar essa polarização e simplesmente deixar as redes operarem da maneira como o mundo opera naturalmente offline, por meio de interações entre pares. As redes sociais online distorceram o fluxo de informações e colocaram a capacidade de fazaª-lo nas ma£os de poucos. Então, vamos voltar a  normalidade.

Ha¡ um ajuste simples que pode causar impacto: uma quantidade medida de diversidade deve ser inclua­da nos feeds de nota­cias por todos esses algoritmos. Porque? Bem, pense em uma anãpoca anterior a s ma­dias sociais, quando podemos conversar com pessoas em um escrita³rio ou saber nota­cias por meio de amigos. Embora ainda estejamos expostos a  desinformação, sabemos quem nos disse essa informação e tendemos a compartilha¡-la apenas se confiarmos nessa pessoa. Portanto, a menos que a desinformação venha de muitas fontes confia¡veis, raramente éamplamente compartilhada.

Existem duas diferenças principais online. Em primeiro lugar, o conteaºdo que as plataformas inserem émisturado com o conteaºdo de fontes em que confiamos, tornando mais prova¡vel que consideremos essas informações pelo valor de face. Em segundo lugar, a desinformação pode ser facilmente compartilhada online, de modo que a vemos muitas vezes e nos convencemos de que éverdade. A diversidade ajuda a diluir a desinformação, expondo-nos a pontos de vista alternativos, sem abusar de nossa confiana§a. 

Como isso funcionaria com a ma­dia social?

Devavrat Shah: Para fazer isso, as plataformas podem subamostrar postagens aleatoriamente de uma maneira que parea§a realidade. a‰ importante que uma plataforma tenha permissão para filtrar feeds de nota­cias por algoritmos - caso contra¡rio, havera¡ muito conteaºdo para consumir. Mas, em vez de depender de conteaºdo recomendado ou promovido, um feed poderia puxar a maior parte de seu conteaºdo, totalmente ao acaso, de todas as minhas conexões na rede. Portanto, a polarização de conteaºdo por meio de recomendações repetidas não aconteceria. E tudo isso pode - e deve - ser regulamentado.

Uma forma de progredir em direção a um comportamento mais natural éfiltrar de acordo com um contrato social entre usuários e plataformas, uma ideia na qual os juristas já estãotrabalhando. Conforme discutimos, o feed de nota­cias dos usuários impacta seus comportamentos, como suas preferaªncias de voto ou compra. Em um trabalho recente, mostramos que podemos usar manãtodos de estata­stica e aprendizado de ma¡quina para verificar se o feed de nota­cias filtrado respeita o contrato social em termos de como ele afeta o comportamento do usua¡rio. Como argumentamos neste trabalho, verifica-se que tal contratação pode não impactar a receita “final” da plataforma em si. Ou seja, a plataforma não precisa necessariamente escolher entre honrar o contrato social e gerar receita.

De certa forma, outras concessiona¡rias, como as operadoras de telefonia, já estãoobedecendo a esse tipo de acordo contratual com a "lista de chamadas sem spam" e respeitando se seu número de telefone estãolistado publicamente ou não. Ao distribuir informações, as ma­dias sociais também fornecem uma utilidade pública em certo sentido e devem ser regulamentadas como tal.

 

.
.

Leia mais a seguir