Humanidades

Rastrear campanhas de desinformação em tempo real é possível, mostra estudo
Os pesquisadores desenvolveram um método para usar o aprendizado de máquina para identificar contas maliciosas da Internet, ou trolls, com base em seu comportamento passado.
Por Universidade de Princeton - 22/07/2020


Uma equipe de pesquisa liderada pela Universidade de Princeton desenvolveu uma técnica para rastrear campanhas de desinformação estrangeira on-line em tempo real, o que poderia ajudar a mitigar interferências externas nas eleições americanas de 2020. Crédito: Egan Jimenez, Universidade de Princeton

Uma equipe de pesquisa liderada pela Universidade de Princeton desenvolveu uma técnica para rastrear campanhas de desinformação estrangeira on-line em tempo real, o que poderia ajudar a mitigar interferências externas nas eleições americanas de 2020.

Os pesquisadores desenvolveram um método para usar o aprendizado de máquina para identificar contas maliciosas da Internet, ou trolls, com base em seu comportamento passado. Destaque no Science Advances , o modelo investigou campanhas anteriores de desinformação da China, Rússia e Venezuela que foram travadas contra os Estados Unidos antes e depois das eleições de 2016.

A equipe identificou os padrões dessas campanhas, analisando as postagens no Twitter e Reddit e os hiperlinks ou URLs que eles incluíam. Após realizar uma série de testes, eles descobriram que seu modelo era eficaz na identificação de postagens e contas que faziam parte de uma campanha de influência estrangeira, incluindo aquelas de contas que nunca haviam sido usadas antes.

Eles esperam que os engenheiros de software possam desenvolver seu trabalho para criar um sistema de monitoramento em tempo real para expor a influência estrangeira na política americana.

"O que nossa pesquisa significa é que você pode estimar em tempo real quanto dela existe e o que eles estão falando", disse Jacob N. Shapiro, professor de política e assuntos internacionais da Escola Pública e Internacional de Princeton. Romances. "Não é perfeito, mas forçaria esses atores a serem mais criativos e possivelmente interromperá seus esforços. Você pode imaginar o quanto isso poderia ser melhor se alguém enviasse os esforços de engenharia para otimizá-lo".

Shapiro e o pesquisador associado Meysam Alizadeh conduziram o estudo com Joshua Tucker, professor de política da Universidade de Nova York, e Cody Buntain, professor assistente de informática no Instituto de Tecnologia de Nova Jersey.

"O povo americano merece entender o quanto está sendo feito por países estrangeiros para influenciar nossa política", disse Shapiro. "Esses resultados sugerem que fornecer esse conhecimento é tecnicamente viável. Atualmente, o que nos falta é a vontade e o financiamento políticos, e isso é uma farsa".


A equipe começou com uma pergunta simples: usando apenas recursos baseados em conteúdo e exemplos de atividades conhecidas da campanha de influência, você poderia examinar outro conteúdo e saber se uma determinada postagem fazia parte de uma campanha de influência?

Eles escolheram investigar uma unidade conhecida como "par postURL", que é simplesmente uma postagem com um hiperlink. Para ter influência real, operações coordenadas requerem intenso compartilhamento de informações humanas e controladas por bots. A equipe teorizou que postagens semelhantes podem aparecer com frequência nas plataformas ao longo do tempo.

Eles combinaram dados de campanhas trolls do Twitter e do Reddit com um rico conjunto de dados de posts de usuários politicamente engajados e usuários comuns coletados ao longo de muitos anos pelo Centro de Mídias Sociais e Política da NYU (CSMaP). Os dados do troll incluíam dados publicamente disponíveis no Twitter e no Reddit de trolls chineses, russos e venezuelanos, totalizando 8.000 contas e 7,2 milhões de posts do final de 2015 a 2019.
 
"Não poderíamos ter conduzido a análise sem esse conjunto de dados de comparação de linha de base de tweets comuns e comuns", disse Tucker, co-diretor do CSMaP. "Nós o usamos para treinar o modelo para distinguir entre os tweets das campanhas de influência coordenada e os dos usuários comuns".

A equipe considerou as características da postagem em si, como o tempo, a contagem de palavras ou se o domínio URL mencionado é um site de notícias. Eles também analisaram o que chamaram de "metacontent" ou como as mensagens em uma postagem se relacionavam com outras informações compartilhadas naquele momento (por exemplo, se um URL estava nos 25 principais domínios políticos compartilhados por trolls).

"A visão de Meysam sobre o metacontente foi fundamental", disse Shapiro. "Ele viu que poderíamos usar a máquina para replicar a intuição humana de que 'algo neste post parece fora de lugar'." Os trolls e as pessoas normais geralmente incluem URLs de notícias locais em suas postagens, mas os trolls costumavam mencionar usuários diferentes nessas postagens, provavelmente porque estão tentando chamar a atenção do público em uma nova direção. O Metacontent permite que o algoritmo encontre essas anomalias ".

A equipe testou seu método extensivamente, examinando o desempenho mês a mês em cinco tarefas diferentes de previsão em quatro campanhas de influência. Em quase todos os 463 testes diferentes, ficou claro quais postagens faziam ou não parte de uma operação de influência, o que significa que os recursos baseados em conteúdo podem realmente ajudar a encontrar campanhas de influência coordenadas nas mídias sociais.

Em alguns países, os padrões eram mais fáceis de detectar do que outros. Os trolls venezuelanos apenas retweetaram certas pessoas e tópicos, facilitando sua detecção. Os trolls russos e chineses eram melhores em tornar seu conteúdo orgânico, mas também podiam ser encontrados. No início de 2016, por exemplo, os trolls russos costumavam ser vinculados a URLs de extrema direita, o que era incomum devido aos outros aspectos de suas postagens e, no início de 2017, eles eram vinculados a sites políticos de maneiras estranhas.

No geral, a atividade de trolls russos se tornou mais difícil de encontrar com o passar do tempo. É possível que grupos de investigação ou outros tenham pego informações falsas, sinalizando os posts e forçando os trolls a mudar de tática ou abordagem, embora os russos também pareçam ter produzido menos em 2018 do que nos anos anteriores.

Embora a pesquisa mostre que não há um conjunto estável de características que encontre esforços de influência, ela também mostra que o conteúdo de trolls quase sempre será diferente de maneiras detectáveis. Em um conjunto de testes, os autores mostram que o método pode encontrar contas nunca antes usadas que fazem parte de uma campanha em andamento. E embora as plataformas de mídia social excluam regularmente contas associadas a campanhas de desinformação estrangeiras, as descobertas da equipe podem levar a uma solução mais eficaz.

"Quando as plataformas proíbem essas contas, não só dificulta a coleta de dados para encontrar contas semelhantes no futuro, mas também indica ao ator da desinformação que eles devem evitar o comportamento que levou à exclusão", disse Buntain. "Esse mecanismo permite [a plataforma] identificar essas contas, afastá-las do resto do Twitter e fazer parecer a esses atores como se eles continuassem compartilhando seu material de desinformação".

O trabalho destaca a importância da pesquisa interdisciplinar entre ciências sociais e computacionais, bem como a criticidade do financiamento de arquivos de dados de pesquisa.

"O povo americano merece entender o quanto está sendo feito por países estrangeiros para influenciar nossa política", disse Shapiro. "Esses resultados sugerem que fornecer esse conhecimento é tecnicamente viável. Atualmente, o que nos falta é a vontade e o financiamento políticos, e isso é uma farsa".

O método não é panaceia, alertaram os pesquisadores. Exige que alguém já tenha identificado atividades recentes da campanha de influência para aprender. E como os diferentes recursos se combinam para indicar alterações de conteúdo questionável ao longo do tempo e entre campanhas.

 

.
.

Leia mais a seguir