Humanidades

Pesquisadores criam método para rastrear uso indevido de dados no treinamento de IA
Estudo publicado na revista Nature Communications apresenta técnica capaz de identificar, com até 99% de precisão, se textos protegidos foram usados para treinar modelos de inteligência artificial.
Por Laercio Damasceno - 21/02/2026


Arte de IA


Em meio a uma onda crescente de disputas judiciais sobre o uso não autorizado de dados no treinamento de sistemas de inteligência artificial, um grupo internacional de cientistas apresentou um método que promete mudar o equilíbrio de forças entre desenvolvedores de IA e detentores de direitos autorais.

O estudo, publicado neste Sábado (21), na revista Nature Communications, descreve uma técnica chamada “information isotopes” (isótopos de informação), inspirada nos métodos de rastreamento químico usados em experimentos laboratoriais. A proposta é simples na concepção, mas sofisticada na execução: marcar elementos semânticos específicos em textos e verificar se esses traços reaparecem nas respostas de modelos de IA — mesmo quando operam como “caixas-pretas”.

A pesquisa foi liderada por Tao Qi e Jinhua Yin, com participação de cientistas da Tsinghua University, da University of Cambridge, da Beijing University of Posts and Telecommunications e da Hong Kong University of Science and Technology, entre outras instituições.

O problema da “caixa-preta”

Modelos de linguagem de grande porte (LLMs), como os que alimentam assistentes virtuais e sistemas de geração automática de texto, são treinados com volumes massivos de dados retirados da internet — incluindo notícias, livros, códigos de programação e, potencialmente, informações sensíveis.

Embora parte desse material seja público, muitos conjuntos de dados estão sujeitos a licenças restritivas ou contêm informações privadas. A dificuldade central, segundo os autores, é provar o uso indevido: empresas de tecnologia raramente divulgam quais bases de dados utilizaram, e os sistemas comerciais oferecem apenas o conteúdo gerado como evidência observável.

“Apresentar provas robustas de que determinado conteúdo foi usado no treinamento de um modelo é um dos maiores desafios regulatórios da era da IA”, escrevem os pesquisadores no artigo.

A lógica dos “isótopos” digitais

O método proposto parte da definição de “elementos semânticos” — como nomes próprios, verbos ou entidades específicas dentro de um texto. Para cada elemento, os pesquisadores geram variantes semanticamente equivalentes, que chamam de “isótopos de informação”.

Em experimentos controlados com 13 modelos de linguagem e seis conjuntos de dados — incluindo textos médicos sensíveis, notícias e obras literárias protegidas — o sistema testou a capacidade do modelo de recuperar o termo original entre alternativas quase idênticas.

A hipótese: se o texto fez parte do treinamento, o modelo tende a “memorizar” a forma exata do elemento, apresentando taxa de recuperação superior à observada em textos que não integraram o corpus de treino.

Os resultados indicam uma taxa de distinção entre dados de treino e não treino que chega a 99%, com significância estatística (p < 0,01), quando analisados cerca de 4.000 palavras — volume equivalente a um artigo acadêmico de quatro páginas.

“Demonstramos que certos elementos semânticos mantêm forte rastreabilidade quando foram expostos durante o treinamento”, afirmam os autores. “Essa propriedade permite identificar uso indevido mesmo sem acesso interno ao modelo.”


A “caixa preta” na IA

Testes em modelos abertos e comerciais

A equipe avaliou inicialmente modelos abertos da série LLaMA, cujo corpus de treinamento é parcialmente documentado, permitindo validação objetiva dos resultados. Em seguida, aplicou o método a sistemas comerciais de código fechado, usando textos publicados antes e depois das datas conhecidas de corte de conhecimento.

Segundo o artigo, a técnica manteve desempenho consistente mesmo diante de ataques adversariais, como reescrita parcial do texto original ou mistura com outros conteúdos — cenários que simulam tentativas de mascarar o uso indevido.

Os pesquisadores também disponibilizaram uma ferramenta de código aberto para aplicação prática do método, com o objetivo declarado de apoiar autores, jornalistas, programadores e instituições na defesa de seus direitos.

Impacto regulatório

O estudo surge em um contexto de litígios crescentes envolvendo desenvolvedores de IA e produtores de conteúdo. Processos judiciais movidos por veículos de imprensa, autores e artistas têm questionado a legalidade do uso de obras protegidas para treinar sistemas comerciais.

Especialistas em governança digital veem na nova abordagem um possível divisor de águas. Ao fornecer um mecanismo estatisticamente robusto para demonstrar exposição prévia de dados, a técnica pode fortalecer ações judiciais e pressionar por maior transparência nos processos de treinamento.

Os autores reconhecem limitações — como a necessidade de um volume mínimo de texto para alta precisão — mas defendem que o método representa “um passo decisivo para auditoria de dados em sistemas de IA opacos”.

Num momento em que a corrida por modelos cada vez mais poderosos avança em ritmo acelerado, a pesquisa reforça um ponto central: a infraestrutura invisível da inteligência artificial pode, afinal, deixar rastros mensuráveis.


Referência
Qi, T., Yin, J., Cai, D. et al. Auditoria de dados de treinamento não autorizados de conteúdo gerado por IA usando isótopos de informação. Nat Commun (2026). https://doi.org/10.1038/s41467-026-68862-x

 

.
.

Leia mais a seguir