Humanidades

Ferramentas de proteção de arte com IA ainda deixam os criadores em risco, dizem pesquisadores
Os artistas precisam urgentemente de defesas mais fortes para proteger seu trabalho de ser usado para treinar modelos de IA sem seu consentimento.
Por Cambridge - 26/06/2025


Artista em ação - Crédito: Anastasia Babenko via Getty Images


"Mesmo usando ferramentas como o NightShade, os artistas ainda correm o risco de que seu trabalho seja usado para treinar modelos de IA sem seu consentimento"

Hanna Foerster

É o que diz uma equipe de pesquisadores que descobriu fraquezas significativas em duas das ferramentas de proteção de arte mais usadas por artistas para salvaguardar seu trabalho.

De acordo com seus criadores, Glaze e NightShade foram desenvolvidos para proteger os criativos humanos contra os usos invasivos da inteligência artificial generativa.

As ferramentas são populares entre artistas digitais que querem impedir que modelos de inteligência artificial (como o gerador de arte de IA Stable Diffusion) copiem seus estilos únicos sem consentimento. Juntos, Glaze e NightShade foram baixados quase nove milhões de vezes.

Mas, de acordo com um grupo internacional de pesquisadores, essas ferramentas têm fraquezas críticas que significam que elas não podem impedir de forma confiável que modelos de IA treinem no trabalho de artistas.

As ferramentas adicionam distorções sutis e invisíveis (conhecidas como perturbações de envenenamento) às imagens digitais. Esses "venenos" são projetados para confundir os modelos de IA durante o treinamento. O Glaze adota uma abordagem passiva, prejudicando a capacidade do modelo de IA de extrair características estilísticas importantes. O NightShade vai além, corrompendo ativamente o processo de aprendizado, fazendo com que o modelo de IA associe o estilo de um artista a conceitos não relacionados.

Mas os pesquisadores criaram um método – chamado LightShed – que pode contornar essas proteções. O LightShed consegue detectar, fazer engenharia reversa e remover essas distorções, eliminando efetivamente os venenos e tornando as imagens utilizáveis novamente para o treinamento de modelos de IA Generativa.

O projeto foi desenvolvido por pesquisadores da Universidade de Cambridge, juntamente com colegas da Universidade Técnica de Darmstadt e da Universidade do Texas em San Antonio. Os pesquisadores esperam que, ao divulgar seu trabalho – que será apresentado no Simpósio de Segurança USENIX , uma importante conferência de segurança, em agosto – eles possam informar aos profissionais de criação que existem grandes problemas com as ferramentas de proteção de arte.

O LightShed funciona por meio de um processo de três etapas. Primeiro, ele identifica se uma imagem foi alterada com técnicas de envenenamento conhecidas.

Em uma segunda etapa, a engenharia reversa, ele aprende as características das perturbações usando exemplos envenenados disponíveis publicamente. Por fim, ele elimina o envenenamento para restaurar a imagem à sua forma original, desprotegida.

Em avaliações experimentais, o LightShed detectou imagens protegidas pelo NightShade com 99,98% de precisão e removeu efetivamente as proteções incorporadas dessas imagens.

“Isso mostra que, mesmo usando ferramentas como o NightShade, os artistas ainda correm o risco de seu trabalho ser usado para treinar modelos de IA sem seu consentimento”, disse a primeira autora Hanna Foerster, do Departamento de Ciência da Computação e Tecnologia de Cambridge, que conduziu o trabalho durante um estágio na TU Darmstadt.

Embora o LightShed revele vulnerabilidades graves em ferramentas de proteção de arte, os pesquisadores enfatizam que ele foi desenvolvido não como um ataque a elas, mas sim um chamado urgente à ação para produzir ferramentas melhores e mais adaptáveis.

“Vemos isso como uma oportunidade de coevoluir defesas”, disse o coautor Professor Ahmad-Reza Sadeghi, da Universidade Técnica de Darmstadt. “Nosso objetivo é colaborar com outros cientistas nesta área e apoiar a comunidade artística no desenvolvimento de ferramentas que possam resistir a adversários avançados.”

O cenário da IA e da criatividade digital está evoluindo rapidamente. Em março deste ano, a OpenAI lançou um modelo de imagem ChatGPT que podia produzir instantaneamente obras de arte no estilo do Studio Ghibli, o estúdio de animação japonês.

Isso desencadeou uma ampla gama de memes virais — e discussões igualmente amplas sobre direitos autorais de imagens, nas quais analistas jurídicos notaram que o Studio Ghibli teria limitações em como responder a isso, já que a lei de direitos autorais protege expressões específicas, não um "estilo" artístico específico.  

Após essas discussões, a OpenAI anunciou medidas de segurança imediatas para bloquear algumas solicitações de usuários para gerar imagens no estilo de artistas vivos.  

Mas questões sobre IA generativa e direitos autorais continuam, conforme destacado pelo caso de violação de direitos autorais e de marca registrada atualmente em andamento no tribunal superior de Londres.

A agência global de fotografia Getty Images alega que a empresa de IA Stability AI, sediada em Londres, treinou seu modelo de geração de imagens com base no enorme arquivo de imagens protegidas por direitos autorais da agência. A Stability AI contesta a alegação da Getty e argumenta que o caso representa uma "ameaça evidente" à indústria de IA generativa.

E no início deste mês, a Disney e a Universal anunciaram que estão processando a empresa de IA Midjourney por seu gerador de imagens, que as duas empresas disseram ser um "poço sem fundo de plágio".

“O que esperamos fazer com o nosso trabalho é destacar a necessidade urgente de um roteiro para estratégias de proteção mais resilientes e centradas nos artistas”, disse Foerster. “Precisamos deixar claro aos criativos que eles ainda estão em risco e colaborar com outros para desenvolver melhores ferramentas de proteção da arte no futuro.”

Hanna Foerster é membro do Downing College, Cambridge. 


Referência:
Hanna Foerster et al. 'LightShed: Derrotando as proteções de direitos autorais de imagens baseadas em perturbação'. Artigo apresentado no 34º Simpósio de Segurança USENIX. https://www.usenix.org/conference/usenixsecurity25/presentation/foerster

 

.
.

Leia mais a seguir