Tecnologia Científica

O pioneirismo em um novo modelo matemático pode ajudar a proteger a privacidade e garantir um uso mais seguro da IA
Ferramentas de IA estão sendo cada vez mais usadas para rastrear e monitorar a nós tanto online quanto pessoalmente, mas sua eficácia vem com grandes riscos.
Por Oxford - 16/01/2025


O novo método pode ajudar a explicar por que algumas técnicas de identificação de IA têm desempenho altamente preciso quando testadas em pequenos estudos de caso, mas depois identificam pessoas incorretamente em condições do mundo real. Crédito da imagem: Jacob Wackerhausen, Getty Images.


Ferramentas de IA estão sendo cada vez mais usadas para rastrear e monitorar a nós tanto online quanto pessoalmente, mas sua eficácia vem com grandes riscos. Cientistas da computação da Universidade de Oxford lideraram um estudo para desenvolver um novo modelo matemático que pode ajudar as pessoas a entender melhor os riscos impostos pela IA e auxiliar os reguladores a proteger a privacidade das pessoas. As descobertas foram publicadas hoje na  Nature Communications .


Pela primeira vez, o método fornece uma estrutura científica robusta para avaliar técnicas de identificação, especialmente ao lidar com dados em larga escala. Isso pode incluir, por exemplo, monitorar quão precisos são o código de publicidade e rastreadores invisíveis na identificação de usuários on-line a partir de pequenos pedaços de informação, como fuso horário ou configurações do navegador (uma técnica chamada 'impressão digital do navegador'). 

O autor principal Dr. Luc Rocher , pesquisador sênior do Oxford Internet Institute, parte da Universidade de Oxford, disse: "Vemos nosso método como uma nova abordagem para ajudar a avaliar o risco de reidentificação na liberação de dados, mas também para avaliar técnicas modernas de identificação em ambientes críticos e de alto risco. Em lugares como hospitais, entrega de ajuda humanitária ou controle de fronteiras, os riscos são incrivelmente altos, e a necessidade de identificação precisa e confiável é primordial."

O método se baseia no campo da estatística bayesiana para aprender o quão identificáveis ??os indivíduos são em pequena escala e extrapolar a precisão da identificação para populações maiores até 10x melhor do que as heurísticas e regras práticas anteriores. Isso dá ao método poder único na avaliação de como diferentes técnicas de identificação de dados funcionarão em escala, em diferentes aplicações e configurações comportamentais. Isso pode ajudar a explicar por que algumas técnicas de identificação de IA funcionam com alta precisão quando testadas em pequenos estudos de caso, mas depois identificam pessoas incorretamente em condições do mundo real.  

"Esperamos que este trabalho seja de grande ajuda para pesquisadores, responsáveis pela proteção de dados, comitês de ética e outros profissionais que buscam encontrar um equilíbrio entre o compartilhamento de dados para pesquisa e a proteção da privacidade de pacientes, participantes e cidadãos."

Autor principal Dr. Luc Rocher , Oxford Internet Institute

As descobertas são altamente oportunas, dados os desafios impostos ao anonimato e à privacidade causados pelo rápido crescimento das técnicas de identificação baseadas em IA. Por exemplo, ferramentas de IA estão sendo testadas para identificar humanos automaticamente por sua voz em serviços bancários on-line, seus olhos na entrega de ajuda humanitária ou seu rosto na aplicação da lei. 

De acordo com os pesquisadores, o novo método pode ajudar as organizações a encontrar um melhor equilíbrio entre os benefícios das tecnologias de IA e a necessidade de proteger as informações pessoais das pessoas, tornando as interações diárias com a tecnologia mais seguras e protegidas. Seu método de teste permite a identificação de potenciais fraquezas e áreas para melhoria antes da implementação em larga escala, o que é essencial para manter a segurança e a precisão.? 

O coautor Professor Associado Yves-Alexandre de Montjoye (Data Science Institute, Imperial College, Londres) disse: 'Nossa nova lei de escalonamento fornece, pela primeira vez, um modelo matemático baseado em princípios para avaliar como as técnicas de identificação funcionarão em escala. Entender a escalabilidade da identificação é essencial para avaliar os riscos apresentados por essas técnicas de reidentificação, inclusive para garantir a conformidade com as legislações modernas de proteção de dados em todo o mundo. 

O estudo 'A scaling law to model the effectiveness of identification techniques' foi publicado na Nature Communications . O estudo também envolveu pesquisadores do Imperial College London e da UCLouvain.

 

.
.

Leia mais a seguir