Tecnologia Científica

Novo modelo matemático pode garantir uso mais seguro da IA e ajudar a proteger a privacidade
Cientistas desenvolveram um novo modelo matemático para ajudar as pessoas a entender os riscos representados pela IA e auxiliar os reguladores a proteger a privacidade
Por Laura Gallagher - 20/01/2025




Ferramentas de IA estão sendo cada vez mais usadas para rastrear e monitorar pessoas tanto online quanto pessoalmente, apresentando desafios para o anonimato e a privacidade. Por exemplo, ferramentas de IA estão sendo testadas para identificar automaticamente indivíduos por suas vozes em serviços bancários online, seus olhos na entrega de ajuda humanitária ou seus rostos na aplicação da lei.

Algumas técnicas de identificação de IA apresentam alto desempenho de precisão quando testadas em pequenos estudos de caso, mas depois identificam incorretamente as pessoas em condições do mundo real


Cientistas da computação do Imperial College London, do Oxford Internet Institute e da UCLouvain criaram um método que fornece uma estrutura científica robusta para avaliar técnicas de identificação, especialmente ao lidar com dados em larga escala.

De acordo com os pesquisadores, isso pode ajudar as organizações a encontrar um melhor equilíbrio entre os benefícios das tecnologias de IA e a necessidade de proteger as informações pessoais das pessoas, tornando as interações diárias com a tecnologia mais seguras e protegidas. Seu método de teste permite a identificação de potenciais fraquezas e áreas para melhoria em ferramentas de IA antes que elas sejam implementadas em escala.

As descobertas foram publicadas hoje na Nature Communications .

O professor associado Yves-Alexandre de Montjoye, coautor do estudo do Data Science Institute do Imperial College London, disse: "Nossa nova lei de escala fornece, pela primeira vez, um modelo matemático baseado em princípios para avaliar como as técnicas de identificação funcionarão em escala. Entender a escalabilidade da identificação é essencial para avaliar os riscos representados por essas técnicas de reidentificação, inclusive para garantir a conformidade com as legislações modernas de proteção de dados em todo o mundo."

A segurança dos dados é vital

O método se baseia no campo da estatística bayesiana para aprender como os indivíduos identificáveis ??são em pequena escala e extrapolar a precisão da identificação para populações maiores até 10x melhor do que as heurísticas e regras práticas anteriores. Isso dá ao método poder único na avaliação de como diferentes técnicas de identificação de dados funcionarão em escala, em diferentes aplicações e configurações comportamentais. Isso pode ajudar a explicar por que algumas técnicas de identificação de IA têm desempenho altamente preciso quando testadas em pequenos estudos de caso, mas depois identificam pessoas incorretamente em condições do mundo real.

O autor principal Dr. Luc Rocher, pesquisador sênior do Oxford Internet Institute, parte da Universidade de Oxford, disse: "Vemos nosso método como uma nova abordagem para ajudar a avaliar o risco de reidentificação na liberação de dados, mas também para avaliar técnicas modernas de identificação em ambientes críticos e de alto risco. Em lugares como hospitais, entrega de ajuda humanitária ou controle de fronteira, os riscos são incrivelmente altos, e a necessidade de identificação precisa e confiável é primordial.

“Acreditamos que este trabalho constitui um passo crucial em direção ao desenvolvimento de métodos baseados em princípios para avaliar os riscos impostos por técnicas de IA cada vez mais avançadas e a natureza da identificabilidade em rastros humanos online. Esperamos que este trabalho seja de grande ajuda para pesquisadores, agentes de proteção de dados, comitês de ética e outros profissionais que buscam encontrar um equilíbrio entre compartilhar dados para pesquisa e proteger a privacidade de pacientes, participantes e cidadãos.”


Com base em um comunicado de imprensa emitido pelo Oxford Internet Institute.

 

.
.

Leia mais a seguir