Tecnologia Científica

Novo princípio matemático usado para impedir que a IA tome decisões antiéticas
Um novo princípio matemático foi projetado para combater o viés da IA ​​no sentido de fazer escolhas comerciais antiéticas e caras.
Por Hayley Dunning - 05/07/2020

Domínio público

Pesquisadores da Universidade de Warwick, Imperial College de Londres, EPFL (Lausanne) e Sciteb Ltd descobriram um meio matemático de ajudar reguladores e empresas a gerenciar preconceitos de sistemas de inteligência artificial (IA) para fazer escolhas comerciais antiéticas e potencialmente muito caras e prejudiciais. .

"Pode ser necessário repensar o modo como a IA opera em espaços estratégicos muito grandes, para que resultados antiéticos sejam rejeitados pelo processo de otimização".

Dr Heather Battey

A IA é cada vez mais implantada em situações comerciais, por exemplo, para definir os preços dos produtos de seguros a serem vendidos para clientes específicos. A IA escolherá entre muitas estratégias em potencial, algumas das quais podem ser discriminatórias ou, de outra forma, usar indevidamente os dados do cliente de maneiras que posteriormente levarão a penalidades severas para a empresa. Por exemplo, os reguladores podem cobrar multas significativas e os clientes podem boicotar a empresa.

Idealmente, métodos antiéticos como esses seriam removidos do conjunto de estratégias potenciais de antemão, mas como a IA não tem um senso moral, não pode distinguir entre estratégias éticas e antiéticas.

Em um ambiente em que as decisões são cada vez mais tomadas sem intervenção humana, há, portanto, um incentivo muito forte para saber em que circunstâncias os sistemas de IA podem adotar uma estratégia antiética e reduzir esse risco ou eliminá-lo completamente, se possível.

Princípio de otimização antiética

A coautora do artigo, Dra. Heather Battey , do Departamento de Matemática da Imperial, disse: “Nosso trabalho mostra que certos tipos de sistemas comerciais de inteligência artificial podem ampliar significativamente o risco de escolher estratégias antiéticas em relação a um sistema menos sofisticado que escolheria. uma estratégia arbitrariamente.

"Isso sugere que pode ser necessário repensar o modo como a IA opera em espaços estratégicos muito grandes, para que resultados antiéticos sejam rejeitados pelo processo de otimização".

A equipe de pesquisa descobriu que, embora possa haver apenas algumas estratégias antiéticas em um conjunto de possibilidades, os sistemas de IA podem ser mais propensos a escolhê-las, porque são rentáveis.

Portanto, eles criaram um novo 'Princípio de Otimização Antiética' e forneceram uma fórmula simples para estimar seu impacto, publicada na Royal Society Open Science . O Princípio foi desenvolvido para ajudar reguladores e empresas a encontrar estratégias problemáticas escondidas entre um grande conjunto de estratégias potenciais e sugerir como o algoritmo de busca da IA ​​deve ser modificado para evitá-las.

O  coautor Robert MacKay, do Instituto de Matemática da Universidade de Warwick, disse: “Nosso 'Princípio de otimização antiética' sugerido pode ser usado para ajudar reguladores, funcionários de conformidade e outros a encontrar estratégias problemáticas que podem estar ocultas em um amplo espaço estratégico. Pode-se esperar que a otimização escolha desproporcionalmente muitas estratégias antiéticas, cuja inspeção deve mostrar onde os problemas provavelmente surgirão e, assim, sugerir como o algoritmo de busca da IA ​​deve ser modificado para evitá-los no futuro. ”

 

.
.

Leia mais a seguir