Tecnologia Científica

Novo princa­pio matema¡tico usado para impedir que a IA tome decisaµes antianãticas
Um novo princa­pio matema¡tico foi projetado para combater o vianãs da IA ​​no sentido de fazer escolhas comerciais antianãticas e caras.
Por Hayley Dunning - 05/07/2020

Doma­nio paºblico

Pesquisadores da Universidade de Warwick, Imperial College de Londres, EPFL (Lausanne) e Sciteb Ltd descobriram um meio matema¡tico de ajudar reguladores e empresas a gerenciar preconceitos de sistemas de inteligaªncia artificial (IA) para fazer escolhas comerciais antianãticas e potencialmente muito caras e prejudiciais. .

"Pode ser necessa¡rio repensar o modo como a IA opera em Espaços estratanãgicos muito grandes, para que resultados antianãticos sejam rejeitados pelo processo de otimização".

Dr Heather Battey

A IA écada vez mais implantada em situações comerciais, por exemplo, para definir os prea§os dos produtos de seguros a serem vendidos para clientes específicos. A IA escolhera¡ entre muitas estratanãgias em potencial, algumas das quais podem ser discriminata³rias ou, de outra forma, usar indevidamente os dados do cliente de maneiras que posteriormente levara£o a penalidades severas para a empresa. Por exemplo, os reguladores podem cobrar multas significativas e os clientes podem boicotar a empresa.

Idealmente, manãtodos antianãticos como esses seriam removidos do conjunto de estratanãgias potenciais de antema£o, mas como a IA não tem um senso moral, não pode distinguir entre estratanãgias anãticas e antianãticas.

Em um ambiente em que as decisaµes são cada vez mais tomadas sem intervenção humana, ha¡, portanto, um incentivo muito forte para saber em que circunsta¢ncias os sistemas de IA podem adotar uma estratanãgia antianãtica e reduzir esse risco ou elimina¡-lo completamente, se possí­vel.

Princa­pio de otimização antianãtica

A coautora do artigo, Dra. Heather Battey , do Departamento de Matema¡tica da Imperial, disse: “Nosso trabalho mostra que certos tipos de sistemas comerciais de inteligaªncia artificial podem ampliar significativamente o risco de escolher estratanãgias antianãticas em relação a um sistema menos sofisticado que escolheria. uma estratanãgia arbitrariamente.

"Isso sugere que pode ser necessa¡rio repensar o modo como a IA opera em Espaços estratanãgicos muito grandes, para que resultados antianãticos sejam rejeitados pelo processo de otimização".

A equipe de pesquisa descobriu que, embora possa haver apenas algumas estratanãgias antianãticas em um conjunto de possibilidades, os sistemas de IA podem ser mais propensos a escolhaª-las, porque são renta¡veis.

Portanto, eles criaram um novo 'Princa­pio de Otimização Antianãtica' e forneceram uma fa³rmula simples para estimar seu impacto, publicada na Royal Society Open Science . O Princa­pio foi desenvolvido para ajudar reguladores e empresas a encontrar estratanãgias problema¡ticas escondidas entre um grande conjunto de estratanãgias potenciais e sugerir como o algoritmo de busca da IA ​​deve ser modificado para evita¡-las.

O  coautor Robert MacKay, do Instituto de Matema¡tica da Universidade de Warwick, disse: “Nosso 'Princa­pio de otimização antianãtica' sugerido pode ser usado para ajudar reguladores, funciona¡rios de conformidade e outros a encontrar estratanãgias problema¡ticas que podem estar ocultas em um amplo espaço estratanãgico. Pode-se esperar que a otimização escolha desproporcionalmente muitas estratanãgias antianãticas, cuja inspeção deve mostrar onde os problemas provavelmente surgira£o e, assim, sugerir como o algoritmo de busca da IA ​​deve ser modificado para evita¡-los no futuro. ”

 

.
.

Leia mais a seguir