Comentário do especialista: Não há necessidade de esperar pelo futuro, o perigo da IA já está aqui
Visões de blockbusters de ficção científica foram recentemente evocadas quando Geoffrey Hinton, o engenheiro do Google e 'padrinho da IA', falou sobre os perigos de grandes modelos de linguagem e inteligência artificial geral.
Um personagem de ficção científica: É importante reconhecer quando a ficção científica se veste de ciência e, em vez disso, focar nossa atenção nos problemas de hoje. Crédito: Shutterstock
Sua não foi a primeira intervenção desse tipo. Em março, circulou uma carta aberta, assinada por Elon Musk e outros, falando sobre o "risco profundo" da IA para a humanidade e pedindo uma interrupção temporária do desenvolvimento.
Pelo professor Brent Mittelstadt e pela professora Sandra Wachter , do Oxford Internet Institute .
Mas esta está longe de ser a primeira vez que as preocupações são levantadas sobre a IA. Há muitos anos, uma série de especialistas alerta para os riscos atuais da IA . Esses riscos são reais e estão aqui agora, não em um futuro de ficção científica. A IA já está reforçando e exacerbando muitos desafios já enfrentados pela sociedade, como preconceito, discriminação e desinformação.
"Esta está longe de ser a primeira vez que preocupações foram levantadas sobre IA... Esses riscos são reais e estão aqui agora, não em um futuro de ficção científica"
Atualmente, não estamos no caminho de máquinas 'inteligentes' que possam superar e suplantar a inteligência humana, assumindo que tal coisa seja possível. O que é preocupante é que pensar em catástrofes futuras imaginárias desvia a atenção dos perigos éticos reais representados agora pela IA. Esses incluem:
Preconceito e discriminação . Não existem dados neutros. As máquinas inevitavelmente aprendem nossos preconceitos e podem reforçá-los ou introduzir novos . Por exemplo, um programa de recrutamento de IA pode favorecer homens para um trabalho em computação, porque descobriu que a maioria dos especialistas em computação são homens.
Desinformação. A IA, e especialmente os grandes modelos de linguagem, reduzem os custos e o esforço necessários para criar e espalhar desinformação. Por exemplo, StackOverflow, um site usado por desenvolvedores teve que banir as respostas e o código gerado pelo ChatGPT porque parece uma resposta humana, mas na maioria das vezes é incorreta.
"Pensar em catástrofes futuras imaginárias desvia a atenção dos perigos éticos reais representados agora pela IA"
Há também grandes preocupações sobre o impacto ambiental da IA em geral e modelos de linguagem cada vez maiores em particular. Esses sistemas consomem um grande volume de hardware e recursos naturais. A computação agora responde por mais emissões do que a indústria da aviação e o desenvolvimento atual tende a conjuntos de dados e modelos cada vez maiores e com uso intensivo de recursos. Estima-se que um data center de tamanho médio use 360.000 galões de água por dia para resfriamento . Mas não podemos ter certeza do tamanho real do impacto porque os dados necessários não são públicos.
A IA representa riscos reais para a sociedade. Concentrar-se em riscos imaginários de longo prazo presta um péssimo serviço às pessoas e ao planeta que está sendo impactado por essa tecnologia hoje. É importante reconhecer quando a ficção científica se veste de ciência e, em vez disso, focar nossa atenção nos problemas de hoje.