Humanidades

Apelo a salvaguardas para evitar 'assombrações' indesejadas por chatbots de IA a entes queridos falecidos
Os pesquisadores de Cambridge expõem a necessidade de projetar protocolos de segurança que evitem que a emergente “indústria digital da vida após a morte” cause danos sociais e psicológicos.
Por Fred Lewsey - 14/05/2024


Uma visualização de um dos cenários de design destacados no último artigo - Crédito: Tomasz Hollanek

A inteligência artificial que permite aos utilizadores manter conversas de texto e voz com entes queridos perdidos corre o risco de causar danos psicológicos e até de “assombrar” digitalmente aqueles que ficam para trás sem padrões de segurança de design, de acordo com investigadores da Universidade de Cambridge. 

'Deadbots' ou 'Griefbots' são chatbots de IA que simulam os padrões de linguagem e traços de personalidade dos mortos usando as pegadas digitais que eles deixam para trás. Algumas empresas já oferecem estes serviços, proporcionando um tipo totalmente novo de “presença post mortem”.

Especialistas em ética em IA do Centro Leverhulme para o Futuro da Inteligência de Cambridge descrevem três cenários de design para plataformas que poderiam surgir como parte da “indústria digital da vida após a morte” em desenvolvimento, para mostrar as consequências potenciais do design descuidado em uma área de IA que eles descrevem como “de alto risco”. 

A pesquisa, publicada na revista Philosophy and Technology , destaca o potencial das empresas usarem deadbots para anunciar sub-repticiamente produtos aos usuários, como se fosse um ente querido que partiu, ou para angustiar as crianças, insistindo que um pai falecido ainda está “com você”.

Quando os vivos se inscrevem para serem virtualmente recriados depois de morrerem, os chatbots resultantes podem ser usados pelas empresas para enviar spam aos familiares e amigos sobreviventes com notificações não solicitadas, lembretes e atualizações sobre os serviços que prestam – semelhante a ser digitalmente “perseguido pelos mortos”. 

Mesmo aqueles que se consolam inicialmente com um 'deadbot' podem ficar esgotados pelas interações diárias que se tornam um “peso emocional avassalador”, argumentam os pesquisadores, mas também podem ser impotentes para suspender uma simulação de IA se seu ente querido, agora falecido, assinar um longo contrato. contratar um serviço digital de vida após a morte. 

“Avanços rápidos na IA generativa significam que quase qualquer pessoa com acesso à Internet e algum conhecimento básico pode reviver um ente querido falecido”, disse a Dra. Katarzyna Nowaczyk-Basiska, coautora do estudo e pesquisadora do Centro Leverhulme para o Futuro da Inteligência de Cambridge ( LCFI).

“Esta área da IA é um campo minado ético. É importante dar prioridade à dignidade do falecido e garantir que esta não seja prejudicada por motivos financeiros de serviços digitais de vida após a morte, por exemplo.

“Ao mesmo tempo, uma pessoa pode deixar uma simulação de IA como um presente de despedida para entes queridos que não estão preparados para processar o seu luto desta forma. Os direitos dos doadores de dados e daqueles que interagem com os serviços de IA após a morte devem ser igualmente salvaguardados.”

Já existem plataformas que oferecem a recriação de mortos com IA por uma pequena taxa, como o 'Projeto Dezembro', que começou a aproveitar modelos GPT antes de desenvolver seus próprios sistemas, e aplicativos incluindo 'HereAfter'. Serviços semelhantes também começaram a surgir na China.

Um dos cenários potenciais no novo artigo é “MaNana”: um serviço de IA conversacional que permite às pessoas criar um deadbot simulando a sua avó falecida sem o consentimento do “doador de dados” (o avô falecido). 

O cenário hipotético mostra um neto adulto que inicialmente fica impressionado e confortado com a tecnologia e começa a receber anúncios assim que um “teste premium” termina. Por exemplo, o chatbot sugerindo fazer pedidos em serviços de entrega de comida na voz e no estilo do falecido.

O familiar sente que desrespeitou a memória da avó e deseja que o deadbot seja desligado, mas de forma significativa – algo que os prestadores de serviço não consideraram.

“As pessoas podem desenvolver fortes laços emocionais com tais simulações, o que as tornará particularmente vulneráveis à manipulação”, disse o coautor Dr. Tomasz Hollanek, também do LCFI de Cambridge.

“Métodos e até rituais para aposentar os deadbots de forma digna devem ser considerados. Isso pode significar uma forma de funeral digital, por exemplo, ou outros tipos de cerimônia dependendo do contexto social.”

“Recomendamos protocolos de design que evitem que os deadbots sejam utilizados de forma desrespeitosa, como para publicidade ou para ter uma presença ativa nas redes sociais.”

Embora Hollanek e Nowaczyk-Basi?ska afirmem que os criadores de serviços de recreação deveriam procurar activamente o consentimento dos doadores de dados antes de estes serem aprovados, argumentam que uma proibição de deadbots baseados em doadores sem consentimento seria inviável.

Eles sugerem que os processos de design devem envolver uma série de instruções para aqueles que desejam “ressuscitar” seus entes queridos, como 'você já conversou com X sobre como eles gostariam de ser lembrados?', para que a dignidade dos que partiram seja colocada em primeiro plano. no desenvolvimento de deadbot.    

Outro cenário apresentado no jornal, uma empresa imaginária chamada “Paren't”, destaca o exemplo de uma mulher com doença terminal que deixa um deadbot para ajudar o seu filho de oito anos no processo de luto.

Embora o deadbot inicialmente ajude como auxílio terapêutico, a IA começa a gerar respostas confusas à medida que se adapta às necessidades da criança, como representar um encontro pessoal iminente.

Os pesquisadores recomendam restrições de idade para deadbots e também pedem “transparência significativa” para garantir que os usuários estejam consistentemente cientes de que estão interagindo com uma IA. Estes podem ser semelhantes aos avisos atuais sobre conteúdos que podem causar convulsões, por exemplo.

O cenário final explorado pelo estudo – uma empresa fictícia chamada “Stay” – mostra uma pessoa idosa comprometendo-se secretamente com um deadbot de si mesma e pagando por uma assinatura de vinte anos, na esperança de que isso confortasse seus filhos adultos e permitisse que seus netos conhecê-los.

Após a morte, o serviço entra em ação. Um filho adulto não se envolve e recebe uma enxurrada de e-mails na voz de seu pai falecido. Outro o faz, mas acaba emocionalmente exausto e atormentado pela culpa pelo destino do deadbot. No entanto, suspender o deadbot violaria os termos do contrato que seu pai assinou com a empresa de serviços.

“É vital que os serviços digitais de vida após a morte considerem os direitos e o consentimento não apenas daqueles que recriam, mas daqueles que terão de interagir com as simulações”, disse Hollanek.

“Esses serviços correm o risco de causar grande sofrimento às pessoas se elas forem submetidas a assombrações digitais indesejadas provenientes de recriações de IA alarmantemente precisas daqueles que perderam. O potencial efeito psicológico, especialmente num momento já difícil, pode ser devastador.”

Os pesquisadores pedem que as equipes de design priorizem protocolos de exclusão que permitam que usuários em potencial terminem seus relacionamentos com deadbots de forma a proporcionar um fechamento emocional.

Acrescentou Nowaczyk-Basiska: “Precisamos começar a pensar agora sobre como mitigar os riscos sociais e psicológicos da imortalidade digital, porque a tecnologia já está aqui”.  

 

.
.

Leia mais a seguir