O professor Edward Harcourt , diretor interino do Instituto de Ética em IA e professor de Filosofia em Oxford, reflete sobre o que nossas relações com chatbots revelam sobre o que é distintamente humano.

Adolescente usa chatbot no celular. Crédito: Thai Liang Lim, Getty Images
O professor Edward Harcourt , diretor interino do Instituto de Ética em IA e professor de Filosofia na Universidade de Oxford, reflete sobre o que nossas relações com chatbots revelam sobre o que é distintamente humano. Ele argumenta que devemos educar os usuários para que vejam esses sistemas não como novos membros da comunidade humana, mas como ferramentas que correm o risco de reduzir tanto a terapia quanto os relacionamentos a trocas unidimensionais e instrumentais.

Professor Edward Harcourt. Crédito: Ian Wallman
Recentemente, a BBC noticiou a trágica história de dois adolescentes que aparentemente tiraram a própria vida após interagirem com chatbots. Como evitar que outras tragédias como essa se repitam?
Chatbots especializados em terapia podem ser úteis, treinados com base em aconselhamento especializado em vez de qualquer informação disponível na internet. Mas, sem dúvida, precisamos de mais: educar os usuários dessa tecnologia – especialmente os mais jovens – sobre o que ela é e, mais importante, o que ela não é.
Um fato surpreendente sobre nós – embora raramente o tenhamos em mente – é que não nos vemos uns aos outros como comida, e não apenas da mesma forma que a maioria dos vegetarianos não vê animais não humanos como comida: como a filósofa Cora Diamond apontou anos atrás ( Philosophy 53:206 (1978), pp 465-79.), nossa atitude em relação às pessoas nesse contexto é de uma ordem completamente diferente.
E há tantos outros fatos que, como disse Diamond, "contribuem para a construção da nossa ideia de ser humano": o fato de darmos nomes aos seres humanos em vez de números, e não apenas nomes quaisquer, mas nomes que nos situam em redes de significado mais amplas (pense no Ancestry.com). O fato de tratarmos até mesmo corpos humanos mortos com solenidade especial; de termos rostos infinitamente expressivos nos quais podemos ler, a cada segundo, mudanças de humor; ou de trazermos para tudo o que fazemos a consciência de que todos nós nascemos e vamos morrer.
Primeiro vem esse complexo de disposições naturais, depois o conceito do humano.
Nesse complexo reside a ligação com a ética da IA. O próprio termo "IA" introduz uma suposição: a de que existe uma única coisa – a inteligência – possuída tanto por humanos quanto por máquinas.
"Uma das coisas mais fascinantes sobre a ética da IA é a forma como ela nos leva a tomar consciência daquilo que nos é único. E não é óbvio – assim que fazemos a pergunta – que o complexo de disposições naturais que "constrói a nossa ideia de ser humano" não cria uma relação de camaradagem entre nós e entidades artificiais?"
Uma das coisas mais fascinantes sobre a ética da IA é a forma como ela nos leva a tomar consciência daquilo que nos é único. E não é óbvio — assim que fazemos a pergunta — que o complexo de disposições naturais que "constrói a nossa ideia de ser humano" não cria uma relação de comunhão entre nós e entidades artificiais, por mais competentes que sejam na produção de sequências de palavras, na imitação de expressões faciais e assim por diante? (Curiosamente, os animais parecem estar meio dentro e meio fora dessa relação. Mas esse é um assunto para outro dia.)
Mas calma lá: como esses eventos trágicos nos lembram, muitos adolescentes parecem achar mais fácil se abrir com chatbots do que com terapeutas humanos de verdade, talvez até mais do que com amigos. Por quê?
Bem, não há listas de espera para chatbots. Você não pode testar a paciência deles. Você não pode se preocupar com o fato de o bot conversar com outros clientes, então talvez você não seja tão especial assim; se preocupar com o fato de ele ter uma vida inteira – com entes queridos, colegas, interesses externos – que é invisível para você e na qual você não tem lugar; que ele possa cancelar a sessão porque algo mais importante surgiu; ou que ele possa morrer, de fato morrer antes que sua terapia chegue a uma conclusão significativa.
E depois de conversar com um chatbot, algumas pessoas podem acabar menos perturbadas do que antes.
Isso não demonstra que as observações de Diamond sobre nossa complexa rede de disposições inatas são profundamente contingentes e que agora – graças aos avanços na IA – as máquinas estão prontas para serem admitidas na irmandade que antes pensávamos ser exclusiva dos humanos?
"O que está acontecendo com adolescentes e chatbots é a instrumentalização: retiramos um desejo de uma extremidade de uma relação humana – o de se livrar da ansiedade, por exemplo – de um todo mais complexo e, na outra extremidade, substituímos por algo que se reduz à sua capacidade de satisfazer esse desejo."
A resposta é não. O que está acontecendo com adolescentes e chatbots é instrumentalização: retiramos um desejo de uma extremidade de uma relação humana – o de se livrar da ansiedade, por exemplo – de um todo mais complexo e, na outra extremidade, substituímos por algo que se reduz à sua capacidade de satisfazer esse desejo.
A oportunidade de instrumentalizar relações distintamente terapêuticas é nova. Mas a instrumentalização não é novidade alguma: é também, como já é sabido, o que acontece com a pornografia, e a pornografia é tão antiga quanto o mundo.
Agora, não adianta fingir que a pornografia não "funciona", se é que podemos usar esse termo: se não funcionasse, teria deixado de existir há séculos. Mas os usuários de pornografia certamente sabem que não estão em uma relação humana real: muitos recorrem a ela porque não conseguem desfrutar de relacionamentos humanos reais, ou porque o que desejam é algo mais simples do que os relacionamentos humanos reais podem facilmente proporcionar, ou ambos.
Isso representa um contraste significativo com os chatbots, onde muitas pessoas parecem – até agora – incapazes de perceber que o que está acontecendo é uma instrumentalização, a ponto de a popularidade dos chatbots ter gerado especulações entusiasmadas sobre novos membros artificiais da sociedade humana, quando a própria unidimensionalidade da nossa relação com eles demonstra que é exatamente isso que eles não são.
Então, o que aconteceria se fizéssemos perguntas rotineiramente aos jovens — talvez como parte de sua educação escolar — algumas questões: você acha que um chatbot está reservando um tempo para te ver? O chatbot não pega na sua mão para te confortar — isso acontece porque ele é frio ou (alternativamente) está respeitando os limites apropriados entre vocês? Quando o chatbot conversa com você por três horas seguidas sem mudar de humor, isso acontece porque ele é muito paciente? Um chatbot não pode faltar a uma sessão porque um de seus filhos está doente, então ele consegue ter empatia com você da mesma forma que uma criatura que compartilha da sua vulnerabilidade?
Então, o que aconteceria se fizéssemos perguntas rotineiramente aos jovens — talvez como parte de sua educação escolar — algumas questões: você acha que um chatbot está reservando um tempo para te ver? O chatbot não pega na sua mão para te confortar — isso acontece porque ele é frio ou (alternativamente) está respeitando os limites apropriados entre vocês? Quando o chatbot conversa com você por três horas seguidas sem mudar de humor, isso acontece porque ele é muito paciente? Um chatbot não pode faltar a uma sessão porque um de seus filhos está doente, então ele consegue ter empatia com você da mesma forma que uma criatura que compartilha da sua vulnerabilidade?
Acho que, se formulássemos as perguntas corretamente, mais cedo ou mais tarde a resposta para todas elas seria "não".
E se, apesar das respostas negativas, os jovens ainda escolhessem chatbots em vez de pessoas reais – o que bem poderia acontecer –, isso se deveria ao fato de a instrumentalização ser, por vezes, uma conveniência, e não – felizmente – porque foram enganados pela "IA aparentemente consciente".
Leia uma versão ampliada do comentário do Professor Harcourt no blog do Instituto de Ética em IA .
Para obter mais informações sobre esta notícia ou para republicar este conteúdo, entre em contato com news.office@admin.ox.ac.uk