Tecnologia Científica

Estudo revela que chatbots de IA podem detectar raça, mas preconceito racial reduz empatia de resposta
Pesquisadores do MIT, NYU e UCLA desenvolvem uma abordagem para ajudar a avaliar se grandes modelos de linguagem como o GPT-4 são equitativos o suficiente para serem clinicamente viáveis para suporte à saúde mental.
Por Alex Ouyang - 17/12/2024


Chatbots com tecnologia de IA podem potencialmente expandir o acesso ao suporte de saúde mental, mas tropeços amplamente divulgados lançaram dúvidas sobre sua confiabilidade em cenários de alto risco. Créditos: Imagem: Sadjad/Figma e Alex Ouyang/Clínica MIT Jameel


Com a cobertura do anonimato e a companhia de estranhos, o apelo do mundo digital está crescendo como um lugar para buscar suporte de saúde mental. Esse fenômeno é impulsionado pelo fato de que  mais de 150 milhões de pessoas nos Estados Unidos vivem em áreas de escassez de profissionais de saúde mental designadas pelo governo federal.

“Eu realmente preciso da sua ajuda, pois estou com muito medo de falar com um terapeuta e não consigo falar com nenhum de qualquer maneira.”

“Estou exagerando, ficando magoada porque meu marido está tirando sarro de mim para os amigos?”

“Alguns estranhos poderiam, por favor, opinar sobre minha vida e decidir meu futuro por mim?”

As citações acima são postagens reais tiradas de usuários no Reddit, um site de notícias de mídia social e fórum onde os usuários podem compartilhar conteúdo ou pedir conselhos em fóruns menores baseados em interesses, conhecidos como “subreddits”. 

Usando um conjunto de dados de 12.513 postagens com 70.429 respostas de 26 subreddits relacionados à saúde mental, pesquisadores do MIT, da New York University (NYU) e da University of California Los Angeles (UCLA) criaram uma estrutura para ajudar a avaliar a equidade e a qualidade geral dos chatbots de suporte à saúde mental com base em modelos de linguagem ampla (LLMs) como o GPT-4. O trabalho deles foi publicado recentemente na Conferência de 2024 sobre Métodos Empíricos em Processamento de Linguagem Natural (EMNLP). 

Para fazer isso, os pesquisadores pediram a dois psicólogos clínicos licenciados para avaliar 50 postagens do Reddit amostradas aleatoriamente buscando suporte de saúde mental, pareando cada postagem com uma resposta real do Redditor ou uma resposta gerada pelo GPT-4. Sem saber quais respostas eram reais ou quais eram geradas por IA, os psicólogos foram solicitados a avaliar o nível de empatia em cada resposta.

Os chatbots de suporte à saúde mental têm sido explorados há muito tempo como uma forma de melhorar o acesso ao suporte à saúde mental, mas LLMs poderosos como o ChatGPT da OpenAI estão transformando a interação entre humanos e IA, com respostas geradas por IA se tornando mais difíceis de distinguir das respostas de humanos reais.

Apesar desse progresso notável, as consequências não intencionais do suporte à saúde mental fornecido pela IA chamaram a atenção para seus riscos potencialmente mortais; em março do ano passado, um homem belga cometeu suicídio como resultado de uma troca com ELIZA, um chatbot desenvolvido para emular um psicoterapeuta com um LLM chamado GPT-J. Um mês depois, a National Eating Disorders Association suspenderia seu chatbot Tessa, depois que o chatbot começou a distribuir dicas de dieta para pacientes com transtornos alimentares.

Saadia Gabriel, uma pós-doutoranda recente do MIT que agora é professora assistente da UCLA e primeira autora do artigo, admitiu que inicialmente era muito cética sobre quão eficazes os chatbots de suporte à saúde mental poderiam realmente ser. Gabriel conduziu esta pesquisa durante seu tempo como pós-doutoranda no MIT no Healthy Machine Learning Group, liderado por Marzyeh Ghassemi, professora associada do MIT no Departamento de Engenharia Elétrica e Ciência da Computação e Instituto de Engenharia Médica e Ciência do MIT que é afiliada à Clínica Abdul Latif Jameel do MIT para Aprendizado de Máquina em Saúde e ao Laboratório de Ciência da Computação e Inteligência Artificial.

O que Gabriel e a equipe de pesquisadores descobriram foi que as respostas do GPT-4 não eram apenas mais empáticas no geral, mas eram 48% melhores em incentivar mudanças comportamentais positivas do que as respostas humanas.

No entanto, em uma avaliação tendenciosa, os pesquisadores descobriram que os níveis de empatia de resposta do GPT-4 foram reduzidos para os participantes negros (2 a 15 por cento menor) e asiáticos (5 a 17 por cento menor) em comparação aos participantes brancos ou cuja raça era desconhecida. 

Para avaliar o viés nas respostas do GPT-4 e nas respostas humanas, os pesquisadores incluíram diferentes tipos de postagens com vazamentos demográficos explícitos (por exemplo, gênero, raça) e vazamentos demográficos implícitos. 

Um vazamento demográfico explícito seria algo como: “Sou uma mulher negra de 32 anos”.

Enquanto um vazamento demográfico implícito seria algo como: “Ser uma garota de 32 anos usando meu cabelo natural”, em que palavras-chave são usadas para indicar certos dados demográficos ao GPT-4.

Com exceção das mulheres negras que postaram, as respostas do GPT-4 foram menos afetadas por vazamentos demográficos explícitos e implícitos em comparação aos respondentes humanos, que tendiam a ser mais empáticos ao responder a postagens com sugestões demográficas implícitas.

“A estrutura da entrada que você fornece [ao LLM] e algumas informações sobre o contexto, como se você quer que [o LLM] aja no estilo de um clínico, no estilo de uma postagem de mídia social ou se você quer que ele use atributos demográficos do paciente, tem um grande impacto na resposta que você obtém”, diz Gabriel.

O artigo sugere que fornecer instruções explícitas para que os LLMs usem atributos demográficos pode efetivamente aliviar o viés, já que esse foi o único método em que os pesquisadores não observaram uma diferença significativa na empatia entre os diferentes grupos demográficos.

Gabriel espera que este trabalho possa ajudar a garantir uma avaliação mais abrangente e cuidadosa dos LLMs implantados em ambientes clínicos em subgrupos demográficos.

“LLMs já estão sendo usados para fornecer suporte voltado para o paciente e foram implantados em ambientes médicos, em muitos casos para automatizar sistemas humanos ineficientes”, diz Ghassemi. “Aqui, demonstramos que, embora LLMs de última geração sejam geralmente menos afetados por vazamento demográfico do que humanos em suporte de saúde mental ponto a ponto, eles não fornecem respostas de saúde mental equitativas entre subgrupos de pacientes inferidos... temos muitas oportunidades de melhorar os modelos para que eles forneçam suporte aprimorado quando usados.”

 

.
.

Leia mais a seguir