Tecnologia Científica

Como construir um chatbot simpático
Os consumidores têm preferências consistentes de personalidade para seus amigos online, mostra uma nova pesquisa.
Por Ranjay Krishna - 12/01/2021


Por que alguns chatbots, como o chatbot chinês Xiaoice da Microsoft, acima, acumulam milhões de usuários mensais, enquanto outros são rapidamente descartados? 

Há alguns anos, o Business Insider previu que 80% dos aplicativos corporativos usariam chatbots até 2020. Hoje, a Internet está inundada com milhões de agentes de inteligência artificial conversacional. No entanto, apenas alguns deles são realmente usados ​​pelas pessoas - a maioria é descartada. 

Mesmo que os fundamentos técnicos desses agentes continuem a melhorar, ainda não temos um entendimento fundamental dos mecanismos que influenciam nossa experiência com eles: Quais fatores influenciam nossa decisão de continuar usando um agente de IA? Por que, por exemplo, o chatbot chinês Xiaoice da Microsoft acumulava milhões de usuários mensais, enquanto as mesmas técnicas da versão em inglês da Microsoft, Tay, o levaram a ser descontinuado para obter interações de trolls anti-sociais?

Infelizmente, as teorias existentes não explicam essa discrepância. No caso de Xiaoice e Tay, ambos os agentes foram baseados na mesma tecnologia da Microsoft, mas resultaram em reações muito diferentes dos usuários. Muitos agentes de IA receberam recepções polarizadas apesar de oferecerem funcionalidades muito semelhantes; por exemplo, chatbots de suporte emocional Woebot e Replika continuam a evocar um comportamento positivo do usuário, enquanto Mitsuku é frequentemente sujeito à desumanização.

Nossa equipe de pesquisadores de Stanford estava interessada em estudar os efeitos de uma diferença importante e não examinada entre esses agentes de IA semelhantes - as descrições anexadas a eles. Palavras são um dos meios mais comuns e poderosos que um designer tem para influenciar as expectativas do usuário. E se as palavras podem influenciar nossas expectativas, também podem impactar nosso comportamento e experiências com agentes de IA.

Descrições, ou mais formalmente metáforas, são anexadas a todos os tipos de sistemas de IA, tanto por designers para comunicar aspectos do sistema quanto por usuários para expressar sua compreensão do sistema. Por exemplo, o Google descreve seu algoritmo de busca como um “nariz robótico” e os usuários do YouTube pensam no algoritmo de recomendação como um “traficante de drogas”, sempre empurrando-os para mais fundo na plataforma. Os designers costumam usar metáforas para comunicar as funcionalidades de seus sistemas. Na verdade, eles têm usado metáforas por décadas, começando com a metáfora da "área de trabalho" para computação pessoal até "latas de lixo" para arquivos excluídos, "blocos de notas" para anotações de texto livre e sons de cliques do obturador analógico para câmeras de telefones celulares (seus telefones certamente não precisa fazer esse som para tirar uma foto).

Hoje, os agentes de IA são frequentemente associados a algum tipo de metáfora. Alguns, como Siri e Alexa, são vistos como assistentes administrativos; Xiaoice é projetado como um "amigo" e Woebot como um "psicoterapeuta". Essas metáforas têm o objetivo de nos ajudar a compreender e prever como esses agentes de IA devem ser usados ​​e como se comportarão.

Em nosso artigo de pré-impressão recente , meus co-autores - co-diretor da HAI e professor de ciência da computação de Stanford Fei-Fei Li , professor de comunicação Jeffrey Hancock , professor associado de ciência da computação Michael Bernstein e estudante de graduação da Carnegie Mellon University Pranav Khadpe - e eu estudaram como essas descrições e metáforas moldam as expectativas do usuário e mediam as experiências dos agentes de IA, mantendo o agente de IA subjacente exatamente idêntico. Se, por exemplo, a metáfora estimula as pessoas a esperar uma IA que é altamente competente e capaz de entender comandos complexos, elas avaliarão a mesma interação com o agente de forma diferente do que se os usuários esperassem que sua IA seja menos competente e compreenda apenas comandos simples. Da mesma forma, se os usuários esperam uma experiência calorosa e acolhedora, eles avaliarão um agente de IA de forma diferente do que se esperassem uma experiência profissional mais fria.

Recrutamos cerca de 300 pessoas com sede nos Estados Unidos para participar de nosso experimento, onde interagiram com um novo agente de IA. Descrevemos esse novo agente para cada participante com diferentes metáforas. Depois de interagir com o agente para concluir uma tarefa, os participantes foram solicitados a relatar como se sentiam em relação ao agente. Eles gostariam de usar o agente novamente? Eles estão dispostos a adotar tal agente? Eles tentarão cooperar com isso?

Nossos resultados sugerem algo surpreendente e contrário ao modo como os designers costumam descrever seus agentes de IA. Metáforas de baixa competência (por exemplo, "este agente é como uma criança") levaram a aumentos na usabilidade percebida, intenção de adotar e desejo de cooperar em relação a metáforas de alta competência (por exemplo, "este agente é treinado como um profissional") . Essas descobertas persistiram mesmo que a IA subjacente funcionasse em nível humano. Esse resultado sugere que, por mais competente que seja o agente, as pessoas o verão de forma negativa se ele projetar um alto nível de competência. Também descobrimos que as pessoas são mais propensas a cooperar e ajudar um agente que projeta metáforas de maior calor humano (por exemplo, “afável” ou “sincero”).

Finalmente, com esses resultados em mente, analisamos retrospectivamente as descrições anexadas a produtos de IA existentes e anteriores, como Xiaoice ("ouvido simpático"), Tay ("fam da internet que tem zero chill!"), Mitsuku ("um recorde, cinco vezes vencedor do Teste de Turing ”), e mostrou que nossos resultados são consistentes com a adoção e o comportamento do usuário com esses produtos. Tay desperta pouco entusiasmo e atrai muitos usuários anti-sociais; Mitsuku projeta alta competência e foi abandonado; Xiaoice projeta alto calor e se envolve positivamente com milhões de usuários.

As descrições são poderosas. Nossa análise sugere que os designers devem analisar cuidadosamente os efeitos das metáforas que associam aos sistemas de IA que criam, especialmente se eles estão comunicando expectativas de alta competência.

Ranjay Krishna é um candidato a PhD em Stanford em ciência da computação, cuja pesquisa está na interseção do aprendizado de máquina e da interação humano-computador.

 

.
.

Leia mais a seguir