Tecnologia Científica

Como construir um chatbot simpa¡tico
Os consumidores tem preferaªncias consistentes de personalidade para seus amigos online, mostra uma nova pesquisa.
Por Ranjay Krishna - 12/01/2021


Por que alguns chatbots, como o chatbot chinaªs Xiaoice da Microsoft, acima, acumulam milhões de usuários mensais, enquanto outros são rapidamente descartados? 

Ha¡ alguns anos, o Business Insider previu que 80% dos aplicativos corporativos usariam chatbots até2020. Hoje, a Internet estãoinundada com milhões de agentes de inteligaªncia artificial conversacional. No entanto, apenas alguns deles são realmente usados ​​pelas pessoas - a maioria édescartada. 

Mesmo que os fundamentos técnicos desses agentes continuem a melhorar, ainda não temos um entendimento fundamental dos mecanismos que influenciam nossa experiência com eles: Quais fatores influenciam nossa decisão de continuar usando um agente de IA? Por que, por exemplo, o chatbot chinaªs Xiaoice da Microsoft acumulava milhões de usuários mensais, enquanto as mesmas técnicas da versão em inglês da Microsoft, Tay, o levaram a ser descontinuado para obter interações de trolls anti-sociais?

Infelizmente, as teorias existentes não explicam essa discrepa¢ncia. No caso de Xiaoice e Tay, ambos os agentes foram baseados na mesma tecnologia da Microsoft, mas resultaram em reações muito diferentes dos usuários. Muitos agentes de IA receberam recepções polarizadas apesar de oferecerem funcionalidades muito semelhantes; por exemplo, chatbots de suporte emocional Woebot e Replika continuam a evocar um comportamento positivo do usua¡rio, enquanto Mitsuku éfrequentemente sujeito a  desumanização.

Nossa equipe de pesquisadores de Stanford estava interessada em estudar os efeitos de uma diferença importante e não examinada entre esses agentes de IA semelhantes - as descrições anexadas a eles. Palavras são um dos meios mais comuns e poderosos que um designer tem para influenciar as expectativas do usua¡rio. E se as palavras podem influenciar nossas expectativas, também podem impactar nosso comportamento e experiências com agentes de IA.

Descrições, ou mais formalmente meta¡foras, são anexadas a todos os tipos de sistemas de IA, tanto por designers para comunicar aspectos do sistema quanto por usuários para expressar sua compreensão do sistema. Por exemplo, o Google descreve seu algoritmo de busca como um “nariz roba³tico” e os usuários do YouTube pensam no algoritmo de recomendação como um “traficante de drogas”, sempre empurrando-os para mais fundo na plataforma. Os designers costumam usar meta¡foras para comunicar as funcionalidades de seus sistemas. Na verdade, eles tem usado meta¡foras por décadas, comea§ando com a meta¡fora da "área de trabalho" para computação pessoal até"latas de lixo" para arquivos exclua­dos, "blocos de notas" para anotações de texto livre e sons de cliques do obturador anala³gico para ca¢meras de telefones celulares (seus telefones certamente não precisa fazer esse som para tirar uma foto).

Hoje, os agentes de IA são frequentemente associados a algum tipo de meta¡fora. Alguns, como Siri e Alexa, são vistos como assistentes administrativos; Xiaoice éprojetado como um "amigo" e Woebot como um "psicoterapeuta". Essas meta¡foras tem o objetivo de nos ajudar a compreender e prever como esses agentes de IA devem ser usados ​​e como se comportara£o.

Em nosso artigo de pré-impressão recente , meus co-autores - co-diretor da HAI e professor de ciência da computação de Stanford Fei-Fei Li , professor de comunicação Jeffrey Hancock , professor associado de ciência da computação Michael Bernstein e estudante de graduação da Carnegie Mellon University Pranav Khadpe - e eu estudaram como essas descrições e meta¡foras moldam as expectativas do usua¡rio e mediam as experiências dos agentes de IA, mantendo o agente de IA subjacente exatamente idaªntico. Se, por exemplo, a meta¡fora estimula as pessoas a esperar uma IA que éaltamente competente e capaz de entender comandos complexos, elas avaliara£o a mesma interação com o agente de forma diferente do que se os usuários esperassem que sua IA seja menos competente e compreenda apenas comandos simples. Da mesma forma, se os usuários esperam uma experiência calorosa e acolhedora, eles avaliara£o um agente de IA de forma diferente do que se esperassem uma experiência profissional mais fria.

Recrutamos cerca de 300 pessoas com sede nos Estados Unidos para participar de nosso experimento, onde interagiram com um novo agente de IA. Descrevemos esse novo agente para cada participante com diferentes meta¡foras. Depois de interagir com o agente para concluir uma tarefa, os participantes foram solicitados a relatar como se sentiam em relação ao agente. Eles gostariam de usar o agente novamente? Eles estãodispostos a adotar tal agente? Eles tentara£o cooperar com isso?

Nossos resultados sugerem algo surpreendente e contra¡rio ao modo como os designers costumam descrever seus agentes de IA. Meta¡foras de baixa competaªncia (por exemplo, "este agente écomo uma criana§a") levaram a aumentos na usabilidade percebida, intenção de adotar e desejo de cooperar em relação a meta¡foras de alta competaªncia (por exemplo, "este agente étreinado como um profissional") . Essas descobertas persistiram mesmo que a IA subjacente funcionasse emnívelhumano. Esse resultado sugere que, por mais competente que seja o agente, as pessoas o vera£o de forma negativa se ele projetar um altonívelde competaªncia. Tambanãm descobrimos que as pessoas são mais propensas a cooperar e ajudar um agente que projeta meta¡foras de maior calor humano (por exemplo, “afa¡vel” ou “sincero”).

Finalmente, com esses resultados em mente, analisamos retrospectivamente as descrições anexadas a produtos de IA existentes e anteriores, como Xiaoice ("ouvido simpa¡tico"), Tay ("fam da internet que tem zero chill!"), Mitsuku ("um recorde, cinco vezes vencedor do Teste de Turing ”), e mostrou que nossos resultados são consistentes com a adoção e o comportamento do usua¡rio com esses produtos. Tay desperta pouco entusiasmo e atrai muitos usuários anti-sociais; Mitsuku projeta alta competaªncia e foi abandonado; Xiaoice projeta alto calor e se envolve positivamente com milhões de usuários.

As descrições são poderosas. Nossa análise sugere que os designers devem analisar cuidadosamente os efeitos das meta¡foras que associam aos sistemas de IA que criam, especialmente se eles estãocomunicando expectativas de alta competaªncia.

Ranjay Krishna éum candidato a PhD em Stanford em ciência da computação, cuja pesquisa estãona interseção do aprendizado de ma¡quina e da interação humano-computador.

 

.
.

Leia mais a seguir