Humanidades

Personagens para o bem, criados por inteligência artificial
Os pesquisadores encorajam casos de uso positivo de personagens gerados por IA para educação e bem-estar.
Por Becky Ham - 18/12/2021


Quando animadas usando tecnologias de inteligência artificial, imagens como essas podem ser usadas como adjuntos criativos para educação, terapia da fala e outros usos positivos. LR: A Mona Lisa, Mary Shelley, Martin Luther King Jr., Albert Einstein, Vincent Van Gogh e William Shakespeare. Créditos: Imagem cortesia dos pesquisadores.

À medida que se torna mais fácil criar personagens digitais hiper-realistas usando inteligência artificial, grande parte da conversa em torno dessas ferramentas tem se concentrado em conteúdo deepfake enganoso e potencialmente perigoso. Mas a tecnologia também pode ser usada para propósitos positivos - para reviver Albert Einstein para dar uma aula de física, conversar sobre uma mudança de carreira com seu eu mais velho ou tornar as pessoas anônimas, preservando a comunicação facial.

Para encorajar as possibilidades positivas da tecnologia, os pesquisadores do MIT Media Lab e seus colaboradores da Universidade da Califórnia em Santa Bárbara e da Universidade de Osaka compilaram um canal de geração de personagens de código aberto e fácil de usar que combina modelos de IA para gestos faciais, voz, e movimento e pode ser usado para criar uma variedade de saídas de áudio e vídeo. 

O pipeline também marca a saída resultante com uma marca d'água rastreável, bem como legível por humanos, para distingui-lo do conteúdo de vídeo autêntico e para mostrar como foi gerado - uma adição para ajudar a prevenir seu uso malicioso.

Ao tornar esse pipeline facilmente disponível, os pesquisadores esperam inspirar professores, alunos e profissionais de saúde a explorar como essas ferramentas podem ajudá-los em seus respectivos campos. Se mais alunos, educadores, profissionais de saúde e terapeutas tiverem a chance de construir e usar esses personagens, os resultados podem melhorar a saúde e o bem-estar e contribuir para a educação personalizada, escrevem os pesquisadores na Nature Machine Intelligence .

“Será um mundo estranho de fato quando IAs e humanos começarem a compartilhar identidades. Este artigo faz um trabalho incrível de liderança inovadora, mapeando o espaço do que é possível com personagens gerados por IA em domínios que vão da educação à saúde e relacionamentos íntimos, ao mesmo tempo que fornece um roteiro tangível sobre como evitar os desafios éticos em torno da privacidade e da deturpação , ”Diz Jeremy Bailenson, diretor fundador do Stanford Virtual Human Interaction Lab, que não foi associado ao estudo.

Embora a maior parte do mundo conheça a tecnologia dos deepfakes, “vemos seu potencial como uma ferramenta para a expressão criativa”, diz o primeiro autor do artigo, Pat Pataranutaporn, um aluno de PhD no grupo de pesquisa de interfaces de fluidos do professor de tecnologia de mídia Pattie Maes .  

Outros autores no papel incluem Maes; Valdemar Danry, aluno de mestrado da Fluid Interfaces, e Joanne Leong, aluno de doutorado; Dan Novy, cientista de pesquisa do Media Lab; Professor Assistente da Universidade de Osaka, Parinya Punpongsanon ; e a Professora Assistente Misha Sra da Universidade da Califórnia em Santa Bárbara .

Verdades mais profundas e aprendizado mais profundo

Redes adversárias geradoras, ou GANs, uma combinação de duas redes neurais que competem entre si, tornaram mais fácil criar imagens fotorrealistas, clonar vozes e animar rostos. Pataranutaporn, com Danry, primeiro explorou suas possibilidades em um projeto chamado Machinoia , onde ele gerou múltiplas representações alternativas de si mesmo - como uma criança, como um velho, como uma mulher - para ter um autodiálogo de escolhas de vida de diferentes perspectivas. A experiência incomum de deepfaking o tornou consciente de sua “jornada como pessoa”, diz ele. “Era uma verdade profunda - descobrir algo sobre você que você nunca pensou antes, usando seus próprios dados sobre você mesmo.”

A autoexploração é apenas uma das aplicações positivas de personagens gerados por IA, dizem os pesquisadores. Experimentos mostram, por exemplo, que esses personagens podem deixar os alunos mais entusiasmados com o aprendizado e melhorar o desempenho em tarefas cognitivas. A tecnologia oferece uma maneira de o ensino ser “personalizado de acordo com seus interesses, seus ídolos, seu contexto, e pode ser alterado com o tempo”, explica Pataranutaporn, como um complemento ao ensino tradicional.

Por exemplo, os pesquisadores do MIT usaram seu pipeline para criar uma versão sintética de Johann Sebastian Bach, que teve uma conversa ao vivo com o renomado violoncelista Yo Yo Ma na aula de interfaces musicais do professor Tod Machover do Media Lab - para o deleite dos alunos e de Ma.

Outros aplicativos podem incluir personagens que ajudam a fornecer terapia, para aliviar a crescente escassez de profissionais de saúde mental e atingir a estimativa de 44 por cento de americanos com problemas de saúde mental que nunca recebem aconselhamento, ou conteúdo gerado por IA que oferece terapia de exposição para pessoas com ansiedade social . Em um caso de uso relacionado, a tecnologia pode ser usada para tornar rostos anônimos em vídeo, preservando expressões faciais e emoções, o que pode ser útil para sessões em que as pessoas desejam compartilhar informações pessoais confidenciais, como experiências de saúde e trauma, ou para denunciantes e relatos de testemunhas .

Mas também existem casos de uso mais artísticos e lúdicos. Na aula Experimentos em Deepfakes deste outono , liderada por Maes e o afiliado de pesquisa Roy Shilkrot, os alunos usaram a tecnologia para animar as figuras em uma pintura chinesa histórica e para criar um "simulador de separação" de namoro, entre outros projetos.

Desafios legais e éticos

Muitas das aplicações de personagens gerados por IA levantam questões legais e éticas que devem ser discutidas conforme a tecnologia evolui, observam os pesquisadores em seu artigo. Por exemplo, como vamos decidir quem tem o direito de recriar digitalmente um personagem histórico? Quem é legalmente responsável se um clone de IA de uma pessoa famosa promover um comportamento prejudicial online? E há algum perigo de preferirmos interagir com personagens sintéticos em vez de humanos?

“Um dos nossos objetivos com esta pesquisa é aumentar a consciência sobre o que é possível, fazer perguntas e iniciar conversas públicas sobre como essa tecnologia pode ser usada eticamente para benefício da sociedade. Que ações técnicas, jurídicas, políticas e educacionais podemos realizar para promover casos de uso positivos e, ao mesmo tempo, reduzir a possibilidade de danos? ” afirma Maes.

Ao compartilhar a tecnologia amplamente e ao mesmo tempo rotulá-la claramente como sintetizada, Pataranutaporn diz: “esperamos estimular casos de uso mais criativos e positivos, ao mesmo tempo que educamos as pessoas sobre os benefícios e danos potenciais da tecnologia

 

.
.

Leia mais a seguir