Podemos perdoar uma ma¡quina? Estudo explora perda£o no contexto da roba³tica e IA
Michael Nagenborg, pesquisador da Universidade de Twente, na Holanda, realizou recentemente um estudo investigando o que poderia acontecer se um roba´ ou ma¡quina cometer um erro terravel que tenha consequaªncias negativas para seus usuários.
Crédito: Franck V. em Unsplash
Amedida que mais robôs entram na sociedade, éimportante considerar as implicações anãticas e morais de conclua-las tarefas que podem ter um impacto significativo na vida das pessoas. Se os robôs e as ma¡quinas forem amplamente utilizados em situações em que possam afetar seriamente a vida humana, por exemplo, dirigindo carros ou fornecendo aos idosos a medicação necessa¡ria diariamente, os desenvolvedores devem considerar primeiro as implicações associadas.
Com isso em mente, Michael Nagenborg, pesquisador da Universidade de Twente, na Holanda, realizou recentemente um estudo investigando o que poderia acontecer se um roba´ ou ma¡quina cometer um erro terravel que tenha consequaªncias negativas para seus usuários. Seu artigo, publicado na revista Technology, Anthropology, and Dimensions of Responsibility , da Springer Link , explora especificamente a questãode saber se os humanos seriam capazes de perdoar um roba´ se ele fizer algo errado, do ponto de vista filosãofico.
"A discussão acadaªmica sobre anãtica geralmente se concentra na formulação de padraµes morais , enquanto pouca atenção édada ao que acontece quando as pessoas não cumprem esses padraµes", disse Nagenborg. "Ser capaz de perdoar alguém , no entanto, parece ser um aspecto crucial da existaªncia humana e estãointimamente ligado a maneira como nos responsabilizamos por nossas ações. Fiquei imaginando que papel o perda£o poderia desempenhar quando consideramos os robôs como entidades sociais. "
Em seu estudo recente, Nagenborg explora uma sanãrie de questões anãticas complexas relacionadas a culpa e a responsabilidade na roba³tica, como 'como os usuários humanos podem lidar com o fato de um roba´ cometer um erro crucial' e 'um roba´ pode ser totalmente responsabilizado por suas ações? Em vez de perguntar se um roba´ pode ou deve ser punido por seus erros, ele se concentra em saber se os seres humanos seriam capazes de perdoar os robôs, mesmo nos casos em que suas ações resultaram em danos irreversaveis e graves.
"Vamos dar um exemplo drama¡tico: um carro auta´nomo mata alguém que vocêama", explicou Nagenborg. "Vocaª estaria disposto e capaz de perdoar o veaculo auta´nomo? Eu poderia imaginar que posso perdoar um motorista humano, mas parece ser mais desafiador perdoar uma ma¡quina. Eu queria explorar o que esse desafio revela sobre nosso relacionamento com robôs no contexto do debate acadêmico sobre seu status moral ".
Muitos estudos de filosofia e anãtica destacam o perda£o como um aspecto crucial das interações entre os seres humanos, pois pode determinar como eles reagem e aprendem a aceitar os erros dos outros. Em seu trabalho, Nagenborg assume que o perda£o também desempenhara¡ um papel fundamental em uma sociedade onde humanos e robôs coexistem, principalmente se estes forem atribuados a tarefas que podem afetar a vida de outras pessoas.
"Por um lado, as dificuldades de imaginar o que poderia significar perdoar um roba´ demonstram que devemos ter muito cuidado em responsabilizar um roba´ por suas ações", disse Nagenborg. "Por outro lado, se pudermos comea§ar a perdoar ma¡quinas de maneira honesta e sanãria, devemos estar cientes da mudança fundamental na maneira como percebemos os robôs".
Embora o artigo de Nagenborg seja meramente baseado em especulações e ideias filosãoficas, ele abre uma janela para um aspecto importante das interações humano-roba´ que raramente havia sido explorado antes. Seu trabalho poderia incentivar outras pessoas da comunidade de anãtica a considerar a noção de perda£o no desenvolvimento da roba³tica e da IA, principalmente quando os robôs comea§am a ajudar os seres humanos de várias maneiras. Acima de tudo, Nagenborg também espera lembrar aos pesquisadores de roba³tica a complexidade das interações sociais entre os seres humanos e de como essa complexidade poderia um dia também se refletir nas interações homem-roba´.
"Dois dos meus projetos de pesquisa atuais são sobre o uso de big data e IA no sul global para fins de 'mapeamento de favelas' e respostas humanita¡rias", acrescentou Nagenborg. "Uma questãofundamental aqui éa questãode como podemos explicar e justificar a decisão tomada com base nesses sistemas tecnola³gicos para as pessoas que estãosendo mapeadas".