Opinião

Se um roba´ estãoconsciente, posso desliga¡-lo? As implicações morais da construção de IAs verdadeiros
Naturalmente surge a pergunta: qual éa base sobre a qual algo tem direitos? O que confere posia§a£o moral a uma entidade?
Por Anand Vaidya - 27/10/2020


O que vocêdeve a um andra³ide fiel como Data? CBS

No episãodio "Star Trek: The Next Generation", "The Measure of a Man", Data, um membro da tripulação andra³ide da Enterprise, deve ser desmontado para fins de pesquisa, a menos que o Capitão Picard possa argumentar que Data merece os mesmos direitos que um humano ser. Naturalmente surge a pergunta: qual éa base sobre a qual algo tem direitos? O que confere posição moral a uma entidade?

O fila³sofo Peter Singer argumenta que criaturas que podem sentir dor ou sofrer tem direito a uma posição moral. Ele argumenta que os animais não humanos tem posição moral, uma vez que podem sentir dor e sofrer. Limita¡-lo a s pessoas seria uma forma de especismo, algo semelhante ao racismo e sexismo.

Sem endossar a linha de racioca­nio de Singer, podemos nos perguntar se ela pode ser estendida ainda mais a um roba´ andra³ide como Data. Isso exigiria que Data pudesse sentir dor ou sofrer. E como vocêresponde a isso depende de como vocêentende a consciência e a inteligaªncia.

Amedida que a tecnologia de inteligaªncia artificial real avana§a em direção a s versaµes imaginadas de Hollywood, a questãoda posição moral torna-se mais importante. Se os IAs tem uma posição moral, raciocinam fila³sofos como eu , isso poderia significar que eles tem direito a  vida. Isso significa que vocênão pode simplesmente desmantela¡-los e também pode significar que as pessoas não devem interferir na busca por seus objetivos.

Kasparov em um tabuleiro de xadrez sem ninguanãm em frente
Garry Kasparov foi derrotado por Deep Blue, um AI com uma inteligaªncia muito
profunda em um nicho estreito. Stan Honda / AFP via Getty Images

Dois sabores de inteligaªncia e um teste

A ma¡quina de xadrez Deep Blue da IBM foi treinada com sucesso para derrotar o grande mestre Gary Kasparov. Mas não poderia fazer mais nada. Este computador tinha o que échamado de inteligaªncia especa­fica de doma­nio.

Por outro lado, existe o tipo de inteligaªncia que permite a habilidade de fazer bem uma variedade de coisas. a‰ chamado de inteligaªncia geral de doma­nio. a‰ o que permite cozinhar, esquiar e criar filhos - tarefas relacionadas, mas também muito diferentes.

Inteligaªncia geral artificial, AGI, éo termo para ma¡quinas que possuem inteligaªncia geral de doma­nio. Indiscutivelmente, nenhuma ma¡quina ainda demonstrou esse tipo de inteligaªncia. Neste vera£o, uma startup chamada OPENAI lançou uma nova versão de seu modelo de linguagem de Pranã-treinamento Gerativo . GPT-3 éum sistema de processamento de linguagem natural, treinado para ler e escrever de forma que possa ser facilmente compreendido pelas pessoas.

Chamou atenção imediatamente , não apenas por causa de sua capacidade impressionante de imitar floreios estila­sticos e reunir conteaºdo plausa­vel , mas também por causa de quanto longe tinha vindo de uma versão anterior. Apesar desse desempenho impressionante, o GPT-3 não sabe nada além de unir palavras de várias maneiras. AGI permanece bastante distante.

Nomeado em homenagem ao pesquisador pioneiro de IA Alan Turing, o teste de Turing ajuda a determinar quando uma IA éinteligente. Uma pessoa conversando com uma IA oculta pode dizer se éuma IA ou um ser humano? Se ele não puder, para todos os efeitos práticos, a IA éinteligente. Mas este teste não diz nada sobre se a IA pode estar consciente.

Dois tipos de consciência

Existem duas partes na consciência. Em primeiro lugar, existe o aspecto "como épara mim" de uma experiência, a parte sensorial da consciência. Os fila³sofos chamam isso de consciência fenomenal. a‰ sobre como vocêexperimenta um fena´meno, como cheirar uma rosa ou sentir dor.

Em contraste, também hácesso a  consciência. a‰ a capacidade de relatar, raciocinar, se comportar e agir de forma coordenada e responsiva aos esta­mulos com base em metas. Por exemplo, quando passo a bola de futebol para meu amigo que faz uma jogada para o gol, estou respondendo a esta­mulos visuais, agindo desde o treinamento anterior e perseguindo um objetivo determinado pelas regras do jogo. Eu faa§o o passe automaticamente, sem deliberação consciente, no fluxo do jogo.

A visão cega ilustra bem a diferença entre os dois tipos de consciência. Alguanãm com essa condição neurola³gica pode relatar, por exemplo, que não consegue ver nada no lado esquerdo do campo visual. Mas, se solicitados a pegar uma caneta em uma sanãrie de objetos no lado esquerdo do campo visual, eles podem fazer isso com segurança. Eles não podem ver a caneta, mas podem pega¡-la quando solicitados - um exemplo de acesso a  consciência sem consciência fenomenal.

Os dados são um andra³ide. Como essas distinções funcionam em relação a ele?

Ainda de Star Trek: The Next Generation
As qualidades de Data garantem a ele uma posição moral? CBS

O dilema dos dados

O andra³ide Data demonstra que tem autoconsciência na medida em que pode monitorar se, por exemplo, ele estãocom carga ideal ou se hádanos internos em seu braa§o roba³tico.

Os dados também são inteligentes no sentido geral. Ele faz muitas coisas distintas em um altonívelde maestria. Ele pode pilotar a Enterprise, receber ordens do Capitão Picard e raciocinar com ele sobre o melhor caminho a seguir.

Ele também pode jogar pa´quer com seus companheiros de viagem, cozinhar, discutir assuntos atuais com amigos pra³ximos, lutar com inimigos em planetas aliena­genas e se envolver em várias formas de trabalho fa­sico. Os dados tem acesso a  consciência. Ele claramente passaria no teste de Turing.

No entanto, Data muito provavelmente não tem consciência fenomenal - ele, por exemplo, não se delicia com o perfume de rosas ou sente dor. Ele incorpora uma versão superdimensionada da visão cega. Ele éautoconsciente e tem acesso a  consciência - pode pegar a caneta - mas em todos os seus sentidos ele carece de consciência fenomenal.

Agora, se Data não sente dor, pelo menos um dos motivos que Singer oferece para dar uma posição moral a uma criatura não se cumpre. Mas Data pode preencher a outra condição de ser capaz de sofrer, mesmo sem sentir dor. O sofrimento pode não exigir consciência fenomenal da mesma forma que a dor essencialmente exige.

Por exemplo, o que aconteceria se sofrimento também fosse definido como a ideia de ser impedido de buscar uma causa justa sem causar danos a outras pessoas? Suponha que o objetivo de Data seja salvar sua companheira de tripulação, mas ele não pode alcana§a¡-la por causa de um dano em um de seus membros. A redução do funcionamento de Data, que o impede de salvar seu companheiro de tripulação, éuma espanãcie de sofrimento não fenomenal. Ele teria preferido salvar o companheiro de tripulação e estaria melhor se o fizesse.

No episãodio, a questãoacaba não se assentando em se Data éautoconsciente - isso não estãoem daºvida. Nem estãoem questãose ele éinteligente - ele facilmente demonstra que éno sentido geral. O que não estãoclaro ése ele éfenomenalmente consciente. Os dados não são desmontados porque, no final, seus jua­zes humanos não conseguem concordar sobre a importa¢ncia da consciência para a posição moral.

Conceito artistico de ca³digos binários em forma de parede que fazem conexões
semelhantes a neura´nios
Quando os 1s e 0s somam um ser moral. ktsimage / iStock
via Getty Images Plus

Uma IA deve obter posição moral?

Data égentil - ele age para apoiar o bem-estar de seus companheiros de tripulação e daqueles que encontra em planetas aliena­genas. Ele obedece a s ordens das pessoas e parece improva¡vel que as prejudique, além de proteger sua própria existaªncia . Por essas razaµes, ele parece paca­fico e mais fa¡cil de aceitar no reino das coisas que tem posição moral.

Mas e quanto a  Skynet nos filmes “Terminator” ? Ou as preocupações recentemente expressas por Elon Musk sobre a IA ser mais perigosa do que o nuclear , e por Stephen Hawking sobre a IA acabar com a humanidade ?

Os seres humanos não perdem sua reivindicação de posição moral apenas porque agem contra os interesses de outra pessoa. Da mesma forma, vocênão pode dizer automaticamente que são porque uma IA age contra os interesses da humanidade ou outra IA, ela não tem posição moral. Vocaª pode estar justificado em lutar contra uma IA como a Skynet, mas isso não tira sua posição moral. Se a posição moral édada em virtude da capacidade de sofrer de forma não fenomenal, então a Skynet e Data a tera£o, mesmo que apenas Data queira ajudar os seres humanos.

Ainda não existem ma¡quinas de inteligaªncia geral artificial. Mas agora éa hora de considerar o que seria necessa¡rio para conceder-lhes uma posição moral. O modo como a humanidade escolhe responder a  questãoda posição moral de criaturas não biológicas tera¡ grandes implicações em como lidamos com IAs futuros - sejam gentis e aºteis como Data, ou destruidores, como Skynet.

As opiniaµes expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional do maisconhecer.com


Anand Vaidya
Professor Associado de Filosofia, San JoséState University

 

.
.

Leia mais a seguir