Tecnologia Científica

A abordagem de um monge budista zen na democratização da IA
O cientista social discute a narrativa problema¡tica da IA ​​e o que perdemos em uma corrida armamentista na China / EUA.
Por Katharine Miller - 30/05/2020


Colin Garvey épesquisador do Instituto de Inteligaªncia Artificial Centrado no Homem
de Stanford. 

Colin Garvey, pesquisador de pa³s-doutorado no Centro de Segurança e Cooperação Internacional da Universidade de Stanford (CISAC) e no Instituto de Inteligaªncia Artificial Centrada no Homem (HAI), seguiu um caminho incomum em seus estudos nas ciências sociais da tecnologia. Depois de se formar na faculdade, ele ensinou inglês no Japa£o por quatro anos, período durante o qual também se tornou um monge zen-budista. Em 2014, ele retornou aos EUA, onde ingressou em um programa de doutorado em estudos de ciência e tecnologia no Rensselaer Polytechnic Institute. Logo depois, Stephen Hawking foi co-autor de um editorial no The Guardian avisando que a inteligaªncia artificial pode ter consequaªncias catastra³ficas se não aprendermos a evitar os riscos que ela representa. Em seu trabalho de pós-graduação, Garvey começou a entender quais são esses riscos e como pensar sobre eles de forma produtiva. 

Como bolsista da HAI, Garvey estãotrabalhando para transformar sua tese de doutorado em um livro intitulado Terminado? Como as sociedades podem evitar a próxima cata¡strofe da IA . Ele também estãopreparando um relatório de pola­tica sobre governana§a de risco de IA para um think tank baseado em Washington, DC, e edição de convidado “AI and Its Discontents”, uma edição especial da Interdisciplinary Science Reviews, apresentando diversas contribuições de socia³logos a cientistas da computação, devido a isso. Dezembro.

Aqui ele discute a necessidade de mudar a maneira como pensamos e conversamos sobre a IA e a importa¢ncia de democratizar a IA de maneira significativa.

Como a tendaªncia do paºblico de ver a IA em termos utópicos ou distópicos afeta nossa capacidade de entender a IA?

O risco de aceitar a narrativa uta³pica ou dista³pica éque ela reforça uma atitude muito comum em relação a  evolução da IA ​​e da tecnologia em geral, que alguns estudiosos descrevem como determinismo tecnola³gico. Ou as forças do mercado são inevita¡veis ​​ou, como alguns defensores da IA ​​podem dizer, éo destino humano desenvolver uma ma¡quina mais inteligente que os humanos e esse éo pra³ximo passo na evolução. 

Eu acho que essa narrativa sobre inevitabilidade érealmente implementada politicamente para prejudicar a capacidade do paºblico de pensar claramente sobre essa tecnologia. Se parece inevita¡vel, o que mais há dizer, exceto "émelhor eu me adaptar"? Quando a deliberação sobre a IA éestruturada como viver com o impacto, isso émuito diferente de deliberar e aplicar o controle paºblico sobre a escolha do tipo de impacto que as pessoas desejam. Narrativas de inevitabilidade, em última análise, ajudam a avana§ar a agenda dos beneficia¡rios da IA, enquanto marginalizam os que estãoem risco, deixando muito poucas opções.  

Outro problema éque essa maneira boa ou ruim de enquadrar o assunto reduz a IA a uma coisa, e essa não éuma boa maneira de pensar em problemas complexos. Tento dividir isso mapeando riscos em doma­nios específicos - pola­tico, militar, econa´mico, psicossocial, existencial etc. - para mostrar que hálugares onde a tomada de decisão pode ser diferente. Por exemplo, dentro de um doma­nio, podemos identificar quem estãose beneficiando e quem estãoem risco. Isso nos permite fugir dessa imagem muito poderosa de um roba´ Terminator matando todo mundo, que éimplantado com bastante frequência nesses tipos de conversas.  

A IA não éa primeira tecnologia a inspirar preocupações dista³picas. Os pesquisadores de IA podem aprender com as formas como a sociedade lidou com os riscos de outras tecnologias, como energia nuclear e engenharia genanãtica?  

Em meados do século 20, os cientistas sociais que criticaram a tecnologia eram muito pessimistas quanto a  possibilidade de a humanidade controlar essas tecnologias, especialmente as nucleares. Havia uma grande preocupação com a possibilidade de desencadear algo fora do nosso controle. Mas no final da década de 1980, uma segunda geração de cra­ticos em ciência e tecnologia analisou a situação e disse: aqui estamos e não explodimos o mundo com armas nucleares, não lana§amos uma praga sintanãtica que causou câncer no mundo. maioria da população. Poderia ter sido muito pior, e por que não? Meu orientador, Ned Woodhouse, analisou esses exemplos e perguntou, quando tudo deu certo, por quaª? Como a cata¡strofe foi evitada? E ele identificou cinco estratanãgias que formam a abordagem de tentativa e erro inteligente sobre a qual eu escrevi em relação a  IA.

Uma das estratanãgias inteligentes de tentativa e erro éa deliberação pública. Especificamente, para evitar desastres, a deliberação deve ser implantada no ini­cio do desenvolvimento; uma ampla diversidade de preocupações deve ser debatida; os participantes devem estar bem informados; e as deliberações devem ser profundas e recorrentes. Vocaª acha que a IA estãoindo bem nesse sentido?

Eu diria que a estratanãgia de deliberação poderia ser utilizada mais profundamente na tomada de decisaµes sobre riscos na IA. A IA provocou muitas conversas desde 2015. Mas a AI teve origem nos anos 50. Uma coisa que eu descobri éque o ciclo de boom e busto do hype da IA ​​levando a  desilusão e a um acidente, que aconteceu aproximadamente duas vezes na história da IA, foi paralelo a uma deliberação bastante difundida em torno da IA. Por exemplo, nos anos 50 e 60, houve conversas sobre cibernanãtica e automação. E nos anos 80, houve muita deliberação sobre a IA também. Por exemplo, na reunia£o de 1984 da ACM [Association for Computing Machinery], houve painanãis cienta­ficos sociais sobre os impactos sociais da IA ​​na conferaªncia principal. Portanto, houve muita deliberação sobre o risco de IA, mas éesquecido toda vez que a IA entra em colapso e desaparece no que éconhecido popularmente como "inverno da IA". Considerando que, com a tecnologia nuclear, a preocupação tem sido mais constante e isso influenciou a trajeta³ria da indústria nuclear.  

Uma maneira de observar o quanto pouca deliberação estãoacontecendo éexaminar exemplos de violações de privacidade em que nossos dados são usados ​​por uma empresa de IA para treinar um modelo sem o nosso consentimento. Podera­amos dizer que éum problema anãtico, mas isso não diz como resolvaª-lo. Eu o reformularia como um problema que surgiu porque as decisaµes foram tomadas sem representantes do paºblico na sala para defender o direito a  privacidade dos cidada£os. Isso coloca um quadro sociola³gico claro em torno do problema e sugere uma estratanãgia potencial para aborda¡-lo em um ambiente institucional de tomada de decisão.  

Google, Microsoft e outras grandes empresas disseram que querem democratizar a IA, mas parecem se concentrar em tornar o software aberto e compartilhar dados e ca³digos. O que vocêacha que deveria significar para a IA ser democratizada? 

Ao contra¡rio da democratização econa´mica, que significa fornecer acesso a um produto ou tecnologia, estou falando de democratização pola­tica, que significa algo mais como controle popular. Isso não éregra da ma¡fia; a prudaªncia éuma parte essencial da estrutura. A afirmação fundamental éque o sistema pola­tico de tomada de decisão democra¡tica éuma maneira de alcana§ar resultados mais inteligentes em geral, em comparação com as alternativas. A sabedoria das multidaµes éum efeito de ordem superior que pode surgir quando grupos de pessoas interagem.

Acho que a IA nos apresenta esse desafio para a tomada de decisaµes institucionais e sociais, na medida em que vocêobtanãm ma¡quinas mais inteligentes, precisara¡ de democracias mais inteligentes para governar. Meu livro, baseado em minha dissertação, oferece algumas estratanãgias para melhorar a inteligaªncia da tomada de decisão.

Qual éum exemplo de como a IA democratizante pode fazer a diferença hoje?

Uma área em que estou assistindo de perto e trabalhando éa corrida armamentista de IA com a China. a‰ pintado como uma imagem da China autorita¡ria, por um lado, e da democracia, por outro. E o governo atual estãofinanciando o que eles chamam de "IA com valores americanos". Eu diria que éa³timo, mas onde estãoa democracia entre esses valores? Porque se eles se referem apenas aos valores do mercado, esses são valores chineses agora. Nãohánada de distinto nos valores de mercado em um mundo de capitalismo global. Portanto, se a democracia éa caracterí­stica distintiva da Amanãrica, eu gostaria de ver as grandes empresas de tecnologia construa­das com essa força, em vez de, como vejo agora, convencer os formuladores de políticas e funciona¡rios do governo a gastar mais em IA militar. Se aprendemos alguma coisa com a última corrida armamentista da Guerra Fria, éque realmente não hávencedores. Acho que uma guerra fria de várias décadas com a China por causa da IA ​​seria uma corrida ao fundo. Muitos cientistas da IA ​​provavelmente concordariam, mas a mesma narrativa enquadrada em termos de inevitabilidade e determinismo tecnola³gico éfrequentemente usada aqui no espaço de segurança para dizer: "Nãotemos escolha, temos que derrotar a China". Sera¡ interessante ver o que a P&D da IA ​​se justifica por essa narrativa. 

Existe uma conexão entre seu budismo e seu interesse em IA?

Quando as pessoas ouvem que eu sou um monge zen-budista, costumam dizer: vocêdeve pedir aos programadores para meditar. Mas minha preocupação tem mais a ver com a redução do sofrimento no mundo. Eu vejo um enorme risco de um tipo profundo de sofrimento espiritual do qual já estamos obtendo alguma evidaªncia. Mortes de desespero são uma epidemia nos Estados Unidos; e háum aumento acentuado de suica­dio e depressão entre os adolescentes, mesmo na classe média. Portanto, existem alguns lugares surpreendentes onde a abunda¢ncia material não se traduz em felicidade ou significado. As pessoas muitas vezes são capazes de suportar um sofrimento grave se souberem que ésignificativo. Mas sei que muitos jovens veem um futuro bastante sombrio para a humanidade e não sabem ao certo o significado disso tudo. E eu adoraria ver a IA desempenhando um papel mais positivo na solução desses graves problemas sociais. Mas também vejo um potencial de aumento de risco e sofrimento, fisicamente, talvez com robôs assassinos e carros sem motorista, mas potencialmente também sofrimento psicola³gico e pessoal. Tudo o que posso fazer para reduzir isso da¡ a  minha bolsa uma orientação e um significado.  

Em um mundo em que grande parte da pesquisa e desenvolvimento de IA éprivatizada e impulsionada por motivos de lucro capitalistas em empresas de todo o mundo, épossí­vel que os lideres de pensamento de um lugar como Stanford fazm a diferença na trajeta³ria da pesquisa de IA em geral? 

Stanford certamente tem o capital institucional e o cachaª cultural para influenciar a indústria de IA; a questãoécomo ele usara¡ esse poder. Os principais problemas do século XXI são problemas de distribuição, não de produção. Já existe o suficiente para dar a volta; o problema éque uma pequena fração da humanidade monopoliza os recursos. Nesse contexto, tornar a IA mais “centrada no ser humano” exige foco nos problemas que a maioria da humanidade enfrenta, e não no Vale do Sila­cio. 

Para ser pioneiro em uma agenda de pesquisa e desenvolvimento de IA centrada no ser humano, os lideres da HAI de Stanford e de outrospaíses tera£o que resistir aos poderosos incentivos do capitalismo global e promover coisas como financiar a pesquisa de IA que aborda os problemas das pessoas pobres; incentivar a participação do paºblico na tomada de decisaµes sobre o que a IA énecessa¡ria e onde; avana§ar a IA para o bem paºblico, mesmo quando reduz lucros privados; educar o paºblico honestamente sobre os riscos da IA; e desenvolver políticas que diminuam o ritmo da inovação para permitir que as instituições sociais lidem melhor com asmudanças tecnologiicas. 

Stanford tem a chance de liderar o mundo com abordagens inovadoras para resolver grandes problemas com a IA, mas que problemas ele escolhera¡?

 

.
.

Leia mais a seguir