Humanidades

Conheça as cinco escolas de pensamento que dominam a conversa sobre IA
Jeffrey Sonnenfeld e Steven Tian, ??da Yale SOM, e os economistas Paul Romer e Dirk Bergemann explicam os argumentos de cada campo no debate sobre a inteligência artificial, dos verdadeiros crentes aos alarmistas.
Por Dirk Bergemann, Jeffrey A. Sonnenfeld, Paulo Romer e Steven Tian - 08/07/2023



Apenas no mês passado, o Wall Street Journal e o New York Times publicaram cada um mais de 200 artigos ofegantes declarando o sombrio fim catastrófico da humanidade ou sua salvação, dependendo do viés e da experiência dos especialistas citados.

Sabemos em primeira mão o quão sensacionalista pode ser o discurso público em torno da IA. Grande parte da ampla cobertura da mídia em torno de nosso 134º CEO Summit na semana passada, que reuniu mais de 200 grandes CEOs, aproveitou essas preocupações alarmistas, concentrando-se em como 42 % dos CEOs disseram que a IA poderia destruir a humanidade em uma década, quando os CEOs expressaram um ampla variedade de pontos de vista diferenciados, conforme capturamos anteriormente .

Em meio à ensurdecedora cacofonia de pontos de vista neste verão de IA, nos mundos dos negócios, governo, academia, mídia, tecnologia e sociedade civil, esses especialistas costumam falar sem parar.

A maioria das vozes de especialistas em IA tende a se enquadrar em cinco categorias distintas: verdadeiros crentes eufóricos, aproveitadores comerciais, criadores curiosos, ativistas alarmistas e governistas globais.

Verdadeiros crentes eufóricos: Salvação através de sistemas

O momento há muito previsto de autoaprendizagem das máquinas é dramaticamente diferente da realidade de sete décadas de avanços de IA em evolução incremental. Em meio a tanto entusiasmo, pode ser difícil saber até onde a oportunidade se estende agora e onde algumas previsões excessivamente otimistas se transformam em fantasia.

Muitas vezes, as vozes mais eufóricas são aquelas que trabalharam nas fronteiras da IA ??por mais tempo e dedicaram suas vidas a novas descobertas nas fronteiras do conhecimento humano. Esses pioneiros da IA ??dificilmente podem ser responsabilizados por serem “verdadeiros crentes” no potencial disruptivo de sua tecnologia, tendo abraçado o potencial e a promessa de uma tecnologia emergente quando poucos o fizeram - e muito antes de entrarem no mainstream.

Para algumas dessas vozes, como “Padrinho da IA” e o cientista-chefe de IA da Meta, Yann LeCun , “não há dúvida de que as máquinas acabariam superando as pessoas”. Simultaneamente, LeCun e outros descartam a ideia de que a IA pode representar uma grave ameaça à humanidade como “absurdamente ridícula”. Da mesma forma, o capitalista de risco Marc Andreesen desconsiderou e despreocupadamente esmagou a “parede de medo e pessimismo” sobre a IA, argumentando que as pessoas deveriam simplesmente parar de se preocupar e “ construir, construir, construir ”.

Mas a euforia conceitual abrangente e obstinada corre o risco de levar esses especialistas a superestimar o impacto de sua própria tecnologia (talvez intencionalmente, mas falaremos mais sobre isso depois) e descartar suas possíveis desvantagens e desafios operacionais.

De fato, quando pesquisamos os CEOs sobre se a IA generativa “será mais transformadora do que os avanços tecnológicos seminais anteriores, como a criação da internet, a invenção do automóvel e do avião, refrigeração, etc.”, a maioria respondeu “Não ”, sugerindo que ainda há uma ampla incerteza sobre se a IA realmente perturbará a sociedade tanto quanto alguns eternos otimistas nos querem fazer acreditar.

Afinal, para cada avanço tecnológico que realmente transforma a sociedade, há muitos outros que fracassaram após muito entusiasmo inicial. Apenas 18 meses atrás, muitos entusiastas estavam certos de que as criptomoedas mudariam a vida como a conhecemos - antes da explosão da FTX, da prisão ignominiosa do magnata da criptomoeda SBF e do início do "inverno criptográfico".

Aproveitadores comerciais: vendendo hype não ancorado

Nos últimos seis meses, tornou-se quase impossível participar de uma feira comercial, ingressar em uma associação profissional ou receber um novo pitch de produto sem ficar encharcado de pitches de chatbot. À medida que o frenesi em torno da IA ??aumentava, estimulado pelo lançamento do ChatGPT, empreendedores oportunistas e práticos, ansiosos por ganhar dinheiro, invadiram o espaço.

Surpreendentemente, houve mais capital investido em startups de IA generativa nos primeiros cinco meses deste ano do que em todos os anos anteriores combinados, com mais da metade de todas as startups de IA generativa estabelecidas apenas nos últimos cinco meses, enquanto as avaliações medianas de IA generativa dobraram este ano em relação ao ano passado.

Talvez reminiscente dos dias em que as empresas que procuravam um aumento instantâneo no preço das ações procuravam adicionar “.com” ao seu nome em meio à bolha das pontocom, agora os estudantes universitários estão promovendo startups focadas em IA sobrepostas da noite para o dia, com alguns estudantes empreendedores levantando milhões de dólares como um projeto paralelo durante as férias de primavera com nada mais do que folhas de conceito.

Algumas dessas novas startups de IA mal têm produtos ou planos coerentes, ou são lideradas por fundadores com pouco conhecimento genuíno da tecnologia subjacente que estão apenas vendendo propaganda não ancorada - mas isso aparentemente não é obstáculo para arrecadar milhões de dólares. Embora algumas dessas startups possam eventualmente se tornar a base do desenvolvimento de IA da próxima geração, muitas, se não a maioria, não conseguirão.

Esses excessos não estão contidos apenas no espaço da startup. Muitas empresas de IA de capital aberto, como a C3.ai de Tom Siebel, viram seus preços de ações quadruplicarem desde o início do ano, apesar de poucas mudanças no desempenho dos negócios subjacentes e nas projeções financeiras, levando alguns analistas a alertar sobre uma “ bolha prestes a estourar ”.

Um dos principais impulsionadores da mania comercial de IA este ano foi o ChatGPT, cuja empresa controladora OpenAI ganhou um investimento de US$ 10 bilhões da Microsoft vários meses atrás. Os laços da Microsoft e da OpenAI são longos e profundos, desde uma parceria entre a divisão Github da Microsoft e a OpenAI, que rendeu um assistente de codificação Github em 2021 . O assistente de codificação, baseado em um modelo OpenAI então pouco notado chamado Codex, provavelmente foi treinado na enorme quantidade de código disponível no Github. Apesar de suas falhas, talvez esse protótipo inicial tenha ajudado a convencer esses líderes empresariais experientes a apostar cedo e alto na IA, dado o que muitos veem como uma “ chance única na vida ” de obter lucros enormes.

Tudo isso não é para sugerir que todo o investimento em IA seja exagerado. Na verdade, 71% dos CEOs entrevistados acham que seus negócios estão investindo pouco em IA. Mas devemos levantar a questão de saber se os aproveitadores comerciais que vendem propaganda não ancorada podem estar expulsando empresas inovadoras genuínas em um espaço possivelmente supersaturado.

Criadores curiosos: inovação nas fronteiras do conhecimento

A inovação da IA ??não está apenas ocorrendo em muitas startups, mas também é comum em empresas maiores da FORTUNE 500. Muitos líderes de negócios estão integrando com entusiasmo, mas de forma realista, aplicações específicas de IA em suas empresas, como documentamos extensivamente .

Não há dúvida de que este é um momento promissor para o desenvolvimento da IA, dados os recentes avanços tecnológicos. Grande parte do salto recente para a IA, e modelos de linguagem grandes em particular, pode ser atribuído a avanços na escala e nas capacidades de seus fundamentos: a escala dos dados disponíveis para modelos e algoritmos para trabalhar, as capacidades do os próprios modelos e algoritmos e os recursos do hardware de computação dos quais os modelos e algoritmos dependem.

No entanto, é improvável que o ritmo exponencial dos avanços na tecnologia de IA subjacente continue para sempre. Muitos apontam para o exemplo dos veículos autônomos, a primeira grande aposta da IA, como um prenúncio do que esperar: progresso inicial surpreendentemente rápido ao colher os frutos mais baixos, o que cria um frenesi – mas depois o progresso diminui drasticamente ao enfrentar os mais difíceis desafios, como o ajuste fino de falhas do piloto automático para evitar acidentes fatais no caso de veículos autônomos. É a vingança do paradoxo de Zenão, já que a última milha costuma ser a mais difícil. No caso dos veículos autônomos, embora pareça que estamos perenemente a meio caminho do objetivo dos carros que dirigem sozinhos com segurança, ninguém sabe se e quando a tecnologia realmente chegará lá.

Além disso, ainda é importante observar as limitações técnicas do que a IA pode ou não fazer. Como os grandes modelos de linguagem são treinados em grandes conjuntos de dados, eles podem resumir e disseminar com eficiência o conhecimento factual e permitir uma pesquisa e descoberta muito eficiente. No entanto, em termos de permitir ou não os ousados ??saltos inferenciais que são domínio de cientistas, empreendedores, criativos e outros exemplos de originalidade humana, o uso da IA ??pode ser mais restrito, pois é intrinsecamente incapaz de replicar a emoção humana, empatia e inspiração, que conduzem tanto da criatividade humana.

Embora esses criadores curiosos estejam focados em encontrar aplicações positivas da IA, eles correm o risco de serem tão ingênuos quanto uma bomba pré-atômica Robert Oppenheimer em seu foco estreito na solução de problemas.

“Quando você vê algo que é tecnicamente bom, você vai em frente, faz e discute sobre o que fazer a respeito somente depois de ter obtido seu sucesso técnico. Foi assim com a bomba atômica”, alertou em 1954 o pai da bomba atômica, que se sentia culpado pelos horrores que sua criação desencadeou e se transformou em um ativista antibomba.

Ativistas alarmistas: defendendo regras unilaterais

Alguns ativistas alarmistas, especialmente altamente experientes, até mesmo tecnólogos desencantados pioneiros com fortes ancoragens pragmáticas, alertam ruidosamente sobre os perigos da IA ??para tudo, desde as implicações sociais e a ameaça à humanidade até modelos de negócios inviáveis ??e avaliações infladas – e muitos defendem fortes restrições à IA para conter esses perigos.

Por exemplo, um pioneiro da IA, Geoffrey Hinton, alertou sobre a “ ameaça existencial ” da IA, dizendo ameaçadoramente que “é difícil ver como você pode impedir que os maus atores a usem para coisas ruins”. Outro tecnólogo, o antigo financiador do Facebook, Roger McNamee, alertou em nosso CEO Summit que a economia da unidade de IA generativa é terrível e que nenhuma empresa de IA que gasta dinheiro tem um modelo de negócios sustentável.

“Os danos são realmente óbvios”, disse McNamee. “Há questões de privacidade. Existem questões de direitos autorais. Há problemas de desinformação… uma corrida armamentista está em andamento para chegar a uma posição de monopólio, onde eles têm controle sobre pessoas e negócios.”

Talvez de forma mais proeminente, o CEO da OpenAI, Sam Altman, e outros tecnólogos de IA do Google , Microsoft e outros líderes de IA emitiram recentemente uma carta aberta alertando que a IA representa um risco de extinção para a humanidade em pé de igualdade com a guerra nuclear e afirmando que “mitigar o risco de extinção de A IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

No entanto, pode ser difícil discernir se esses alarmistas da indústria são motivados por uma antecipação genuína de ameaças à humanidade ou por outros motivos. Talvez seja coincidência que a especulação sobre como a IA representa uma ameaça existencial seja uma maneira extremamente eficaz de chamar a atenção. Em nossa própria experiência, a cobertura da mídia alardeando o alarmismo do CEO em A I de nosso recente CEO Summit ofuscou em muito nossa cartilha mais sutil sobre como os CEOs estão realmente integrando a IA . em seus negócios. Alardear o alarmismo sobre a IA também é uma maneira eficaz de gerar entusiasmo sobre o que a IA é potencialmente capaz - e, portanto, maior investimento e interesse.

Altman já tem sido muito eficaz em gerar interesse público no que a OpenAI está fazendo, obviamente ao dar inicialmente ao público acesso gratuito e irrestrito ao ChatGPT com uma enorme perda financeira . Enquanto isso, sua explicação indiferente para a perigosa violação de segurança no software que a OpenAI usou para conectar pessoas ao ChatGPT levantou questões sobre se as ações dos alarmistas da indústria correspondem às suas palavras.

Governistas globais: Equilíbrio por meio de diretrizes

Menos estridentes sobre a IA do que os ativistas alarmistas (mas não menos cautelosos) são os governistas globais, que consideram que restrições unilaterais impostas à IA seriam inadequadas e prejudiciais à segurança nacional. Em vez disso, eles estão pedindo um campo de jogo internacional equilibrado. Eles estão cientes de que nações hostis podem continuar explorando a IA por caminhos perigosos, a menos que haja acordos semelhantes aos pactos globais de não proliferação nuclear.

Essas vozes defendem diretrizes, se não regulamentação, em torno do uso responsável da IA evitando danos sociais em grande escala. Alguns apontam o exemplo da regulamentação da aviação como um exemplo a seguir, com duas agências diferentes supervisionando a segurança de vôo: A FAA escreve as regras, mas o NTSB estabelece os fatos, duas funções muito diferentes. Enquanto os redatores de regras precisam fazer compensações e concessões, os investigadores de fatos precisam ser implacáveis ??e intransigentes na busca da verdade. Considerando como a IA pode exacerbar a proliferação de informações não confiáveis ??em sistemas complexos,

Da mesma forma, existem governistas globais como o renomado economista Lawrence Summers e o biógrafo e titã da mídia Walter Isaacson, que nos disseram que sua maior preocupação gira em torno da falta de preparação para mudanças impulsionadas pela IA. Eles sugerem uma ruptura histórica da força de trabalho entre os trabalhadores de elite anteriormente mais expressivos e poderosos da sociedade.

Walter Isaacson argumenta que a IA terá o maior efeito de deslocamento sobre os “trabalhadores do conhecimento” profissionais, cujo monopólio do conhecimento esotérico será agora desafiado pela IA generativa capaz de regurgitar até mesmo os factóides mais obscuros muito além da memória mecânica e da capacidade de recordar de qualquer ser humano. – embora, ao mesmo tempo, Isaacson observe que as inovações tecnológicas anteriores aumentaram , em vez de reduzir o emprego humano. Da mesma forma, o famoso economista do MIT, Daron Acemoglu, se preocupa com o risco de que a IA possa diminuir os salários dos trabalhadores e exacerbar a desigualdade. Para esses governistas, a noção de que a IA irá escravizar os humanos ou levá-los à extinção é absurda – uma distração indesejável dos custos sociais reais que a IA poderia potencialmente impor.

Até mesmo alguns governistas que são céticos em relação à regulamentação direta do governo prefeririam ver proteções colocadas, ainda que pelo setor privado. Por exemplo, Eric Schmidt argumentou que os governos atualmente carecem de experiência para regular a IA e deveriam permitir que as empresas de tecnologia se autorregulassem . Essa auto-regulação, no entanto, remonta à regulamentação capturada pela indústria da Era Dourada, onde a Comissão Interestadual de Comércio, a Comissão Federal de Comunicações e o Conselho de Aeronáutica Civil muitas vezes inclinavam a regulamentação destinada a ser de interesse público em relação aos gigantes da indústria, que bloqueou novos entrantes de startups rivais, protegendo jogadores estabelecidos do que o fundador da ATT, Theodore Vail, rotulou como “ concorrência destrutiva ”.

Outros governistas apontam que existem problemas potencialmente criados pela IA que não podem ser resolvidos apenas por meio de regulamentação. Por exemplo, eles apontam que os sistemas de IA podem enganar as pessoas fazendo-as pensar que podem oferecer fatos confiáveis ??a ponto de muitos abdicarem de sua responsabilidade individual de prestar atenção ao que é confiável e, assim, confiar totalmente nos sistemas de IA – mesmo quando as versões da IA ??já mata pessoas, como em acidentes de carro conduzidos por piloto automático ou em negligência médica .

As mensagens dessas cinco tribos revelam mais sobre os próprios preconceitos e preconceitos dos especialistas do que a própria tecnologia de IA subjacente – mas, no entanto, vale a pena investigar essas cinco escolas de pensamento em busca de pepitas de inteligência genuína e percepção em meio à cacofonia da inteligência artificial.


Dirk Bergemann
Douglass e Marion Campbell Professores de Economia

Jeffrey A. Sonnenfeld
Reitor Associado Sênior para Estudos de Liderança e Professor Lester Crown na Prática de Gestão

Paulo Romer
Professor universitário, Boston College; Ex-economista-chefe do Banco Mundial

Steven Tian
Diretor de Pesquisa, Chief Executive Leadership Institute

 

.
.

Leia mais a seguir