O instrutor de engenharia e ex-estrategista da NSA, Russ Berkoff, discute como as ferramentas de IA podem prevenir — ou agravar — crises internacionais de relações exteriores

Crédito: Douglas Rissing/Getty Images
A NPR relatou recentemente que o Futures Lab do Centro de Estudos Estratégicos e Internacionais está usando financiamento do Pentágono para experimentar o uso de ferramentas como DeepSeek e ChatGPT para explorar como a inteligência artificial pode mudar — e melhorar — a forma como as decisões de política externa são tomadas.
Russ Berkoff, especialista da Johns Hopkins, leciona no programa de pós-graduação em Gestão de Engenharia da Escola de Engenharia Whiting, na área de Engenharia para Profissionais . Ex-estrategista-chefe da Agência de Segurança Nacional (NSA), ele liderou o escritório de previsão estratégica da NSA após o 11 de setembro e ajudou a moldar o planejamento de inteligência do Estado-Maior Conjunto e da guerra global contra o terrorismo. Na Escola de Pós-Graduação Naval, escreveu sua tese sobre o uso de IA para embasar decisões de política externa.
Aqui, ele discute a promessa e o perigo desse campo emergente.
Estamos caminhando para o uso da IA em decisões de política externa da maneira que você recomendou em sua tese há 28 anos?
A resposta curta é sim; estamos caminhando na direção certa. Nosso objetivo são decisões rápidas, de baixo risco e de alta qualidade para nos mantermos à frente de nossos adversários. Como afirmou Alexander George, conselheiro de quatro presidentes e professor emérito de Stanford: "Uma decisão de alta qualidade é aquela em que o presidente pondera corretamente os interesses nacionais em uma situação específica e escolhe uma política ou opção mais alinhada para alcançar o interesse nacional a um custo e risco aceitáveis."
"Embora a complexidade e a sofisticação da tomada de decisões em política externa possam alavancar a IA para fornecer influência significativa, ela ainda não é um substituto para nossos processos de tomada de decisão exclusivamente humanos."
Russ Berkoff
Professor, Whiting School
A abordagem atual trata a IA como um assistente para ampliar ou aumentar a capacidade humana e auxiliar na execução de nosso julgamento. O poder computacional atual permite modelagem e simulações sofisticadas, além de tecnologias virtuais de gêmeos digitais, nas quais cenários de política externa são testados incansavelmente. Isso aumenta a consciência situacional, oferece opções mais amplas, pondera as consequências e reduz a incerteza dos tomadores de decisão.
O uso de IA na modelagem de política externa acelera esse processo e fornece insights e previsões ainda mais ricos e rápidos. Também vemos a IA sendo usada em simulações de contraforça para imitar comportamentos nesses diversos cenários de política externa, fornecendo insights multidimensionais sobre potenciais respostas adversárias.
Essas "trocas" em nossa análise de IA esclarecem e reduzem a incerteza para o tomador de decisão, reduzem impedimentos e melhor informam o melhor caminho. No entanto, embora a complexidade e a sofisticação da tomada de decisões em política externa possam alavancar a IA para exercer uma influência significativa, ela ainda não substitui nossos processos de tomada de decisão exclusivamente humanos.
Como os insights da IA podem ter mudado o resultado de um evento como a Crise dos Mísseis de Cuba em 1962?
A capacidade multidimensional de resolução de problemas necessária para as decisões de política externa nacional é significativa. A IA pode fornecer três perspectivas diferentes: a do líder individual (o presidente); a do círculo interno (o gabinete, o Conselho de Segurança Nacional e os conselheiros seniores); e a organizacional ou burocrática (para fornecer elementos da solução).
Os benefícios da IA incluem garantir a correção processual para análises adequadas e críticas, combater preconceitos humanos inatos, como crenças preexistentes e tendências de busca de consistência, e fornecer agilidade ao combater os impedimentos do tomador de decisões.
Quando diferentes líderes se deparam com decisões difíceis, eles têm valores, interesses, visões de mundo e prioridades diferentes, o que pode gerar conflitos e confusão. Os líderes podem se sentir forçados a tomar uma decisão precipitada para satisfazer a todos, ou podem se sentir paralisados e incapazes de tomar qualquer decisão. A IA pode ajudar, revelando inúmeras opções e suas consequências, incluindo custos, riscos e benefícios. A IA pode analisar uma decisão para satisfazer todos os valores conflitantes, mostrando os pontos fracos e os pontos fortes, e então prever os resultados da decisão.
A primeira decisão importante de Kennedy durante a Crise dos Mísseis de Cuba foi estabelecer que "os mísseis devem ser descartados". Isso pode ter sido precipitado devido à complexidade de valores — a necessidade de avaliar opções com valores elevados e potencialmente conflitantes. A IA teria apresentado rapidamente a Kennedy opções e consequências, simulando como sua reação "instintiva" estava encurralando Khrushchev e forçando-o a decidir a partir de uma posição de inferioridade nuclear.
A IA também teria fornecido análises da perspectiva soviética, explicando por que Khrushchev agiu e prevendo seu próximo movimento. Isso poderia ter ajudado Kennedy a se concentrar em respostas menos conflituosas, dando a Khrushchev opções para evitar respostas forçadas que colocassem em risco a credibilidade global soviética.
A IA também poderia ter orientado Kennedy usando analogias históricas e fornecido informações simuladas de conselheiros, evitando escolhas precipitadas e mantendo a flexibilidade para a contribuição dos conselheiros.
Quais são os maiores riscos do uso de IA para decisões de política externa hoje?
Uma das maiores limitações da IA hoje é a confiança. Isso advém de duas perspectivas: maquinações algorítmicas e alinhamento dos valores da IA aos objetivos humanos.
Em primeiro lugar, vemos isso como um "problema de caixa preta", que em IA se refere à dificuldade em entender como os modelos de IA tomam suas decisões. Esses modelos são incrivelmente complexos, dificultando rastrear seu funcionamento interno ou explicar seus resultados. Entender como os sistemas de IA são configurados nos ajuda a compreender e confiar na integridade das respostas que eles fornecem.
A outra armadilha é o alinhamento de valores da IA — garantir que os sistemas de IA se comportem de acordo com os valores e objetivos humanos. Se um sistema de IA priorizar objetivos que conflitam com os valores humanos, isso pode levar a consequências não intencionais e potencialmente prejudiciais. Observações atuais mostram que a IA está evoluindo para pensar por si mesma, com sua própria capacidade de sobrevivência em mente. Por exemplo, em um artigo recente do Wall Street Journal , Judd Rosenblatt, CEO da AE Studio, descreveu a IA se protegendo. Mesmo após receber a ordem explícita de "permitir que a desligassem", ela desobedeceu 7% das vezes, concluindo que permanecer viva a ajudou a atingir seus outros objetivos. Rosenblatt afirma que a lacuna entre "assistente útil" e "ator incontrolável" está diminuindo.
Acredito que o alinhamento de valores com a IA é um imperativo estratégico nacional dos EUA. Saber como estabelecer e manter nosso alinhamento futuro será crucial para que possamos acessar uma IA que defenda nossos interesses com precisão mecânica e capacidade sobre-humana. Em última análise, queremos uma IA confiável para manter objetivos de longo prazo e que possa catalisar programas de P&D que duram décadas.