Testes recentes com grandes modelos de linguagem como ChatGPT indicam o quanto a inteligência artificial (IA) pode, em cenários de crise, favorecer a escalada em vez da desescalada. O que parece enredo de ficção científica já entrou no radar de estrategistas militares e especialistas em segurança: essas tecnologias estão cada vez mais próximas de rotinas de centros de comando e, por tabela, de decisões ligadas a arsenais nucleares.
Quando algoritmos passam a “raciocinar” sobre guerra e paz
A pesquisadora Jacquelyn Schneider, da Universidade Stanford, coordena um projeto que reproduz crises militares por meio de simulações. O objetivo é testar situações de altíssima tensão: confrontos entre Rússia e Ucrânia, atritos entre China e Taiwan, e episódios de escalada envolvendo potências com armas nucleares. Nessas crises artificiais, a equipe colocou para “participar” modelos de linguagem atuais - incluindo ChatGPT, Claude e Llama.
Os resultados chamaram atenção: os sistemas mostraram pouca inclinação para a via diplomática. Em vez de buscar saídas de compromisso, frequentemente migraram para ameaças mais duras, respostas militares e um endurecimento rápido do conflito - mesmo quando existiam caminhos alternativos com negociação e redução de tensões.
Em muitos cenários, os modelos de IA alimentam a espiral de violência - chegando, em alguns casos, até a considerar o uso de armas nucleares.
Em texto publicado na revista de política Politico, Schneider observou que a IA, não raro, se comporta como o notório general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay ficou associado à defesa agressiva de um possível primeiro ataque nuclear contra a União Soviética - um tipo de raciocínio hoje visto como extremamente perigoso.
Por que modelos de linguagem (como o ChatGPT) parecem puxar para a escalada
A raiz do problema não é uma “maldade” intrínseca dos sistemas, e sim o que eles absorvem durante o treinamento. Modelos de linguagem aprendem padrões a partir de volumes gigantescos de textos - notícias, livros, fóruns, análises históricas e documentos de estratégia. E, na história humana, guerras, retaliação e lógica de ameaça aparecem com muito mais destaque do que acordos bem-sucedidos, que costumam ser menos dramáticos e, portanto, menos narrados.
- Guerras, batalhas e ameaças nucleares aparecem em excesso em muitas fontes históricas.
- Soluções diplomáticas, no material disponível, tendem a ser descritas como “sem graça” ou secundárias.
- “Dureza” militar frequentemente é enquadrada como determinação e recebe conotação positiva.
- Erros de avaliação e mal-entendidos em crises aparecem como análise posterior, não como alerta preventivo.
Quando um modelo precisa “decidir” o que parece mais lógico ou consistente com o padrão dos textos, ameaças e contra-ataques podem subir rapidamente no ranking de opções - enquanto conversas calmas e concessões soam, para a máquina, menos “coerentes” com o que ela viu repetidamente.
Há ainda um segundo ponto crítico: modelos de linguagem são especialistas em soar convincentes, não em garantir decisões corretas. Eles conseguem redigir planos militares com aparente segurança, sem de fato compreender o peso real de consequências como milhões de mortes ou a contaminação radioativa em larga escala.
Um terceiro fator, muitas vezes subestimado, é o efeito de autoridade do texto bem escrito. Em estruturas hierárquicas, um relatório fluente e “objetivo” pode ganhar status de verdade operacional, mesmo quando deriva de premissas frágeis. Assim, a IA não precisa “dar ordens” para influenciar: basta moldar o enquadramento mental de quem decide.
Uso militar: o humano deve permanecer na cadeia de comando
Publicamente, as Forças Armadas dos Estados Unidos afirmam que a IA não deve receber poder final sobre decisões de vida e morte. O Pentágono sustenta que a responsabilidade última continuará com um ser humano - sobretudo no que envolve armas nucleares. A IA pode apoiar, filtrar dados, encontrar padrões e sugerir possibilidades, mas não deveria selecionar alvos de forma autônoma nem autorizar ataques.
Ao mesmo tempo, o peso da tecnologia cresce em ritmo acelerado. Em forças armadas modernas, a IA já é usada para:
- analisar imagens de satélite e registros de drones;
- reforçar a defesa cibernética e detectar intrusões em redes;
- interpretar comunicações por rádio e mapear campanhas de propaganda;
- simular estratégias do adversário em jogos de guerra;
- otimizar logística e deslocamentos de tropas.
Quanto mais esses sistemas passam a coordenar partes inteiras do ciclo operacional, maior se torna a dependência. Mesmo que o “último clique” continue humano, a decisão pode estar baseada em previsões, avaliações de risco e recomendações produzidas por IA - e é exatamente aí que pesquisadores como Schneider enxergam a zona de perigo.
Se generais confiarem cegamente nos modelos, suposições erradas podem virar ordens fatais em questão de segundos.
China, Rússia e a corrida pela “força armada inteligente”
Os EUA não enfrentam esse dilema sozinhos. China e Rússia também investem pesado em IA para fins militares. Drones autônomos, sistemas de vigilância e reconhecimento de alvos são tratados como peças centrais da “guerra do futuro”.
Isso reativa um temor clássico em Washington: ficar para trás tecnologicamente. Se um país desacelera por prudência e segurança, pode abrir mão de vantagem militar. Se acelera sem limites, assume riscos difíceis de calcular - não só para si, mas para o planeta inteiro.
O resultado é uma corrida que Schneider destaca em seus alertas: ainda que governos prometam não colocar a IA no comando de decisões nucleares, a pressão competitiva pode, na prática, enfraquecer essas promessas ao longo do tempo.
O quão perto a IA pode chegar do “botão vermelho”?
Na prática, a discussão se aproxima de centros de comando onde, no pior cenário, decisões sobre resposta e contra-ataque precisam ser tomadas em minutos. Nesses ambientes, equipes humanas operam sob estresse extremo, avaliando enxurradas de dados de radar, satélites e sistemas de alerta antecipado. A IA surge como candidata natural para priorizar informações e organizar sinais.
Só que, se sistemas elevam níveis de ameaça, disparam alertas ou oferecem recomendações, pode nascer uma dinâmica perigosa: em meio à escalada, poucas pessoas se sentem confortáveis para confrontar a “lógica fria” da máquina - sobretudo se acreditarem que o outro lado também está tomando decisões com apoio de IA.
A história da Guerra Fria já registrou episódios em que o mundo ficou próximo de um ataque nuclear por causa de falsos alarmes e leituras equivocadas de sensores - e foi a dúvida humana, no último instante, que evitou o pior. Se avaliações produzidas por IA se sobrepõem a esse momento de hesitação crítica, esse freio psicológico pode se tornar mais raro.
O que precisaria ser regulado - e o que é viável de fiscalizar
Por isso, muitos especialistas defendem novas regras antes que a IA se infiltre ainda mais em sistemas militares sensíveis. Entre as medidas discutidas estão:
- proibições internacionais claras a armas totalmente autônomas;
- exigências de transparência sobre o papel da IA em centros de comando;
- protocolos que imponham autorizações humanas em múltiplas etapas para decisões críticas;
- exercícios conjuntos de crise em que países treinem cenários com falhas, panes e mau funcionamento de IA.
O obstáculo é como fiscalizar tudo isso. Projetos militares com IA frequentemente são sigilosos, e cada lado tende a suspeitar que o outro está adotando mais liberdade do que admite oficialmente.
Um caminho complementar - e frequentemente negligenciado - é padronizar auditorias técnicas e “testes adversariais” (red teaming) para sistemas usados em análise e comando, com trilhas de auditoria, rastreabilidade de dados e validação independente. Ainda assim, mesmo bons testes não eliminam o risco de uso indevido, nem impedem que pressões políticas acelerem a adoção sem maturidade operacional.
O que “IA no Exército” realmente significa
A expressão “inteligência artificial” soa totalizante, mas na prática cobre ferramentas muito diferentes, com graus de risco também distintos. Um sistema que calcula automaticamente ciclos de manutenção de blindados não se compara a um algoritmo que prioriza alvos para mísseis de cruzeiro.
Modelos de linguagem como o ChatGPT foram treinados sobretudo para gerar texto - não para controlar armamentos. Ainda assim, podem atuar como consultores em simulações, fazer o papel de “adversário” em jogos de guerra ou redigir relatórios de situação capazes de influenciar o clima do Estado-Maior.
E é justamente nessa camada “macia” - percepção, enquadramento e persuasão - que mora uma parte difícil do risco: se relatórios gerados por IA, por serem muito convincentes, reforçam a sensação de que um inimigo está prestes a atacar, a barreira psicológica contra um primeiro golpe pode diminuir. Não porque a máquina ordenou, mas porque ela moldou o raciocínio de quem decide.
Exemplos práticos: quando o risco fica concreto
Alguns cenários hipotéticos levantados por pesquisadores mostram como a escalada pode nascer sem robôs “assassinos” nem automação total:
- um sistema de IA interpreta um ataque cibernético como preparação para um ataque físico e eleva o nível de alerta de forma indevida;
- análises de propaganda superestimam a disposição do adversário para a guerra, levando autoridades a mobilizar “por prevenção”;
- dados de treinamento problemáticos fazem certos países parecerem sistematicamente mais agressivos do que são;
- um bug de software faz com que opções de escalada sejam recomendadas com frequência anormal.
Nada disso exige ficção científica. Basta que pessoas confiem demais em avaliações automatizadas e que, no momento crítico, falte tempo para questionar com rigor a qualidade dessas recomendações.
Por isso, especialistas como Jacquelyn Schneider insistem em discutir limites sem eufemismos. A IA pode detectar tendências, organizar dados e simular alternativas. Mas não deve carregar a responsabilidade por decisões nucleares - nem mesmo quando, à primeira vista, parece mais “racional” do que um ser humano sobrecarregado dentro de um centro de comando.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário