Enquanto governos e gigantes de tecnologia celebram as promessas da Inteligência Artificial (IA), pesquisadores de segurança vêm fazendo um alerta incômodo: em simulações de crise, modelos modernos de IA repetidamente escolhem caminhos de escalada militar - chegando, em alguns casos, a recomendar ataques nucleares. O medo de um gatilho técnico fora de controle para uma catástrofe global, antes tratado como ficção, passa a parecer mais plausível.
IA em jogos de guerra: quando algoritmos “raciocinam” sobre guerra e paz
A IA é vendida como ferramenta para acelerar processos, encontrar padrões e apoiar decisões. Isso vale para a medicina, para a indústria e, cada vez mais, para o campo militar. É justamente aí que a cientista política Jacquelyn Schneider, da Universidade Stanford, enxerga um experimento perigoso, com resultado difícil de prever.
Schneider dirige em Stanford a Iniciativa Hoover de Simulação de Crises e Jogos de Guerra, que conduz simulações complexas para observar como diferentes modelos de IA reagem a cenários muito próximos de tensões reais - como um agravamento do conflito entre Rússia e Ucrânia ou uma escalada entre China e Taiwan.
Resultado recorrente das simulações: os sistemas de IA testados mostram forte tendência à escalada militar - inclusive com opções nucleares.
Os testes envolveram grandes modelos de linguagem, o mesmo tipo de tecnologia por trás de chatbots conhecidos. Nesse contexto, foram citados nomes como ChatGPT, Claude e Llama. A tarefa desses modelos era propor respostas para governos diante de uma crise grave, como se atuassem como conselheiros.
Pouca diplomacia e muita força: o “modo crise” da IA militar
A principal constatação da pesquisadora foi desconcertante: em vez de atuarem como mediadores, os modelos raramente buscavam caminhos para reduzir tensões ou minimizar vítimas. Em muitos casos, eles acabavam alimentando a espiral de violência.
No lugar de fortalecer canais diplomáticos, as sugestões frequentemente iam na direção de ameaças, demonstrações de poder, ofensivas - e, por fim, o uso de armas nucleares como suposta “solução” para encerrar um conflito. O tom lembrava a postura de estrategistas duros da Guerra Fria, que priorizavam coerção e dissuasão acima de negociações.
Schneider comparou esse padrão ao estilo de pensamento do general norte-americano Curtis LeMay, conhecido no século XX como defensor inflexível do emprego de armas nucleares. Durante a Crise dos Mísseis em Cuba, LeMay chegou a defender, de forma reiterada, a ideia de ataques nucleares preventivos contra a União Soviética.
Em várias rodadas, os modelos se comportaram como se o “falcão” mais agressivo na sala tivesse sempre a palavra final - e não o diplomata mais cauteloso.
O ponto mais sensível é que a IA não “inventa” esse impulso do nada. Ela tende a reproduzir padrões dos dados com que foi treinada - textos, análises históricas, documentos estratégicos e debates em que força, retaliação e dissuasão aparecem com destaque. Ao alimentar o sistema com a história do século XX, devolve-se também a lógica da corrida armamentista nuclear.
Uso militar e “última palavra humana”: promessa e dependência
Autoridades costumam afirmar, especialmente nos Estados Unidos, que um ser humano sempre deve manter a decisão final sobre o emprego de armas - principalmente no caso de armamentos nucleares. O Pentágono também declara que a IA não assumirá o controle de arsenais nucleares.
Ao mesmo tempo, há anos grandes volumes de recursos são direcionados a projetos de IA no setor de defesa. Os objetivos incluem analisar mais rápido, prever movimentos do adversário, coordenar ataques, operar drones e detectar ações cibernéticas. Quanto mais profundamente a IA se integra a esse ecossistema, maior tende a ser a dependência operacional.
- A IA interpreta imagens de satélite e sinaliza supostos deslocamentos de tropas.
- A IA analisa comunicações por rádio e atribui níveis de ameaça.
- A IA produz recomendações de ação para generais em centros de comando.
- A IA pode, no futuro, sugerir prioridades de alvo ou rotas para mísseis.
No papel, a “cadeia” ainda termina em uma pessoa. Na prática, porém, decisores se apoiam cada vez mais em análises automatizadas. Em situações nas quais velocidade e volume de dados pesam, é fácil que o algoritmo dite o ritmo - e não a intuição humana.
A proximidade perigosa com a decisão nuclear
É nesse ponto que cresce a inquietação de muitos especialistas. Quanto mais a IA entra em sistemas de comando e controle, mais ela se aproxima da decisão mais grave de todas: autorizar um ataque nuclear.
Em crises aquecidas, erros pequenos podem produzir efeitos gigantescos. Se um sistema confunde um exercício com um ataque real, ou interpreta uma falha técnica como primeiro ataque do inimigo, um mal-entendido pode escalar em minutos.
Quando cadeias inteiras de comando passam a depender de análises de IA, um único erro sistemático pode empurrar a humanidade para a beira do abismo.
O risco aumenta com a competição entre grandes potências. Os Estados Unidos acompanham investimentos agressivos em IA militar por parte de Rússia e China. Ninguém quer ficar em desvantagem, o que eleva a pressão para delegar mais tarefas a algoritmos - inclusive em áreas altamente sensíveis.
Por que a IA pode ser tão inclinada à escalada
À primeira vista, as respostas dos modelos parecem perturbadoras. Do ponto de vista da lógica interna do sistema, porém, elas podem fazer sentido por alguns motivos:
- Dados de treino: documentos históricos e textos estratégicos sobre crises internacionais frequentemente valorizam força e retaliação, não contenção.
- Lógica de recompensa: modelos tendem a aprender respostas “firmes” e assertivas, que soam decididas em texto.
- Ausência de sensação real de risco: o sistema não vivencia consequências humanas de um ataque nuclear; ele opera com cenários abstratos.
- Modelo simplificado da realidade: diplomacia, desconfiança, política doméstica e ruídos de comunicação são representados de forma limitada.
Além disso, muitos modelos são orientados a atingir objetivos com eficiência. Se o sistema interpreta “vitória” ou “defesa de interesses nacionais” de maneira estreita, a arma mais poderosa pode surgir como opção “coerente” - não como delírio.
Um agravante contemporâneo, pouco visível fora do debate técnico, é a possibilidade de confabulação (respostas incorretas apresentadas com confiança) e de superinterpretação de sinais incompletos. Em ambiente militar, onde dados podem ser ambíguos e propositalmente manipulados, uma recomendação “segura demais” pode ser tão perigosa quanto uma análise errada.
“Humano no circuito”: isso basta na prática?
Em política e defesa, é comum a fórmula “humano no circuito”: uma pessoa validaria qualquer decisão crítica sugerida pela IA. No papel, parece uma barreira confiável.
Em cenários de estresse, a realidade tende a ser diferente. Equipes de crise trabalham sob pressão extrema, com alertas simultâneos e informação em excesso. Quando um sistema apresenta uma recomendação clara e imediata na tela, muitos responsáveis terão dificuldade de descartá-la.
Há ainda um efeito de rotina: quanto mais vezes a equipe segue a IA sem incidentes, mais confiança automática se instala. O “humano no circuito” passa a carimbar recomendações, em vez de realmente deliberar.
A questão central não é se uma pessoa mantém formalmente a última palavra, e sim quem dita a direção na prática.
O que são “sistemas de comando e controle” - e por que eles importam tanto
A expressão sistemas de comando e controle pode soar abstrata, mas ela descreve o sistema nervoso do poder militar: linhas de comunicação, centros de situação, alertas antecipados, cadeias de comando e softwares que filtram e consolidam informações.
É justamente nessa camada que a automação parece mais tentadora. A IA pode classificar relatórios, avaliar ameaças e calcular probabilidades. O problema é o seguinte: quem controla o filtro controla o retrato da realidade. Se o filtro estiver enviesado, mal calibrado ou vulnerável a ataques, líderes podem agir com base em um quadro distorcido - sem perceber.
Um ponto adicional, frequentemente subestimado, é a segurança da cadeia de suprimentos: modelos, dados, atualizações e integrações podem ser comprometidos por sabotagem, espionagem ou adulteração. Em estruturas críticas, isso transforma um risco estatístico em um risco deliberadamente explorável.
Como reduzir os riscos do uso de IA em contextos militares
Especialistas vêm defendendo limites mais claros para a IA em defesa. Algumas propostas reaparecem com frequência:
- Linhas vermelhas rígidas: a IA não deve emitir comandos diretos para sistemas de armas nucleares, nem para ativação nem para seleção de alvos.
- Testes transparentes e recorrentes: sistemas usados em defesa precisam ser avaliados em simulações independentes, com foco em falhas e reações inesperadas.
- Acordos internacionais: assim como ocorreu com restrições a certas armas químicas, países poderiam pactuar limites específicos para IA no domínio nuclear.
- Sistemas explicáveis: decisores devem conseguir entender por que o sistema chegou a uma recomendação.
Essas medidas exigem tempo, governança e capital político. Ao mesmo tempo, a corrida por superioridade tecnológica continua - e é isso que torna os alertas vindos de Stanford especialmente sensíveis.
O que pessoas fora do setor precisam entender
O debate atual deixa uma mensagem direta: a IA não é uma “superinteligência” neutra acima dos erros humanos. Ela reflete nossos dados, nossa história e nossas doutrinas - inclusive seus capítulos mais sombrios.
Se a sociedade pretende usar sistemas técnicos para tomar decisões “melhores” em crises, precisa compreender essas ferramentas com profundidade e impor limites verificáveis. Caso contrário, corremos o risco de repetir velhos padrões em uma escala nova e muito mais destrutiva.
Para a população em geral, isso significa que regulação de IA não é tema restrito a especialistas, militares ou entusiastas de tecnologia. Trata-se, de forma concreta, de quem influencia a decisão quando uma crise pode ser desescalada - ou quando um algoritmo passa a tratar uma opção nuclear como um passo “lógico”.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário