Pular para o conteúdo

Após acordo com o Pentágono, OpenAI enfrenta crise; usuários migram para Claude

Homem analisando mapas e dois laptops com logos de plataformas de criptomoedas em mesa de madeira.

Um bastidor de contrato, um anúncio no fim de semana e uma virada brusca de percepção: a OpenAI decidiu aproximar o ChatGPT do Departamento de Defesa dos EUA - e acabou desencadeando uma reação forte, que agora obriga a empresa a fazer ajustes às pressas. Ao mesmo tempo, a Anthropic, antes vista como “azarona”, vê o Claude ganhar tração de forma inesperada.

O episódio virou um teste público sobre até onde um chatbot pode (ou deve) ir quando entra no radar de usos de segurança e aplicações militares. E, para muita gente, a diferença entre as duas empresas ficou mais nítida justamente na hora em que as decisões deixaram de ser teóricas.

Wie es zum umstrittenen Pentagon-Abkommen kam

O estopim da polêmica foi um acordo de cooperação entre a OpenAI e o Departamento de Defesa dos EUA. A ideia é que o ChatGPT seja usado em áreas ligadas à segurança e ao meio militar, como a análise de grandes volumes de dados ou o apoio ao trabalho de analistas.

O ponto sensível: pouco antes, a rival Anthropic teria recusado uma proposta muito parecida. A empresa segue um código de ética com regras rígidas e enxerga linhas vermelhas claras quando o assunto é uso militar.

Enquanto a Anthropic diz “pare” para armas autônomas e vigilância em massa, a OpenAI deu o passo - e pouco depois precisou voltar atrás.

O acordo com o Pentágono foi anunciado numa sexta-feira, um momento em que muitas empresas costumam “enterrar” notícias desconfortáveis. Para diversos observadores, isso soou como a clássica “sexta-feira de notícia ruim” - reforçando a impressão de que a OpenAI tentava deixar a crítica se diluir no barulho do fim de semana.

Anthropic bleibt hart: Keine autonomen Waffen, keine Massenüberwachung

A Anthropic há algum tempo se apresenta como um ator especialmente cauteloso na corrida da IA. A empresa insiste que o Claude não deve ser colocado em cadeias de decisão com potencial letal.

De forma bem direta, a Anthropic rejeita com firmeza dois cenários de uso:

  • Sistemas de armas totalmente autônomos: o Claude não deve operar em sistemas nos quais, no fim, não exista uma instância humana decidindo sobre vida e morte.
  • Vigilância de populações inteiras: o uso para monitoramento amplo, sem motivo específico, de cidadãos está explicitamente na lista de proibições.

Essa postura tem custo. Segundo relatos da imprensa, a Anthropic teria ido parar numa lista negra informal em Washington e, no momento, não estaria recebendo novos contratos do governo. Ao mesmo tempo, essa linha dura gera confiança em muitas pessoas que temem a captura militar da indústria de IA.

Ao mesmo tempo, circulam indicações de que o Claude ainda poderia ser usado indiretamente em contextos de segurança, por exemplo em situações relacionadas a conflitos no Oriente Médio. Autoridades não comentam, o que alimenta ainda mais a disputa sobre transparência e controle.

OpenAI unter Druck: Deinstallationen explodieren, Altman rudert zurück

Para a OpenAI, o acordo com o Pentágono não parece ter trazido ganhos imediatos - pelo contrário. Dados da empresa de análise Sensor Tower indicam que, logo após o anúncio, o número de desinstalações diárias do ChatGPT disparou, ficando cerca de 295% acima do nível normal.

Nas redes sociais, hashtags como CancelChatGPT e QuitGPT se espalharam. Usuários disseram que pretendem evitar a OpenAI enquanto a empresa avançar em aplicações militares.

O CEO da OpenAI, Sam Altman, inicialmente tentou conter a crise. Ele argumentou que o contrato teria mais mecanismos de proteção do que acordos semelhantes e seria até mais rígido do que compromissos anteriores de outros fornecedores. Para muitos observadores, porém, essa estratégia saiu pela culatra, porque sugeria que a Anthropic seria menos consistente - justamente quando a Anthropic havia rejeitado o acordo.

Na segunda-feira veio a meia rendição: Altman admitiu que a empresa foi rápida demais e agiu de forma “descuidada”. A publicação na sexta-feira, escreveu ele em essência no X, pareceu oportunista olhando em retrospecto. O tema é complexo e a OpenAI teria subestimado a comunicação.

OpenAI ändert Vertrag: Klare Zusage gegen Inlandsüberwachung

Sob pressão pública, a OpenAI alterou trechos centrais do acordo com o Pentágono. A principal novidade é uma garantia explícita: os modelos da empresa não devem ser usados de forma direcionada para vigiar cidadãos dos EUA.

Também foram elevadas as barreiras para agências de inteligência americanas, como a NSA. Elas não podem simplesmente integrar os sistemas da OpenAI de maneira direta. Para isso, seriam necessárias alterações contratuais adicionais e aprovadas previamente, segundo fontes da empresa.

A OpenAI sinaliza: apoio militar, sim - mas não vigilância ampla da própria população via ChatGPT.

Se essas promessas serão suficientes para recuperar a confiança abalada ainda é incerto. Muitos ativistas e usuários falam em um problema de credibilidade mais profundo e cobram transparência total sobre todas as cooperações relevantes para a área de segurança.

Claude schießt an die Spitze, ChatGPT verliert Boden

Enquanto a OpenAI se ocupa com gestão de crise, a Anthropic vive um boom. Já no primeiro fim de semana após o anúncio do Pentágono, o Claude chegou ao topo do ranking de downloads na App Store da Apple. De acordo com análises de dados públicos, o app se manteve por vários dias em primeiro lugar.

Veículos nos EUA relatam que o Claude, em novas instalações, chegou a superar o ChatGPT com folga em alguns momentos. Para muitos usuários dispostos a trocar, a Anthropic parece a opção “mais ética” - uma imagem que a empresa cultiva deliberadamente.

Em paralelo, ganham corpo chamados de boicote à OpenAI. Ativistas pedem que as pessoas deixem de usar produtos da empresa enquanto houver cooperação militar. Em postagens, o acordo é descrito como um “rompimento de barragem”, que apagaria de vez a fronteira entre IA civil e militar.

Warum die Politik jetzt eingreifen soll

O conflito já chegou ao campo político. O influente think tank Center for American Progress vê na disputa um recado claro ao Congresso dos EUA. A mensagem central: empresas privadas não deveriam decidir sozinhas até onde a IA pode ir no setor militar.

Pesquisadores também alertam. A especialista em ética Mariarosaria Taddeo, da Universidade de Oxford, considera problemático que justamente o fornecedor mais cauteloso esteja sendo empurrado para fora das negociações. Se as vozes mais prudentes somem, o que é considerado aceitável tende a se deslocar silenciosamente para cima.

Wie Militär-KI heute schon funktioniert – und wo die Risiken liegen

Forças militares no mundo todo vêm trabalhando há anos com sistemas apoiados por IA. Eles prometem analisar, em tempo real, enormes volumes de dados vindos de imagens de satélite, drones, comunicações de rádio e relatórios de inteligência. Quanto mais rápidos e precisos esses sistemas forem, mais cedo as estruturas de comando conseguem reagir.

Empresas como a Palantir fornecem plataformas de software desenhadas exatamente para esse tipo de uso. Segundo um gerente britânico da empresa, esses sistemas ajudam a tomar decisões mais rápido - e, em algumas situações, também mais letais. A IA vira um acelerador de processos militares.

Um problema central em grandes modelos de linguagem como ChatGPT ou Claude continua o mesmo: a tendência às chamadas alucinações. Ou seja, eles podem inventar detalhes, tirar conclusões erradas ou apresentar informações incertas com muita convicção. No dia a dia isso pode ser só irritante; em um contexto militar, pode virar risco de vida.

Por isso, responsáveis militares repetem que o ser humano segue “no circuito”. Uma oficial dos EUA, encarregada de dados em um grupo de trabalho da OTAN, cita instâncias humanas de controle em cada etapa de decisão. Críticos, porém, se perguntam por quanto tempo esse princípio se sustenta num cenário real de conflito, quando a pressão por velocidade e eficiência aumenta.

Was dieser Streit für Nutzer und Gesellschaft bedeutet

O debate atual marca um ponto de virada. Até aqui, muita gente via chatbots de IA principalmente como ferramentas práticas para o cotidiano - e-mail, tarefas da escola/faculdade ou trechos de código. Agora fica mais claro que os mesmos modelos também podem estar ligados a interesses de segurança e política militar.

Para consumidores, isso abre várias perguntas:

  • Em que condições um provedor de IA pode trabalhar com Forças Armadas ou serviços de inteligência?
  • Quais usos serão divulgados e quais vão permanecer em sigilo?
  • O quão firmes são promessas éticas quando contratos bilionários estão em jogo?

Juristas e conselhos de ética defendem regras claras para IA militar - em linha com acordos de desarmamento para armas nucleares ou químicas. Entre as propostas discutidas estão proibições de sistemas de armas totalmente autônomos, obrigações de transparência para empresas e mecanismos internacionais de fiscalização.

Para as big techs, surge também uma questão estratégica: elas aguentam recusar contratos governamentais lucrativos para manter a imagem de confiáveis no mercado de massa? A corrida atual em direção ao Claude sugere que uma linha mais rígida pode compensar, ao menos no curto prazo. Se isso se sustenta no longo prazo, só ficará claro quando mais países e alianças militares lançarem seus próprios projetos de IA.

Para usuários, vale olhar com atenção os termos de uso e as diretrizes de cada fornecedor. Expressões como “human-in-the-loop”, “sistemas autônomos” ou “dual-use” aparecem com cada vez mais frequência. Entender o que está por trás ajuda a decidir com mais consciência a que IA confiar certas tarefas - e onde fica a própria linha vermelha.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário