OpenAI fecha acordo com Pentágono e amplia racha entre empresas de IA
Contrato de US$ 200 milhões aprofunda racha com a Anthropic e reacende debate sobre uso de IA em armas autônomas e vigilância nos EUA
247 - A decisão da OpenAI de firmar um acordo direto com o Departamento de Defesa dos Estados Unidos marcou uma inflexão na disputa entre as principais desenvolvedoras de inteligência artificial do Vale do Silício. O movimento, liderado pelo cofundador Sam Altman, foi interpretado como um rompimento com limites éticos que a rival Anthropic optou por não ultrapassar. As informações são da Bloomberg.
A divergência central entre as empresas está na forma como encaram o uso militar da inteligência artificial. A OpenAI aceitou a interpretação do governo americano sobre os limites legais e éticos relacionados à vigilância em larga escala de cidadãos. Já a Anthropic adotou postura distinta, resistindo a determinadas exigências.
No campo das armas autônomas, a OpenAI sustentou que, ao não empregar sua tecnologia diretamente na “ponta” operacional — como em drones —, seu sistema não seria responsável por decisões imediatas de vida ou morte. A Anthropic, no entanto, discordou dessa leitura. De acordo com fonte ouvida pela Bloomberg Opinion, a empresa deixou claro que estaria disposta, inclusive com entusiasmo, a desenvolver sistemas de IA voltados para armamentos autônomos.
O limite, porém, estaria na capacidade técnica atual de seus modelos, que ainda não atingiriam o nível necessário para essa aplicação. Na visão da companhia, manter a IA operando na nuvem não elimina o risco de decisões letais tomadas à distância do campo de batalha.Outro ponto sensível envolveu a análise de grandes volumes de dados coletados de cidadãos americanos. Conforme relatado anteriormente pela revista The Atlantic e citado pela Bloomberg Opinion, a Anthropic teria sido surpreendida por exigências de última hora do Pentágono para permitir o uso de seus sistemas na interpretação desses dados em massa.
A postura divergente teve consequências imediatas. A OpenAI garantiu um contrato governamental de pelo menos US$ 200 milhões. Já a Anthropic passou a enfrentar uma reação dura do Departamento de Defesa. Em comunicado, o secretário de Defesa, Pete Hegseth, anunciou a intenção de classificar a empresa como “risco à cadeia de suprimentos”, medida inédita contra uma companhia americana. Ele afirmou: “No contractor, supplier, or partner that does business with the United States military may conduct any commercial activity with Anthropic”. A Anthropic informou que contestará a decisão na Justiça.
A rivalidade entre as duas empresas ganhou contornos mais nítidos nos últimos meses. A Anthropic foi fundada pelos irmãos Dario e Daniela Amodei, ao lado de outros ex-integrantes da OpenAI que deixaram a organização por divergências éticas. Embora por um período as diferenças práticas entre elas parecessem limitadas, episódios recentes aprofundaram o distanciamento.
A Anthropic apoiou a autonomia dos estados americanos para criarem suas próprias legislações sobre IA, diante da ausência de diretrizes federais claras — posição não acompanhada pela OpenAI. As empresas também divergiram quanto à introdução de publicidade nas respostas de chatbots. Em evento realizado na Índia no mês passado, Altman e Dario Amodei, diretor-executivo da Anthropic, demonstraram publicamente o clima tenso ao evitarem interações mais cordiais durante encontro com o primeiro-ministro Narendra Modi.
Nos últimos dias, a crise se intensificou. Enquanto a Anthropic era alvo de críticas dentro do Pentágono — incluindo a acusação, por parte de uma autoridade, de que Amodei teria um “complexo de Deus” —, Altman afirmou inicialmente compartilhar os limites defendidos pela concorrente. Posteriormente, veio à tona que a OpenAI negociava rapidamente para assumir o espaço deixado pela rival.
Em publicação na rede X, Altman explicou: “The main reason for the rush was an attempt to de-escalate matters at a time when it felt like things could get extremely hot”. Ele acrescentou: “I am confident in our team’s ability to build a safe system with all of their tools — including policy and legal matters, but also many technical layers”.
Apesar das ameaças, nenhuma ordem legal definitiva teria sido emitida até o momento para romper os contratos existentes com a Anthropic. Segundo fonte citada pela Bloomberg Opinion, os modelos Claude continuam disponíveis para mais de 100 mil usuários em redes governamentais classificadas como ultrassecretas, conforme os termos do acordo atual.Reportagem do Wall Street Journal, mencionada na análise, apontou que o Claude foi utilizado para auxiliar os Estados Unidos em uma operação contra o Irã, evidenciando o grau de integração da tecnologia aos sistemas de defesa.
A eventual substituição da Anthropic pela OpenAI não seria trivial. A migração envolveria desafios técnicos relevantes, especialmente pela diferença entre infraestruturas baseadas em GPUs da Nvidia e arquiteturas apoiadas em chips proprietários da Amazon. Além disso, a Anthropic havia sido escolhida inicialmente por oferecer, segundo avaliação do próprio Pentágono, a tecnologia mais adequada às demandas das redes classificadas.
Em um cenário de crescente competição tecnológica com a China no campo da inteligência artificial militar, a decisão sobre qual empresa fornecerá sistemas estratégicos ao governo americano tende a produzir efeitos que vão além da disputa comercial. O embate entre OpenAI e Anthropic passa a simbolizar uma divisão mais profunda sobre os limites éticos e operacionais da IA em aplicações de segurança nacional nos Estados Unidos

