OpenAI fecha acordo com o Pentágono enquanto Anthropic enfrenta banimento federal

Nos últimos dias de fevereiro, Sam Altman confirmou publicamente aquilo que muitos esperavam com alguma apreensão: a OpenAI e Pentágono fecharam um acordo para implantar seus modelos de inteligência artificial em sistemas militares classificados. O contrato prevê acesso a ambientes de alta segurança, mas vem acompanhado de um conjunto de salvaguardas que a empresa divulgou em detalhes incomuns para o setor.

OpenAI e Pentágono: negociações

A OpenAI estabeleceu três linhas vermelhas que não podem ser cruzadas em nenhuma circunstância. O primeiro limite proíbe o uso dos modelos para vigilância doméstica em massa. O segundo impede que a IA direcione de forma autônoma sistemas de armas. O terceiro veda o uso em decisões de alto impacto que exijam aprovação humana — como sistemas que a empresa compara explicitamente a “crédito social”. Além disso, a implantação será exclusivamente via nuvem, sem dispositivos de borda, e a OpenAI manterá controle sobre sua própria pilha de segurança. Engenheiros com autorização de segurança da empresa estarão presentes como parte do processo.

Menos de 24 horas depois do anúncio, o secretário de Defesa Pete Hegseth declarou que a Anthropic seria imediatamente designada como risco à cadeia de abastecimento. O presidente Donald Trump foi direto no Truth Social: todas as agências federais deveriam cessar o uso de tecnologias da Anthropic e eliminá-las progressivamente nos próximos seis meses. O CEO da Anthropic, Dario Amodei, havia recusado pedidos do Pentágono para remover restrições ligadas à vigilância em massa e ao uso autônomo de armas — e a empresa reafirmou que contestaria judicialmente qualquer designação como risco à cadeia de abastecimento.

As consequências foram imediatas e reveladoras. O Anthropic Claude subiu da posição 131 para o segundo lugar no ranking de apps gratuitos da Apple nos Estados Unidos, logo atrás do ChatGPT. Hashtags como #CancelChatGPT começaram a circular amplamente, com usuários compartilhando capturas de tela de cancelamentos de conta. A trajetória foi documentada em tempo real, mostrando como contratos de defesa e debates de governança de IA se traduzem diretamente em movimentações de mercado e comportamento de consumidores.

A OpenAI, por sua vez, divulgou trechos do contrato citando a Diretiva DoD 3000.09, que trata de verificação e validação de IA em sistemas autônomos e semiautônomos. A empresa argumentou que suas salvaguardas foram projetadas para ser exigíveis mesmo que legislações futuras mudem — os padrões de referência são os que vigoram hoje, e qualquer uso futuro precisaria continuar alinhado a eles. Também afirmou publicamente que não acredita que a Anthropic devesse ser designada como risco à cadeia de abastecimento e que comunicou essa posição ao governo.

O episódio coloca em foco uma questão que o setor de IA vinha evitando com cuidado: até onde as empresas de IA de ponta estão dispostas a ir em parcerias militares, e qual é o custo de dizer não. A OpenAI, com mais de 900 milhões de usuários semanais ativos e uma rodada de captação de US$ 110 bilhões recém-anunciada, opera agora em uma escala de plataforma que amplifica o impacto geopolítico de cada decisão de contrato. A bifurcação entre as duas principais empresas de IA dos Estados Unidos num momento de tensão máxima com o governo cria um precedente cujos efeitos ainda estão se desdobrando.

E você, o que acha de toda essa situação? Como tudo isso pode afetar o mercado de IA e quais consequências poderão ser vistas? A IA vai revolucionar a segurança mundial ou irá gerar mais conflitos?

Não deixe de comentar e compartilhar com sua rede. Aproveite também para conferir outras notícias e posts. Tem alguma dúvida ou sugestão? Entre em contato conosco através da área de contato do nosso blog e responderemos o quanto antes.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Scroll to Top