
No dia 27 de fevereiro, o Pentágono escolheu os modelos de inteligência artificial da OpenAI em detrimento da Anthropic, que se recusou a abrir os seus próprios modelos sem restrições ao exército americano em nome da ética. “Esta noite chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede secreta“, escreveu o chefe da OpenAI, Sam Altman, no X, usando o nome dado pela administração Trump ao seu Departamento de Defesa.
Segundo o Sr. Altman, este acordo integra “a proibição da vigilância em massa a nível nacional e a responsabilização humana no uso da força, incluindo para sistemas de armas autónomos“, que são exatamente as mesmas linhas vermelhas previamente estabelecidas pela Antrópico para que o Pentágono possa usar seus modelos de IA.”Também implementaremos salvaguardas técnicas para garantir que nossos modelos funcionem como deveriam, o que também era o que o Departamento de Guerra queria.“, continuou o chefe da OpenAI, criadora do ChatGPT.
Este anúncio surge poucas horas depois de Donald Trump ter ordenado à sua administração que “cessar imediatamente todo o uso“da IA da Antrópica, Claude.”Não precisamos deles, não os queremos e não trabalharemos com eles novamente“, trovejou o presidente americano em sua plataforma Truth Social.”O egoísmo deles põe em perigo vidas americanas, nossas tropas e a segurança nacional“, Sr. Trump acusou.”Os Estados Unidos nunca permitirão que uma corporação desperta e de esquerda radical dite aos nossos grandes militares como lutar e vencer guerras!“, escreveu ele em letras maiúsculas.
Leia também“O cenário em que a IA é o monstro do nosso Frankenstein”: relatório distópico se torna viral
“Caprichos ideológicos”
O ministro da Defesa, Pete Hegseth, acusou a Anthropic de “traição“, castigou o”caprichos ideológicos dos gigantes da tecnologia“e proibiu a empresa de qualquer colaboração direta ou indireta com os militares americanos. Dizendo”profundamente triste“por esta decisão, a Anthropic estimou em um comunicado à imprensa que”esta designação seria legalmente infundada e estabeleceria um precedente perigoso para qualquer empresa americana que negociasse com o governo“Ela prometeu tomar medidas legais.”Nenhuma quantidade de intimidação ou sanções do Departamento de Guerra mudará a nossa posição“, ela garantiu novamente.
A Anthropic recusou-se a ceder a um ultimato de Pete Hegseth exigindo que concedesse aos militares dos EUA o uso irrestrito de Claude. “Num número limitado de casos, acreditamos que a IA pode prejudicar os valores democráticos, em vez de os defender“, defendeu seu chefe Dario Amodei, que assinou um contrato de US$ 200 milhões com o governo americano em junho. “A utilização destes sistemas para vigilância doméstica em massa é incompatível com os valores democráticos“, acrescentou.
O líder de 40 anos insiste que os sistemas de IA mais avançados ainda não são suficientemente fiáveis para lhes confiar o poder de controlar armas mortais – e, portanto, matar – sem supervisão humana como último recurso. Armas totalmente autônomasdevem ser implantados com salvaguardas adequadas, que não existem hoje“, estimou Dario Amodei.”Não forneceremos conscientemente um produto que coloque em risco militares ou civis dos EUA.“
Fundada em 2021 por ex-alunos da OpenAI, a Anthropic sempre reivindicou uma abordagem ética à IA. No início de 2026, a start-up publicou um documento denominado constituição que detalha uma série de instruções dadas a Claude para supervisionar a sua produção. Eles visam em particular “prevenir ações inapropriadamente perigosas“.
Ao anunciar o acordo da OpenAI com o Pentágono, Sam Altman disse que perguntou ao departamento “oferecer essas mesmas condições a todas as empresas de IA“.”Manifestámos o nosso forte desejo de que as coisas se acalmem, longe de ações legais e governamentais, para chegar a acordos razoáveis.“, escreveu ele.