A Anthropic, empresa que afirma ser a campeã da IA ​​“constitucional”, está oficialmente em guerra com o Pentágono.

Para ir mais longe
Enquanto Anthropic (Claude) diz não aos robôs assassinos, OpenAI assina com o Pentágono

O caso sofreu uma grande reviravolta jurídica em 9 de março. A Antrópica entrou com uma ação na Califórnia e em Washington contestando sua classificação como uma ameaça à segurança nacional. Este rótulo, longe de ser um simples detalhe administrativo, proíbe efetivamente o uso de Claude por qualquer órgão federal e coloca em dúvida todos os seus clientes privados que trabalham com o Estado.

Não foi uma falha técnica que provocou a ira de Washington, mas sim uma cláusula de consciência. Antrópico recusou contrato 200 milhões de dólares (cerca de 185 milhões de euros) porque exigia uma garantia de que os seus modelos nunca seriam utilizados para armas letais autónomas ou vigilância em massa. O Pentágono disse não. E tem aumentado desde então.

Uma sanção que parece uma vingança política

Após a recusa da Anthropic, o secretário de Defesa Pete Hegseth decidiu que a empresa representava um risco na cadeia de abastecimento. Esta é uma medida de violência rara para uma empresa americana, geralmente reservada a entidades como Huawei ou Kaspersky. No processo, o presidente Donald Trump ordenou o banimento total de AI Claude de toda a administração.

Para a Anthropic, o cálculo é rápido: as perdas potenciais ascendem a centenas de milhões de dólares a partir de 2026. Quem iria querer usar uma IA rotulada de “risco nacional” pela Casa Branca? Isso é o que a empresa chama de retaliação inconstitucional. E ela não está mais sozinha ao dizer isso: quase 150 ex-juízes federais e estaduais acabaram de apresentar uma petição em apoio à Anthropic. Estes juízes acreditam que o Pentágono está a interpretar a lei de forma incorrecta. É evidente que o Estado não tem a obrigação de comprar da Antrópico, mas não tem o direito de puni-la por ter princípios.

O Ministério da Justiça, por sua vez, afasta estes argumentos. Para ele, as preocupações financeiras da Anthropic são “especulativas”. Sua prioridade? Garantir que as ferramentas de IA integradas nas infraestruturas governamentais não sejam restringidas pelo humor dos seus criadores. Aqui estamos no centro do debate sobre a soberania: pode o Estado deixar que uma empresa privada dite as regras de combate do seu exército?

Enquanto os advogados lutam, o Pentágono não perde tempo. O Departamento de Defesa já anunciou que está trabalhando ativamente na integração das soluções Google, OpenAI e xAI (IA de Elon Musk) para substituir Claude.


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *