O secretário de Defesa dos EUA, Pete Hegseth, fora do Pentágono em 15 de janeiro de 2026.

Na terça-feira, 24 de fevereiro, o secretário de Defesa americano, Pete Hegseth, deu um ultimato à startup de inteligência artificial (IA) Anthropic para suspender todas as restrições ao uso de sua IA pelo Pentágono.

A jovem empresa californiana tem até sexta-feira às 23h01. (hora de Paris) para cumprir, caso contrário o ministro pretende usar uma lei aprovada em 1950 que permite que uma empresa privada seja forçada a produzir bens para a defesa nacional, disse um funcionário à Agence France-Presse (AFP). O Sr. Hegseth também pretende, em caso de recusa, incluir a Anthropic na lista de empresas que apresentam “um risco para os suprimentos”.

As empresas desta lista estão sujeitas a restrições drásticas em termos de contratos com o governo americano, que de facto simplesmente se recusa a utilizá-las, o que não seria o caso nesta configuração.

Leia também | Artigo reservado para nossos assinantes Antrópico, no epicentro da revolução da IA

A lista aplica-se geralmente a empresas cujos produtos as autoridades dos EUA temem que possam ser utilizados em actividades susceptíveis de ameaçar a segurança nacional dos EUA. Atualmente, apenas empresas estrangeiras aparecem lá, incluindo a fabricante chinesa de equipamentos Huawei ou a especialista russa em software antivírus Kaspersky.

Um impasse sobre a ética da IA

O ultimato surge após uma reunião na terça-feira entre Pete Hegseth e o chefe da Anthropic, Dario Amodei. O ministério pediu aos seus fornecedores de IA que levantassem as restrições à utilização dos seus modelos padrão, para alargar os possíveis casos de utilização, desde que permaneçam legais.

Todos concordaram, incluindo a Anthropic, mas a jovem empresa californiana queria impedir a utilização do seu modelo Claude AI em dois casos, a vigilância em massa das populações e a automatização de um ataque mortal.

“Continuamos nossas discussões de boa fé em relação aos usos (da IA) »disse um porta-voz da Antrópico à AFP. O objetivo, segundo ele, é“garantir que a Anthropic possa continuar a apoiar a missão de segurança nacional do governo, consistente com o que nossos modelos podem alcançar de forma responsável e confiável”.

Fundada em 2021 por ex-alunos da OpenAI, a Anthropic sempre reivindicou uma abordagem ética à IA. No início de 2026, a start-up publicou um documento denominado “constituição” que detalha uma série de instruções dadas a Claude para supervisionar a sua produção. Visam, em especial, “prevenir ações inapropriadamente perigosas”.

Leia também | Artigo reservado para nossos assinantes Antrópico, esta start-up de IA que ousa contradizer Donald Trump

O mundo com AFP

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *