A Antrópica optou por dizer não ao Pentágono. Após um impasse sem precedentes entre uma start-up de IA e a administração Trump, Claude não será mais utilizado pelas forças armadas. Para substituir Claude, o Departamento de Defesa negociou um acordo com a OpenAI, criadora do ChatGPT.

Antrópico diz não aos militares dos EUA. A start-up por trás de Claude decidiu proibir o Pentágono de usar a sua IA generativa para fins militares. A situação começou a arder quando o exército utilizou uma versão militarizada de Claude, integrada num sistema de drones, durante o ataque contra Nicolás Maduro na Venezuela. A empresa protestou, ressaltando que se trata de uma violação de seus termos de uso, que proíbem o uso de Claude para violência, armas ou vigilância.

Em um comunicado à imprensa, Dario Amodei, o chefe da Antrópicoexplica queem “toda a consciência”ele não pode fornecer “um produto que coloca soldados e civis americanos em perigo”. Ele acredita que usar IA “para efeitos de vigilância doméstica em massa é incompatível com os valores democráticos”.

Antes da decisão da Anthropic, o ministro da Defesa, Pete Hegseth, convocou Dario Amodei para pressioná-lo. O ministro ordenou que o empreiteiro abrisse completamente o acesso de Claude às forças armadas, suspendendo as restrições de uso padrão. Para justificar a sua recusa, Dario Amodei sublinha que os sistemas de IA mais sofisticados não são ainda não é confiável o suficiente confiar-lhes a pilotagem de armas letais. Em “num número limitado de casos, acreditamos que a IA pode prejudicar os valores democráticos, em vez de os defender”, argumenta o chefe da Antrópico.

Leia também: AI Claude pode acabar com “conversas prejudiciais ou abusivas”, promete Anthropic

UM “EMPRESA ACORDADA À ESQUERDA”

Em resposta, Donald Trump ordenou que toda a sua administração “interrompa todo o uso imediatamente” de Cláudio. O presidente explica que pediu a “TODAS as agências federais do governo dos EUA que PARARAM IMEDIATAMENTE todo o uso da tecnologia da Antrópica”. Considerando que Antrópico é um “EMPRESA ACORDADA À ESQUERDA” quem é “administrado por pessoas que não têm ideia do que é o mundo real”, Trump acrescenta que não quer nem precisa da tecnologia da empresa. Deles “O egoísmo põe em perigo vidas americanas, nossas tropas e a segurança nacional”, disse o republicano em publicação no Truth Social. Por sua vez, Pete Hegseth acusou a Anthropic de“arrogância e traição”acrescentando que “Os soldados americanos nunca serão mantidos reféns dos caprichos ideológicos dos gigantes da tecnologia”.

Apesar da recusa da Antrópico, o exército americano usou Claude em ataques recentes contra o Irã, revela O Jornal de Wall Street E Eixos. O exército americano utilizou essas ferramentas para coletar informações, escolher mais facilmente seus alvos e simular o curso do combate no terreno. O abandono das tecnologias antrópicas pode levar vários meses. Ao contrário do que sugere Donald Trump, não é possível que o exército deixe de usar Claude da noite para o dia. Como explica o Secretário de Defesa dos EUA, a Anthropic continuará a fornecer seus serviços de IA “por um período não superior a seis meses, a fim de permitir uma transição suave para um serviço mais eficiente e mais patriótico”.

A decisão da Anthropic foi esmagadoramente bem recebida pelos funcionários do Vale do Silício. Em carta aberta, 400 funcionários de empresas emblemáticas, incluindo Google e OpenAI, saudaram a postura adotada pela Anthropic. Os sindicatos da Amazon, da Microsoft e do Google apelaram à sua administração para que seguisse o exemplo da start-up e “recusar as exigências do Pentágono”.

Leia também: Anthropic revela Claude Sonnet 4.6, seu novo benchmark AI

ChatGPT para o resgate do exército americano

É aqui que o OpenAI entra na equação. Pouco depois da recusa categórica da Anthropic em abrir Claude aos militares, a start-up por trás do ChatGPT chegou a um acordo com o Pentágono. Apesar dos protestos dos seus funcionários, a gigante da inteligência artificial negociou um acordo sob certas “garantias”, explica Sam Altman em um comunicado de imprensa publicado no X.

O empresário, e fervoroso defensor da IA, indica que o Pentágono concordou em cumprir duas das “princípios de segurança mais importantes” da OpenAI, nomeadamente “a proibição da vigilância em massa a nível nacional e a responsabilização humana no uso da força, incluindo para sistemas de armas autónomos”. Descritos desta forma, os princípios do OpenAI são próximos aos do Antrópico. O chefe da OpenAI acrescenta que suas equipes vão colocar “Também implementamos salvaguardas técnicas para garantir que nossos modelos se comportem como deveriam”. Em postagem em seu site, a OpenAI enfatiza “que outros laboratórios de IA reduziram ou até eliminaram suas barreiras de proteção e confiaram principalmente em políticas de uso como o principal baluarte nas implantações de segurança nacional”atacando sem entusiasmo seu rival Antrópico. O rei da IA ​​diz estar convencido de que a sua abordagem, baseada principalmente em garantias técnicas, “oferece melhor proteção contra uso indevido”.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *