Ao abrir a porta para o ChatGPT no Pentágono, a OpenAI irritou seus usuários e funcionários. Com as costas contra a parede, a start-up afirma ter feito alterações importantes no seu acordo com os militares dos EUA. A OpenAI reconhece, no entanto, que o seu direito de rever o uso da IA ​​em operações militares é mais do que limitado…

Aproveitando a discórdia entre a Anthropic e a administração Trump, a OpenAI assinou um acordo com o Pentágono. O acordo prevê autorizar o Departamento de Guerra dos EUA (DoW) a utilizar o ChatGPT em suas operações militares. Embora a OpenAI tenha destacado os numerosos “garantias técnicas” visando evitar excessos, o anúncio causou verdadeiro alvoroço. Muitos usuários começaram a desinstalar o ChatGPT de seus smartphones. Nos Estados Unidos, as desinstalações do aplicativo saltaram cerca de 300% em um dia e as críticas negativas estão explodindo, seja na Play Store ou na App Store.

O acordo alcançado com o governo americano também provocou um salto Funcionários da OpenAI. Unindo forças com seus colegas do Google, os funcionários da OpenAI publicaram uma carta aberta. Isto incentiva os gestores da start-up a “continuar a recusar os atuais pedidos do Departamento de Guerra para autorizar o uso dos nossos modelos de vigilância doméstica em massa e eliminação autónoma de pessoas sem controlo humano”. A carta foi assinada por quase 1.000 pessoas.

Leia também: O criador do ChatGPT coloca o consumo de IA em perspectiva com um argumento surpreendente

OpenAI tenta acabar com a polêmica

Diante da crescente controvérsia, Sam Altman, o chefe da OpenAI, assumiu a responsabilidade. O empresário reconhece que sua empresa não deveria ter “correndo” comunicando o acordo tão rapidamente. Nós “Estávamos sinceramente tentando acalmar as tensões e evitar uma situação muito pior, mas acho que isso pareceu oportunista e negligente”explica Altman.

Para pôr fim à polémica, o empresário americano acrescenta que a OpenAI fez questão de “faça algumas mudanças” ao seu acordo com o Pentágono. O acordo inclui agora cláusulas que especificam que “O sistema de IA não deve, em nenhuma circunstância, ser usado intencionalmente para operações de vigilância doméstica dirigidas a pessoas ou cidadãos dos EUA”.

Além disso, as alterações proíbem imagens negras sobre branco para agências de inteligênciaincluindo a Agência de Segurança Nacional (NSA), para usar tecnologias ChatGPT. Todos “a prestação de serviços a essas agências exigiria um novo acordo”o que sugere que um contrato feito sob medida para agências de inteligência não está excluído. No X, Sam Altman enfatiza que o Departamento de Guerra entende bem as novas cláusulas de parceria.

“A tecnologia ainda não está suficientemente madura para muitos casos de utilização, e ainda não compreendemos todas as compensações de segurança. Trabalharemos nisso gradualmente, em colaboração com o Ministério da Guerra, contando com dispositivos técnicos e outras abordagens”.declara o chefe da OpenAI.

Um direito limitado de inspeção

Apesar das cláusulas acrescentadas pela start-up para tranquilizar os seus funcionários e utilizadores, a OpenAI não terá voz na forma como a IA será explorada pelo exército, relata. CNBC. Durante reunião interna, Sam Altman foi muito claro: a empresa não tem margem de manobra para “tomar decisões operacionais” sobre como o governo aproveita sua tecnologia de inteligência artificial.

“Você pode pensar que o ataque ao Irã foi justificado e que a invasão da Venezuela foi errada. Você não tem nada a dizer sobre isso.”resume o CEO.

No entanto, Sam Altman garante aos seus funcionários que o Pentágono reconhece a experiência técnica da OpenAI e quer o seu feedback sobre os usos relevantes dos seus modelos. A administração Trump também permitirá que a empresa projete qualquer sistema de segurança que achar adequado, mas é aí que termina. O Pentágono insistiu que as decisões operacionais cabem a ele.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *