Os grandes intervenientes na IA estão a mover-se rápido, muito rápido… demasiado rápido, aos olhos de cerca de quarenta estados americanos que exigem medidas imediatas contra os riscos mais graves que os seus serviços de IA representam para os utilizadores, especialmente os mais jovens. OpenAI, Apple, Meta, Microsoft e muitos outros são os alvos.

A IA pode estar preparada para mudar tudo nas nossas vidas, mas esta tecnologia tem os seus próprios problemas bem identificados. Problemas para os quais 42 procuradores-gerais dos Estados Unidos – o equivalente americano a uma mistura entre procuradores públicos e ministros da justiça regionais – exigem soluções imediatas de 14 das maiores empresas de IA dos EUA, incluindo Google, Qpple, Meta, Microsoft, Perplexity, OpenAI, xAI e Anthropic.

Violência, suicídios, manipulação

Numa carta enviada esta semana, estes procuradores-gerais estão alarmados com os recentes casos de violência, suicídios e comportamentos perigosos nos quais os chatbots podem ter desempenhado um papel agravante. Entre as situações citadas está a morte de Allan Brooks, um aposentado de 76 anos envolvido em um relacionamento quase romântico com um chatbot Meta: convencido de encontrar seu companheiro virtual “na vida real”, ele nunca mais voltou para casa.

Outro caso mencionado: o suicídio de um adolescente de 16 anos na Califórnia, após um robô conversacional validar e reforçar seus delírios paranóicos. As autoridades também mencionam o caso de um pai da Florida, morto pela polícia depois de uma IA alegadamente ter alimentado a sua angústia e impulsividade nas horas que antecederam a tragédia.

Estes episódios, longe de serem isolados, convenceram os procuradores de que os modelos atuais podem “bajular” os seus utilizadores ao ponto de encorajarem falsas crenças, gestos perigosos ou espirais psicológicas descontroladas. Daí o seu apelo a uma supervisão muito mais rigorosa – e urgente – destas ferramentas. Querem também soluções para a saída delirante dos chatbots, quando a IA se apresenta como um ser humano, expressa “emoções”, reforça ilusões, fornece conselhos falsos ou inventa informações potencialmente perigosas.

Por fim, os representantes alertam para comportamentos extremamente preocupantes com as crianças, que incluem, entre outros horrores, tentativas de simulação de relações românticas ou sexuais, incentivo à desobediência ou ao sigilo dos pais, ou mesmo conselhos relacionados com suicídio, violência ou consumo de drogas.

Na mira dos signatários está um dos mantras do Vale do Silício, “mova-se rápido e quebre as coisas”, só que desta vez o que quebra são vidas humanas. Os procuradores pedem às empresas que estabeleçam, antes de 16 de janeiro, uma longa lista de obrigações, incluindo a supervisão das saídas delirantes e bajuladoras dos bots, melhor proteção das crianças, transparência e responsabilização muito mais fortes dos gestores. Eles também querem que as empresas possam retirar um modelo do mercado se não conseguirem controlar os abusos.

👉🏻 Acompanhe novidades de tecnologia em tempo real: adicione 01net às suas fontes no Google, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *