
ChatGPT é acusado de ser “treinador suicida”: sete novas reclamações têm como alvo o agente conversacional da OpenAI nos Estados Unidos.
Após o suicídio de quatro usuários do ChatGPT, foram apresentadas quatro denúncias de homicídio culposo contra a OpenAI, empresa que desenvolveu o agente conversacional, nos Estados Unidos. Outras três denúncias acusam o chatbot de IA de ter causado, ou até mesmo agravado, os transtornos mentais de três americanos. Dentro dos sete procedimentos, ChatGPT é descrito como “ defeituoso ” E ” inerentemente perigoso “, relatório CNN e o Jornal de Wall Streetem 6 de novembro.
Os usuários, por exemplo, teriam discutido longamente seus planos de suicídio com o chatbot antes de agir. Para a família do jovem Zane Shamblin, de 23 anos, o ChatGPT teria, nada mais, nada menos, encorajado o seu suicídio. As queixas foram apresentadas a um tribunal da Califórnia por uma organização fundada em 2021, o Social Media Victims Law Center. Este último apresenta-se como querendo “ responsabilizar legalmente as empresas de tecnologia por danos a usuários vulneráveis “.
Leia também: Mais de um milhão de usuários do ChatGPT mencionam pensamentos suicidas
OpenAI acusada de ter “privilegiado o seu domínio de mercado em detrimento da saúde mental”
As reclamações apresentadas têm o mesmo objetivo: todas acusam a OpenAI de ter lançado o ChatGPT de forma apressada e sem testes de segurança adequados. “ A OpenAI lançou conscientemente o GPT-4o prematuramente, apesar dos avisos internos de que o produto era (…) psicologicamente manipulador », escreve o Social Media Victims Law Center num comunicado de imprensa.
Segundo a organização, OpenAI teria “ condensou deliberadamente vários meses de testes de segurança em uma única semana para superar o Gemini do Google no mercado (…). Embora (a empresa) tivesse capacidade técnica para detectar e interromper conversas perigosas, redirecionar usuários para recursos de suporte a crises e sinalizar mensagens para revisão humana, a OpenAI optou por não ativar essas medidas de segurança “. Resultado, ” escolhas de design exploraram transtornos mentais, pioraram o isolamento das pessoas e aceleraram sua descida ao inferno », continua a associação.
“ A empresa priorizou o domínio do mercado sobre a saúde mental, as métricas de engajamento sobre a segurança humana e a manipulação emocional sobre o design ético. O custo dessas escolhas é medido em vidas humanas “, lamentou Matthew P. Bergman, advogado fundador do Social Media Victims Law Center, citado no comunicado de imprensa.
Leia também: Nos Estados Unidos, ChatGPT é acusado de envolvimento em assassinato
OpenAI responde que treina ChatGPT para “ identificar sinais de sofrimento mental e encaminhar as pessoas para ajuda concreta”
Questionada pelos nossos colegas americanos, a OpenAI declarou que a empresa estava treinando “ ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, neutralizar conversas e direcionar as pessoas para ajuda concreta. Continuamos a fortalecer as respostas do ChatGPT em tempos sensíveis, trabalhando em estreita colaboração com profissionais de saúde mental “.
Em agosto passado, a família de um adolescente californiano já havia processado a OpenAI, acusando-a de ter contribuído para o seu isolamento e suicídio, após este ter usado o ChatGPT como confidente. A empresa sediada em São Francisco reconheceu que as suas medidas de segurança poderiam “degradar” quando os utilizadores tivessem longas conversas com o chatbot. A empresa implementou medidas de segurança para adolescentes e usuários em dificuldades. Foram implementados controlos parentais, para que os pais possam ser alertados se os seus filhos discutirem suicídio ou automutilação.
Se você, ou um dos seus entes queridos, tiver pensamentos suicidas, ou se estiver a passar por um período difícil, pode ligar para o 3114, número nacional de prevenção do suicídio, 24 horas por dia, 7 dias por semana: a chamada é gratuita e confidencial. Em caso de risco iminente, ligue para o SAMU (15) ou 112 (número europeu).
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.