Mais de um milhão de usuários do ChatGPT têm pensamentos suicidas, revelou a OpenAI na primeira investigação sobre o estado de saúde mental de sua base de usuários. A empresa desenvolveu uma “taxonomia” para identificar sinais de psicose, mania ou outros transtornos graves por meio de conversas.

0,15% dos usuários Bate-papoGPT evocar pensamentos suicidas com o bot todas as semanas. Isso não parece muito, mas com o ChatGPT tendo 800 milhões de usuários ativos semanais, isso representa mais de um milhão deles. Estes últimos têm conversas contendo sinais explícitos de planejamento de suicídio ou de intenção de suicídio.

O chatbot que escuta demais

OpenAI indica que uma porcentagem semelhante de usuários tem níveis excessivos de apego ao ChatGPT. Centenas de milhares de pessoas apresentam sinais de psicose. Esses casos permanecem extremamente raro “, enfatiza a empresa, mas são difíceis de mensurar – o que significa que podem haver muitos mais.

Estes números são produzidos como parte de um relatório mais amplo sobre os esforços da OpenAI para melhorar a gestão de conversas relacionadas à saúde mental. O bot da empresa foi acusado pelos pais de ter levado seu fã adolescente do ChatGPT ao suicídio. Os controles parentais foram implementados após esta reclamação, mas foram criticados por todos os lados. De forma mais ampla, esta triste história forçou a OpenAI a trabalhar mais nesta área.

O grupo afirma ter trabalhado com mais de 170 especialistas da área para fortalecer a segurança de seus modelos. De acordo com dados internos, a nova versão do GPT-5 produz agora 65% de respostas mais consistentes com os comportamentos esperados nestas situações sensíveis. Nos testes específicos para prevenção do suicídio, o modelo alcançou 91% de conformidade, contra 77% da versão anterior.

A OpenAI planeia agora integrar testes sistemáticos de “segurança emocional” nas suas avaliações internas e introduzir ferramentas melhoradas para os pais, incluindo um sistema automático de detecção de idade. Apesar destes esforços, a empresa reconhece que alguns modelos mais antigos, como o GPT-4o, são menos seguros, mas ainda permanecem acessíveis.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.

Fonte :

OpenAI



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *