Os riscos que o ChatGPT representa para a saúde mental dos seus utilizadores são um tema quente para a OpenAI, cujo chatbot é notavelmente acusado perante os tribunais americanos de ter encorajado o suicídio de um adolescente americano.
Segunda-feira, 27 de outubro, em postagem no blog, a empresa revelou números: segundo ela, 0,15% dos usuários ativos ao longo de uma semana relatam intenções suicidas ao ChatGPT; 0,07% presente “possíveis sinais de emergência de saúde mental relacionados a psicose ou mania” e 0,15% de “níveis potencialmente intensos de apego emocional ao ChatGPT”.
Embora a OpenAI reivindique 800 milhões de usuários semanais do ChatGPT, isso significa que a cada semana cerca de 2,4 milhões de pessoas enviam mensagens suicidas e 560.000 mensagens sugerindo que estão sofrendo de transtornos psicóticos ou maníacos.
Trezentos médicos e psicólogos
A empresa anuncia que atualizou seu modelo de linguagem para “reconhecer e apoiar melhor as pessoas em momentos de angústia”. Esta nova versão deverá conduzir a uma “desescalada” em certas conversas, e “orientar as pessoas em direção aos profissionais quando necessário”. O ChatGPT deve, portanto, redirecionar os usuários que expressam pensamentos suicidas para números de emergência. OpenAI garante que o número de respostas inadequadas caiu de 65% a 80%.
A empresa não detalha, no entanto, como detecta os problemas de saúde mental dos seus utilizadores, mas diz que se cercou de cerca de 300 médicos e psicólogos, de cerca de sessenta países, para desenvolver o seu modelo e testar a sua eficácia.
Em 14 de outubro, Sam Altman, CEO da OpenAI, disse que as mudanças anteriores no ChatGPT visavam preservar a saúde mental “tornou-o menos útil e agradável”. Ele então decidiu “relaxar as restrições na maioria dos casos”atraindo inúmeras críticas. Ele esclareceu no dia seguinte que OpenAI “tratariam os usuários com problemas de saúde mental de maneira muito diferente daqueles que não têm”.