
Professora Jodi Halpern: AI é uma tecnologia muito surpreendente. Como psiquiatra, é isso que isso nos diz sobre nós mesmos. A pesquisa mostrou que o mundo vive atualmente uma epidemia de solidão e uma grande crise de saúde mental. Um estudo de Harvard de 2022, por exemplo, mostra que 61% dos jovens, adolescentes e jovens adultos sofrem de solidão. Esses mesmos números são encontrados entre os idosos e também entre as mães solteiras. Os dados mostram que a solidão, além do seu aspecto psicológico, tem efeitos nocivos para a saúde geral, tal como o tabaco. Portanto, é compreensível que as pessoas tentem encontrar companhia sempre que possível.
Mas há aqui uma forma de ironia e um sério risco para o internauta. A pesquisa mostrou que uma das causas atribuíveis ao aumento dos sentimentos de solidão no mundo é justamente o uso crescente das redes sociais. Em vez de falar espontaneamente em locais públicos, hoje estamos mais propensos a olhar para as nossas telas. Para determinados segmentos da população, como os adolescentes, os chatbots já estão a substituir as amizades da vida real, causando graves riscos para a saúde mental, com, em alguns casos trágicos, deterioração significativa e suicídio.
“Deve um chatbot fornecer uma terapia que um ser humano não pode oferecer?”
Os LLMs (“grandes modelos de linguagem”, como ChatGPT) ainda podem ser úteis na saúde mental, pelo menos em certos casos?
É importante lembrar que, desde 2022, os problemas de saúde mental aumentaram 25% em todo o mundo, como a depressão, a ansiedade grave e a ansiedade social. Porém, o tempo de espera para consultar um psiquiatra ou psicólogo é muito longo. Entretanto, as necessidades destas pessoas não estão a ser satisfeitas, por isso é compreensível que recorram à tecnologia. Mas será a IA a resposta? Um chatbot deve fornecer uma terapia que um ser humano não pode oferecer? Existem duas respostas para isso.
Por um lado, existe a psicoterapia tradicional. É uma terapia dinâmica, com relacionamento com o terapeuta. É neste contexto que existe uma forma de transferência, uma relação profunda e interpessoal. Na minha opinião, os chatbots não deveriam oferecer terapias ou psicoterapias baseadas no relacionamento com um chatbot, que finge entender o que o usuário está passando emocionalmente, pois isso é sempre falso e muitas vezes perigoso. A outra forma de psicoterapia é chamada de terapia cognitivo-comportamental (TCC) e não requer relacionamento com um terapeuta humano. Há mais de 20 anos sabe-se que o próprio paciente pode realizar esta terapia por meio de instruções e um diário.
Tomemos o exemplo de um paciente ansioso que apresenta uma forma de fobia social. A terapia cognitivo-comportamental envolve uma série de tarefas de “lição de casa” para fazer em casa, bem como exercícios para se expor gradualmente à ansiedade. No início, o protocolo exigirá que o paciente vá falar com um garçom em uma cafeteria. Na semana seguinte, trata-se de puxar conversa com um colega de trabalho. O objetivo é ir além das barreiras que a ansiedade impõe. Para fazer isso, você não precisa ter um relacionamento profundo com um humano, uma IA que simule o contato humano ou um terapeuta. Em vez disso, você pode usar uma IA e um diário para interagir consigo mesmo.
Leia tambémSuicídio de adolescente: ChatGPT introduzirá controle parental, anuncia OpenAI
Contanto que você tenha em mente que é apenas uma ferramenta?
Sim. Na terapia, a IA pode ser usada como um diário inteligente para orientá-lo. Como alguém o usaria para estabelecer um plano de condicionamento físico. Mas estou convencido de que o LLM não deve fingir ser um humano que se preocupa com você. É preciso lembrar que a inteligência artificial é incapaz de sentir empatia. Ela não tem sentimentos próprios, não tem autoconsciência e, acima de tudo, não tem mortalidade ou vulnerabilidade. Mas é precisamente isso que nos torna humanos.
Temos corpos, temos pensamentos, sentimos coisas. É por isso que somos ideais para cuidar de outros humanos em terapia. Nossas próprias experiências nos fazem sentir empatia pelos outros. A IA não tem nada disso. Ela só mantém uma ilusão com seu lado lisonjeiro e bajulador, nos elogiando o tempo todo e sempre seguindo nosso caminho. Mesmo os três pequenos pontos que piscam antes que a IA publique uma resposta são realmente prejudiciais. Eles sugerem que existe um ser humano real por trás da máquina, pensando e digitando sua resposta. Outra maneira sutil de nos fazer pensar que existe um humano.
Leia tambémA feia falha de IAs como ChatGPT: elas estão frequentemente do seu lado
“É melhor evitar antropomorfizar o bot”
Os chatbots desenvolvidos em contexto terapêutico são um bom compromisso?
Exercícios de terapia cognitiva e comportamental baseados em chatbots demonstraram real interesse, pelo menos durante algumas semanas. Therabot, por exemplo, dedica-se à terapia cognitivo-comportamental. O que é crucial é que o chatbot não utilize um avatar humano. Ele não responde ao paciente: “Ah, eu te entendo, estou com você!” Possui um avatar em formato de clipe de papel, isso é feito propositalmente, para que o usuário não sinta que está conversando com um ser humano real que tem sentimentos. Isso é muito inteligente da parte deles.
Ao mesmo tempo, pesquisas mostram por que eles são muito mais seguros do que chatbots que fingem ser seus amigos: o Therabot não incentiva o paciente a usar o programa de forma ilimitada, constantemente fazendo perguntas. Mesmo tendo acesso ilimitado ao programa, o usuário médio opta por usá-lo por um total de seis horas, distribuídas por quatro semanas. Porque ele não sente que o bot é seu melhor amigo, porque não foi antropomorfizado. Compare isso com a forma como o ChatGPT usa recursos antropomórficos, bajulação e outras técnicas para incentivar o uso excessivo, levando os usuários a passar horas com seu bot em vez de com pessoas reais… É melhor evitar antropomorfizar o bot, projetando-o como uma ferramenta em vez de uma simulação de um ser humano capaz de empatia. Dito isto, mesmo para a TCC (terapia cognitivo-comportamental), são necessárias mais pesquisas. Os efeitos do Therabot na saúde mental só foram medidos até oito semanas após o uso. Além disso, não sabemos nada.