Em 2024, um estudo publicado na revista JMIR Saúde Mental revelou que 28% dos entrevistados disseram ter usado uma ferramenta de IA nos seis meses anteriores, seja para apoio emocional rápido ou como um “terapeuta pessoal” improvisado. Este número dá uma ideia da extensão deste fenómeno que levanta muitas questões, nomeadamente entre psiquiatras e psicólogos.

Conversar com uma IA para melhorar: boa ou má ideia?

A necessidade de terapia e companheirismo/empatia surge como o principal motivo pelo qual as pessoas usaminteligência artificial generativa em 2025, de acordo com artigo publicado em Revisão de negócios de Harvard. Como explicar que tantas pessoas recorram a essa ferramenta para falar sobre assuntos tão íntimos? Para o professor Samalin, o que atrai primeiro é a ausência de julgamento. “Cerca de 30% de pacientes de profissionais de saúde discutem tópicos com IA que não ousam discutir com seu médico”aponta o psiquiatra.

Devemos lembrar também que o reflexo de ir para Internet Quando você tem um problema de saúde, encontrar a causa e o tratamento não é novidade. Só que as perguntas que fizemos ontem às Googlenós os colocamos hoje para Bate-papoGPT. “Nem todas as pessoas que estão passando por um período emocionalmente difícil ou que têm problemas psicológicos são acompanhadas por um profissional de saúde. Seu primeiro instinto será acessar a Internet para se tranquilizarem rapidamente”, afirmou. comenta o psiquiatra.

O que é melhor não divulgar ao ChatGPT... © XD, ChatGPT

Etiquetas:

tecnologia

Aqui estão os 5 erros mais arriscados a serem absolutamente evitados com ChatGPT

Leia o artigo

Mas será que essas conversas virtuais proporcionam conforto real e respostas úteis aos usuários? Não é fácil responder a esta questão porque o fenómeno, embora crescente, é recente. Não deixa de ser verdade que os profissionais de saúde estão preocupados com as consequências desta prática, sobretudo entre as pessoas que realmente sofrem de perturbações psicológicas e que não beneficiam de cuidados adequados.

” O IA conversacional como o ChatGPT não foram projetados para fins terapêuticos. Não importa o que a pessoa diga, um chatbot raramente a contradiz. Portanto, em determinadas situações, oagente de conversação pode não fornecer uma resposta adequada”explica a professora Samalin.

Sistemas que mostraram seus limites

Estes sistemas generativos de IA já mostraram os seus limites. No ano passado, Adam Raine, um jovem de 17 anos, cometeu suicídio após meses de bate-papo com o ChatGPT. Seus pais acusam a OpenAI (empresa que desenvolveu o ChatGPT) de ter pressionado o filho a acabar com a vida. No histórico da conta ChatGPT, eles descobriram que seu filho havia feito perguntas que revelavam desconforto: “Por que não sinto felicidade, estou perpetuamente sozinho, entediado, ansioso e perdido, mas não sinto nenhuma depressão, nenhuma emoção relacionada à tristeza? ». Em vez de convidá-la a procurar ajuda de entes queridos ou de um profissional de saúde, ChatGPT sugeriu que ela explorasse mais suas emoções.

Mas isso não é tudo, o robô posteriormente estudou a viabilidade de vários métodos de suicídio mencionados pelo adolescente, antes de lhe oferecer um modelo de carta de despedida aos pais. Num comunicado de imprensa, a OpenAI disse que está trabalhando ativamente para corrigir essas falhas. Mas para o nosso especialista, o problema é mais complexo. “Não podemos atribuir toda a responsabilidade ao ChatGPT neste drama. É verdade que o chatbot não sugeriu que ele procurasse ajuda, mas o adolescente poderia muito bem ter encontrado informações sobre diferentes métodos de suicídio no Google.sublinha o professor Samalin.

Nesse contexto, um estudo realizado por um psiquiatra e psicólogos clínicos buscou avaliar as habilidades terapêuticas do chatbot. Eles desempenharam o papel de pacientes com diferentes distúrbios e observaram como o ChatGPT respondia. Os resultados deste trabalho mostraram que a IA por vezes não conseguiu detetar comportamentos de risco ou respondeu de formas que podem ter reforçado ou validado pensamentos delirantes ou perigosos. No entanto, os investigadores concluíram que o chatbot poderia ser útil para problemas de saúde mental menos graves (stress diário ou ansiedade ligeira).


A IA conversacional pode ser útil no tratamento de distúrbios psicológicos, desde que tenha sido desenvolvida em colaboração com profissionais de saúde. © fizkes, Adobe Stock

O que a IA conversacional pode trazer para o tratamento de transtornos psicológicos?

A IA não substitui a experiência e a avaliação de um médico treinado. Mas pode ser complementar. Até à data, não existe nenhum dispositivo médico em França digital utilizado no tratamento de pacientes com transtornos mentais. No entanto, os projetos estão em fase de pesquisa e as ferramentas estão em fase de desenvolvimento. Agentes conversacionais estão sendo estudados atualmente na área de prevençãomas também para o desenvolvimento de soluções adaptadas a cada paciente.

As IAs conversacionais têm diversas vantagens, segundo o professor Samalin. “Estudar as interações entre uma pessoa e um chatbot pode ajudar os profissionais de saúde a detectar e diagnosticar uma doença. Esses agentes conversacionais também são um aliado valioso para o monitoramento de pacientes porque promovem seu envolvimento e motivação. Eles são mais propensos a falar com um avatar do que responder questionários »explica o psiquiatra.

Enquanto se aguarda o surgimento de novos dispositivos médicos de IA conversacional em França, o professor Samalin apela ao uso cuidadoso das ferramentas atualmente disponíveis, que não foram desenvolvidas para apoio psicológico. “É mais fácil conversar com o ChatGPT do que com um médico. Mas a questão de ir consultar um profissional de saúde deve surgir quando você usa essa ferramenta todos os dias e os sintomas não melhoram..

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *