Os chatbots agora se orgulham de fornecer conselhos médicos com base em dados coletados ao longo dos anos por aplicativos de monitoramento de saúde. O único problema é que eles falam bobagens.

Depois de ver que mais de 230 milhões de usuários buscavam aconselhamento de saúde de Bate-papoGPT toda semana, a OpenAI lançava uma versão dedicada de seu chatbot no início do ano. É possível conectar o ChatGPT Health a um aplicativo de monitoramento de saúde, como o Apple Health por exemplo, para que ele analise dados e responda com precisão às dúvidas médicas.

IA não relacionada a jogos na saúde

Durante a apresentação, a empresa esclareceu imediatamente que o serviço não tinha como objetivo fazer diagnóstico médico ou oferecer tratamento. Na verdade é melhor. Uma investigação de Washington Post mostra que nem o ChatGPT Health, nem o seu equivalente na Claude (que lançou um serviço semelhante alguns dias depois), são capazes de interpretar corretamente os dados de monitoramento de saúde.

O colunista Geoffrey A. Fowler forneceu acesso a dez anos de dados coletados por seu Apple Watch, representando milhões de passos e medições cardíacas. Sua saúde cardiovascular lhe rendeu uma nota catastrófica (“F” é muito ruim), o que levou o usuário a consultar um médico de verdade. Este último varreu a avaliação do ChatGPT.

Os chatbots de saúde dependem fortemente de indicadores imprecisos ou mal interpretados, como a estimativa do VO2 máximo ou a variabilidade da frequência cardíaca. Essas métricas são conhecidas por sua alta margem de erro em smartwatches. Isto resulta em conclusões alarmistas, por vezes contraditórias, e classificações que variam dependendo da direção do vento (ChatGPT oscilou entre B e F com o mesmo conjunto de dados).

Questionado por Fowler, o cardiologista Eric Topol denuncia avaliações “sem base médica” e potencialmente geradoras de ansiedade. O problema não é apenas o erro ocasional, mas a inconsistência: a IA por vezes “esquece” informações cruciais (idade, sexo, resultados recentes), não integra corretamente determinados exames médicos e trata dados que contêm muito ruído como sinais claros.

OpenAI e Anthropic nos lembram que suas ferramentas não substituem um médico… apesar de tudo, os bots de saúde fornecem análises personalizadas, muitas vezes formuladas com confiança e autoconfiança. A Apple, por sua vez, indica que não trabalha diretamente com as duas empresas de IA nestas questões, neste caso o fabricante é apenas um intermediário técnico.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

Washington Post

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *