As alucinações produzidas pela inteligência artificial podem levar ao questionamento da legitimidade de muitos estudos de investigação.

Diagrama para ilustração. // Fonte: Foto de Bozhin Karaivanov no Unsplash

Em junho de 2024, a OpenAI elogiou o ChatGPT, indicando que o LLM era capaz de feitos intelectuais dignos de um estudante de doutorado. Informação que obviamente não caiu em ouvidos moucos, uma vez que aprendemos através Pedras rolantes que alguns pesquisadores o utilizam em artigos científicos publicados.

Um uso que pode criar um problema de tamanho. De acordo com Andrew Heiss, professor assistente do departamento de gestão e políticas públicas da Andrew Young School of Policy Studies da Georgia State University, a alucinação por IA poderia corromper a comunidade de pesquisa.

Falsificações reais

Segundo o professor que revisou inúmeras publicações, ele observou diversos casos de uso fraudulento. Alguns artigos que usam LLMs podem citar pesquisadores reais, mas associá-los a pesquisas ruins, outros vão além, referindo-se a artigos que não existem ou, pior, artigos que são inteiramente gerados por IA.

Citações inexistentes aparecem em pesquisas desleixadas ou desonestas, depois aparecem em outros artigos que as citam, e assim por diante, até que o problema se espalhe.

André Heiss

“Tudo parece autêntico e legal”alerta Heiss. Com isso, muitas informações falsas passam a circular na comunidade científica, retardando ou até mesmo invalidando o já tedioso trabalho dos pesquisadores.

Longe de serem restritas aos acadêmicos, essas alucinações também são comuns no uso público. Em Fevereiro passado, a BBC publicou um estudo que provava que mais de metade da informação gerada pela IA era falsa ou tendenciosa. Tantas situações que exigem cautela ao usar esses LLMs. Ainda mais quando certas empresas tentam adotar seu uso apesar do entusiasmo moderado ».

Para ir mais longe
“Isso me surpreende”: a Microsoft não entende por que a IA do Windows não faz ninguém sonhar


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *