
Para o trabalho, os pesquisadores criaram dois corpora de tweets distintos: curtos e virais por um lado, sensacionalistas por outro. Em seguida, eles expuseram quatro grandes modelos de linguagem de código aberto (LLM) a proporções variadas desses dados misturados com tweets considerados mais qualitativos. Cada LLM passou então por uma série de avaliações.
Esta é a diferença entre os resultados fornecidos pela IA treinada com tweets 100% “saudáveis” e os do mesmo algoritmo expostos a 20, 50 ou 80% de tweets de baixa qualidade, o que, segundo os investigadores, reflecte um declínio cognitivo duradouro causado por conteúdos de má qualidade. O artigo de pesquisa menciona, portanto, uma perda significativa de precisão dos modelos nos testes de raciocínio, bem como “habilidades significativamente mais fracas para extrair informações de um contexto longo “.
Alcançado pelo podridão cerebrala IA ora começa a pular etapas do seu plano, ora a cometer erros lógicos, mas sobretudo a responder aleatoriamente, sem qualquer passo no seu raciocínio. Efeitos que são ainda mais preocupantes porque persistem após novo treinamento em dados de alta qualidade.
Para piorar a situação, os tweets utilizados para este estudo representam uma pequena parte da massa de dados com a qual estes LLMs foram originalmente treinados. “Usamos apenas 2 milhões de tokens (sequências de caracteres) em modelos como o Llama3, que foi pré-treinado com 15 trilhões de tokens “, sublinha Junyuan Hong, coautor do estudo como pesquisador de pós-doutorado na Universidade do Texas em Austin. Ele conclui que“uma pequena quantidade de resíduos pode causar danos significativos e duradouros “.
Leia também“O cenário em que a IA é o monstro do nosso Frankenstein”: relato distópico viraliza
Verifique e filtre dados de treinamento
Questionado sobre isso pela revista Forbeso pesquisador de IA Ilia Shumailov, ex-Google Deep-Mind, explica que esses resultados são consistentes com o trabalho sobre o “envenenamento” da inteligência artificial. Ou a injeção maliciosa de dados no corpus de treinamento de um modelo para modificar seu comportamento.
No entanto, ele diz que é difícil extrapolar os resultados deste estudo “em pequena escala ” e que ainda não foi revisado por pares. Acima de tudo, ele vê isso como um lembrete da importância da verificação cuidadosa dos dados de treinamento. As empresas que desenvolvem LLMs já fazem isso, “mas eles podem não filtrar dados suficientes relacionados à viralidade online “, acredita Junyuan Hong.
Por Théo Brajard