eu’inteligência artificial – e mais especificamente o seu mais recente descendente, o Grandes modelos de linguagem (ou LLM), como Bate-papoGPT da OpenAI, Gemini da Google ou mesmo Claude da Antrópico – cristaliza inúmeros debates. Embora alguns sejam legítimos e relevantes para as questões, outros são mais um pânico moral. É o caso de uma recente coluna publicada em Os Ecosassinado Gaspard Koenig e sobriamente intitulado “ Como o ChatGPT grelha nosso cérebro”, que se presta a um estudo científico para ser lido ArXiv conclusões… que ela simplesmente não formula.
Para Albert Moukheiber, doutor em neurociência e psicólogo clínico, tudo começou com um tópico no Twitter: “Essa desinformação sobre a suposta atrofia cerebral vem, na minha opinião, de um tópico postado por um empresário de tecnologia que provavelmente caiu na armadilha preparada pelos pesquisadores… ao fazer um LLM resumir o artigo. » Na verdade, os cientistas incluíram, na sua pré-publicação (o estudo ainda não foi revisto por pares), instruções destinadas especificamente a modelos de linguagem, para prevenir este tipo de abuso.
“A coluna de Gaspard Koenig repete em grande parte o que é dito neste tópico Twittero que me leva a crer que ele não leu o estudo. E você pode ver isso de relance quando conhece um pouco de neurociência: é simplesmente impossível observar atrofia cerebral com um eletroencefalograma. Isso requer medições estruturais em ressonância magnética. Precisamos parar de fazer artigos científicos dizerem o que não dizem”lamenta Albert Moukheiber.

Para observar a atrofia cerebral, são necessariamente necessários dados de imagem. © Sirisakboakaew, Adobe Stock
O que o estudo realmente diz sobre a ligação entre o uso do ChatGPT e nossos cérebros
Felizmente, vários meios de comunicação – como Informações sobre França Ou O mundo – retransmitiu este estudo com mais rigor. Vejamos então o que isso realmente nos ensina e que, aliás, é bastante interessante. O estudo teve como objetivo comparar o impacto cognitivo e cerebral de diferentes ferramentas durante uma tarefa de redação. Três condições foram testadas:
- O uso exclusivo de um Modelo de linguagem grande (LLM) como ChatGPT.
- Pesquisa de informações por meio de um mecanismo web clássico.
- A utilização apenas do conhecimento, sem auxílio tecnológico.
Os pesquisadores mediram tanto parâmetros psicológicos (como lembrança do conteúdo, satisfação com a redação produzida ou mesmo sentimento de propriedade do texto) quanto dados cerebrais, com os participantes sendo equipados com fones de ouvido de EEG durante todo o experimento. Ao concentrar-se nas medições cerebrais e nas inferências relativas à carga cognitiva – ou seja, o esforço mental mobilizado para completar uma tarefa – o estudo mostra que esta carga diminui quando uma ferramenta tecnológica é utilizada. Mais precisamente:
- a utilização de um motor de busca leva a uma redução da carga cognitiva interna (ligada em particular ao memória de trabalho e desenvolvimento pessoal), comparado à ausência de ajuda;
- o uso de um LLM leva a uma redução mais geral da carga cognitiva, novamente em comparação com o grupo sem tecnologia.
Estes resultados sugerem que os LLMs, tal como o ChatGPT, permitem realocar os nossos recursos mentais, ao reduzir determinadas tarefas em favor de funções executivas mais complexas (planeamento, estruturação do raciocínio, etc.), onde a investigação Internet estimula ainda mais a integração de informações. Estas interpretações baseiam-se na análise dos padrões de conectividade neuronal medidos por EEG e permitem-nos concluir que quanto mais sofisticada a ferramenta, menos intensa é a conectividade – o que, longe de ser preocupante, é bastante esperado. Isto reflete simplesmente o alívio cognitivo proporcionado por ferramentas que terceirizam certas funções de processamento de informações. Resumindo, o ChatGPT não “frita” o nosso cérebro: reduz a nossa carga cognitiva, como uma calculadora ou um GPS.
IA na educação: uma ferramenta como qualquer outra?
Em vez de nos perguntarmos se os LLMs “nos fazem saltar fusíveis », o estudo oferece um debate mais fértil: que lugar estas ferramentas devem ocupar na educação? Na verdade, os investigadores mostram que a ordem de exposição às ferramentas tecnológicas tem influência. Durante uma segunda fase da experiência, os grupos mudam de condições: aqueles que primeiro utilizaram um LLM devem depois escrever uma dissertação sem ajuda e vice-versa. Resultado: os participantes que passaram do LLM para nenhuma tecnologia apresentaram menor conectividade neural, em comparação com aqueles que passaram do LLM para o LLM, cuja conectividade aumentou.
Em outras palavras, começar com uma ferramenta como o ChatGPT pode mudar a maneira como você se envolve cognitivamente quando precisa trabalhar sem ajuda. Um elemento que levanta questões importantes sobre a introdução precoce de LLMs na aprendizagem.
Outro estudo complementar centra-se na relação que temos com estes modelos e no seu impacto no nosso pensamento crítico – ou seja, na nossa capacidade de mobilizar o nosso conhecimento, as nossas disposições e as nossas capacidades analíticas e argumentativas durante uma tarefa. Ela sugere que quanto mais confiamos nos LLMs, menos tendemos a mobilizar este pensamento crítico.

Ao contrário de uma calculadora, um LLM não é uma ferramenta infalível. © wutzkoh, Adobe Stock
Albert Moukheiber nos esclarece sobre este ponto: “Imagine ler um artigo de notícias e confiar cegamente na pessoa que o escreveu. Este estudo mostra que se você adotar a mesma atitude em relação a um LLM, isso influencia a maneira como você processa as informações que ele fornece. Historicamente, aprendemos a confiar em nossas ferramentas: não duvido da minha calculadora quando ela me dá um resultado. Também aplicamos essa falta de vigilância epistêmica aos LLMs e isso provavelmente desempenha um papel nas atitudes que desenvolvemos em relação a eles. sugere Albert Moukheiber, como hipótese.
E esse é o ponto: ao contrário de uma calculadora, um LLM não é uma ferramenta infalível. Ele pode ter alucinações, cometer erros, produzir informações falsas ou até mentir para um estilo muito convincente: “Há uma diferença fundamental entre uma calculadora e um LLM. A primeira não pode estar errada. A segunda, sim. É por isso que o problema não está tanto no uso da IA, mas na relação de confiança que construímos com eles. No Twitter, vemos muitas pessoas usando a IA como verificador de fatos… mas quem verifica a IA? “, brinca Albert Moukheiber.
Jogos (in)políticos
Todas estas reflexões não são teóricas: colocam questões concretas aos profissionais da educação e aos próprios estudantes. O que devemos pensar da integração progressiva, até mesmo sistemática, da inteligência artificial nas escolas e universidades? Para Albert Moukheiber, não se trata de proibir, mas de apoiar. “ Quando você tenta proibir o acesso a uma tecnologia, isso nunca funciona. Pessoalmente, fui estudante na época das primeiras calculadoras científicas e sempre arranjávamos uma forma de desviá-las do seu uso inicial.ele diz, divertido,ar nostálgico, antes de acrescentar: Parece-me muito mais criterioso supervisionar a utilização destas ferramentas, explicando como funcionam e em que contextos podem ser úteis. »

A chegada dos LLMs levanta questões essenciais relativamente às políticas educativas a implementar. © ChatGPT
Mas esta educação bem utilizada deve evitar duas grandes armadilhas.
A primeira: reproduzir ou acentuar desigualdades já presentes, como sublinha Inès Drège, professora de filosofia, em artigo publicado no número especial Pedagogia e IA dos Cadernos Didáticos. Com efeito, a utilização destas ferramentas geralmente beneficia aqueles que já possuem um bom nível nas dissertações e desencoraja os estudantes que carecem desse capital cultural.
A segunda: ter cuidado com o discurso prometeico da indústria tecnológica, que por vezes pretende orientar as políticas educativas. Uma investigação de Marie Dupin para França Cultura mostra como as grandes empresas de tecnologia procuram influenciar diretamente a agenda educacional na França. Porque os LLMs não são simples “ferramentas” neutras cujos efeitos dependem do uso estritamente individual. São moldados por lógicas económicas e políticas – e os usos que deles fazemos colectivamente, dentro e fora da escola, reflectem isso mesmo.
Em outras palavras: não é apenas como usamos a IA que importa, mas como decidimos usá-la juntos.