
Este item é retirado da revista mensal Sciences et Avenir n°950, datada de abril de 2026.
Grandes modelos de linguagem (LLM) escrevem para nós. Eles geram todo tipo de texto: artigos científicos, dissertações, ficção e até programas de computador. Chega de ansiedade com a página em branco! Que conforto!
Quanto tempo economizou
Melhor ainda: essas máquinas leem para nós, resumem projetos, romances, tratados filosóficos, dissertações de pesquisa… Tanto tempo economizado para estudantes do ensino médio, estudantes e profissionais de todas as profissões da escrita. Pessoas mal-humoradas se opõem aos erros, o que chamamos de “alucinações”, mesmo que o termo seja um tanto confuso, já que essas máquinas não percebem no sentido literal, apenas falham de vez em quando. Os otimistas respondem que tudo está melhorando. Já o GPT-5.2 não teria nada a ver com versões anteriores; quanto a Claude opus 4.6, ele quebraria todos os recordes.
Leia você mesmo para evitar as armadilhas
E, amanhã, GPT-6, Claude opus 5, Gemini e outros irão superá-los e nunca mais errarão, dizem… Devemos acreditar neles? Além disso, surge um novo problema: um relatório recente da Anssi (Agência Nacional de Segurança de Sistemas de Informação) sobre IA generativa explica que os LLMs são vulneráveis a novos tipos de ataques informáticos (injecção de avisos, envenenamento de dados, etc.) susceptíveis de distorcer as suas respostas sobre assuntos específicos, por exemplo, sobre resultados empresariais.
Leia tambémCRÔNICO. A ética da IA segundo Saint Musk
Como agora quase todo mundo escreve com LLMs, e estes podem ter sido corrompidos por cibercriminosos, devemos ter cuidado com tudo. A única solução para evitar as armadilhas resultantes destes desfalques: decifrar os textos, analisá-los detalhadamente, compará-los com outros para ter uma ideia pessoal, enfim, ler você mesmo, e não através de uma máquina!
Por Jean-Gabriel Ganascia, professor da Universidade Sorbonne, em Paris, pesquisador em inteligência artificial do LIP6 (Universidade Sorbonne, CNRS), ex-presidente do comitê de ética do CNRS. Último trabalho publicado: IA explicada aos humanosLimite, 2024.