Este item é retirado da revista mensal Sciences et Avenir n°950, datada de abril de 2026.

Grandes modelos de linguagem (LLM) escrevem para nós. Eles geram todo tipo de texto: artigos científicos, dissertações, ficção e até programas de computador. Chega de ansiedade com a página em branco! Que conforto!

Quanto tempo economizou

Melhor ainda: essas máquinas leem para nós, resumem projetos, romances, tratados filosóficos, dissertações de pesquisa… Tanto tempo economizado para estudantes do ensino médio, estudantes e profissionais de todas as profissões da escrita. Pessoas mal-humoradas se opõem aos erros, o que chamamos de “alucinações”, mesmo que o termo seja um tanto confuso, já que essas máquinas não percebem no sentido literal, apenas falham de vez em quando. Os otimistas respondem que tudo está melhorando. Já o GPT-5.2 não teria nada a ver com versões anteriores; quanto a Claude opus 4.6, ele quebraria todos os recordes.

Leia você mesmo para evitar as armadilhas

E, amanhã, GPT-6, Claude opus 5, Gemini e outros irão superá-los e nunca mais errarão, dizem… Devemos acreditar neles? Além disso, surge um novo problema: um relatório recente da Anssi (Agência Nacional de Segurança de Sistemas de Informação) sobre IA generativa explica que os LLMs são vulneráveis ​​a novos tipos de ataques informáticos (injecção de avisos, envenenamento de dados, etc.) susceptíveis de distorcer as suas respostas sobre assuntos específicos, por exemplo, sobre resultados empresariais.

Leia tambémCRÔNICO. A ética da IA ​​segundo Saint Musk

Como agora quase todo mundo escreve com LLMs, e estes podem ter sido corrompidos por cibercriminosos, devemos ter cuidado com tudo. A única solução para evitar as armadilhas resultantes destes desfalques: decifrar os textos, analisá-los detalhadamente, compará-los com outros para ter uma ideia pessoal, enfim, ler você mesmo, e não através de uma máquina!

Por Jean-Gabriel Ganascia, professor da Universidade Sorbonne, em Paris, pesquisador em inteligência artificial do LIP6 (Universidade Sorbonne, CNRS), ex-presidente do comitê de ética do CNRS. Último trabalho publicado: IA explicada aos humanosLimite, 2024.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *