
Porém, no final de 2024, o o3 da OpenAI atingiu 75,7%, ou mesmo 87,5% de sucesso dependendo da versão do modelo, em comparação com 34% para as melhores pontuações registadas até agora. Mas alguns meses depois, diante de uma primeira atualização do teste, o desempenho do o3 caiu para… 4%. Esta revisão desqualificou expressamente o uso da força bruta, o uso do poder computacional para testar o maior número possível de respostas até que a correta fosse encontrada.
Desenvolvido em 2019 pelo francês François Chollet, ex-Google, o ARC-AGI demonstra uma verdadeira obsessão pela IA geral. De acordo com relatório datado de abril passado do Google DeepMind, seu advento seria para 2030; Open-AI, Meta ou Amazon fizeram disso sua prioridade. A verdade é que esta noção, que surgiu na década de 2000, permanece nebulosa. “Peça a 100 especialistas em IA para definirem o que eles querem dizer com ‘AGI’ e você provavelmente obterá 100 definições relacionadas, mas diferentes “, observou outro relatório do Google DeepMind no início de 2024.
Simplificando, seria uma inteligência de nível humano, ou até superior. Mas com que critérios? Comparado a um ser humano médio ou altamente inteligente? OpenAI faz AGI “um sistema altamente autônomo que supera os humanos na maioria das tarefas de interesse econômico “. Muito redutor segundo François Chollet, para quem AGI não se define pelas suas competências, mas pela capacidade de adquirir novas. Criador do corpus ImageNet destinado à visão computacional, Fei-Fei Li acredita que a AGI deve necessariamente ter “inteligência espacial”.
Leia também“AI slop” ou poluição por IA, palavra do ano 2025
Alguns modelos adequados para “raciocínio”
“Os modelos de linguagem sabem como reproduzir um texto sem que lhes seja dito o que é um texto ou uma frase. Eles não foram ensinados a conjugar ou a combinar o verbo com o sujeito, mas chegam lá. Isso é o que chamamos de fenômenos emergentes “, reconhece Thierry Poibeau, diretor de pesquisa do laboratório Lattice (Línguas, textos, processamento computacional e cognição) do CNRS.
A capacidade de “raciocinar”, que vê modelos que descrevem como se divide uma tarefa, também seria um passo para uma maior compreensão, para além da pura aprendizagem. “Depois, nos deparamos com a imaginação de um sistema mais inteligente que nós e isso dá origem a fantasias, alerta o pesquisador. No mundo da investigação, questionamo-nos especialmente se a IA continuará a evoluir ao mesmo ritmo dos últimos cinco anos. Percebemos que GPT5 (agosto de 2025) não é muito melhor que 4o. “