
Uma política nacional para regular a IA. Seis inventaram citações acadêmicas entre 67. O culpado é a própria IA.
Tudo tinha que acontecer mais rápido do que o esperado. A África do Sul queria tornar-se o primeiro país africano a ter um quadro nacional para regular a inteligência artificial, inspirado na nossa Lei Europeia de IA. Gabinete conquistado em 25 de março, publicação em Diário do Governo em 10 de abril, os comentários públicos estarão abertos até 10 de junho. Demorou duas semanas para Notícias24 para inviabilizar tudo.
Seis citações que não existem, num documento governamental
Em 26 de Abril, o diário sul-africano publicou a sua investigação. Sobre 67 referências acadêmicas citados na política, seis dizem respeito a artigos que nunca existiram. As revistas são muito reais: Revista Sul-Africana de Filosofia, IA e sociedade, Revista de Ética e Filosofia Social. Mas os artigos atribuídos às suas colunas nunca apareceram ali. Os editores das três revistas confirmaram isso um por um. Quanto aos autores creditados com trabalhos seminais sobre governança de IA, alguns nunca escreveram uma única linha sobre o assunto designado.
O documento discord foi preparado durante meses pelo Departamento de Comunicações e Tecnologias Digitais. Validado pelo Gabinete em 25 de março, depois durante uma sessão extraordinária em 1º de abril. O projeto não carecia de ambição: Comissão Nacional de IA, Conselho de Ética em IA, Autoridade Reguladora de IA, Provedor Dedicado, Instituto Nacional de Segurança de IA, Superfundo de Seguros de IA. Todo um ecossistema institucional, construído em parte sobre fontes que não existem.
SOLICITEI AO MINISTRO DAS FINANÇAS QUE INVESTIGUE POSSÍVEIS IRREGULARIDADES NO PROCESSO DE AQUISIÇÃO
DE LIVROS PARA FASE DE FUNDAÇÃO pic.twitter.com/pFNc8Qe5r9– Siviwe Gwarube (@Siviwe_G) 28 de abril de 2026
O Ministro das Comunicações, Solly Malatsi, anunciou a retirada no domingo, 27 de abril, no X. O tom do comunicado de imprensa não é exatamente o de um esclarecimento técnico. “Esta falha não é uma simples questão técnica. Comprometeu a integridade e a credibilidade do projecto de política”ele escreve. A explicação mais plausível, em suas próprias palavras? “As cotações geradas por IA foram incluídas sem a devida verificação. » O ministro promete “gestão de consequências” para os funcionários envolvidos.
Alucinações acadêmicas: Pretória é apenas a parte visível
O caso sul-africano não é isolado, apenas é mais visível que os outros. O problema é estrutural: grandes modelos de linguagem não consultam uma base de dados para produzir uma citação. Eles predizem a sua forma, palavra por palavra, a partir dos padrões observados no treinamento. Equivale ao falsificador que não copia nenhum cheque real, mas reproduz o formato geral: assinatura plausível, valor consistente, redação confiável. Quando a previsão é suficientemente confiável, o resultado se assemelha a uma referência real: autoridade do nome do periódico, formato acadêmico respeitado. Mas não aponta para nada. Uma citação maluca não é um bug nem um deslize, é o modo de operação nominal do modelo.
O que torna o caso sul-africano especial não é, portanto, a alucinação em si. Isso porque um documento governamental destinado a regulamentar a IA passou pelo Conselho de Ministros, pelo diário oficial e por diversas etapas de releitura. Sem que um único funcionário se preocupasse em abrir um mecanismo de busca para verificar uma única nota de rodapé. O presidente da comissão parlamentar fez o seu próprio resumo, em seis palavras dirigidas ao departamento: “da próxima vez, evite ChatGPT”.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.