Stanford e o Internet Archive mediram a extensão do fenômeno. O resultado mais perturbador não é o que esperávamos: a web não se tornou mais falsa, mas mais uniforme e estranhamente otimista.

Durante meses nos prometeram uma “internet morta”, invadida por robôs que conversam com outros robôs. Os pesquisadores decidiram verificar. Uma equipe de Stanford, Imperial College London e Internet Archive acaba de publicar um estudo intitulado O impacto do texto gerado por IA na Internet. É o maior já dedicado ao assunto. Sua figura principal: 35% dos sites criados desde o final de 2022 seria gerado ou assistido por IA, dependendo 404 Mídia quem revelou os resultados. De zero a um terço em três anos. A “teoria da Internet morta” acaba de receber os primeiros sinais de validação empírica.

Leia também: Internet Archive e sua Wayback Machine estão em perigo por causa da IA

Como os pesquisadores mediram a contaminação

A equipe utilizou os arquivos da Wayback Machine para extrair amostras de sites publicados entre agosto de 2022 e maio de 2025. Ou seja, 33 meses de produção web examinados. O HTML bruto de cada página foi baixado, limpo e depois analisado por Pangrama v3um detector de texto AI considerado o mais confiável após comparação com três concorrentes. Depois que os sites foram classificados como “IA” ou “humanos”, os pesquisadores testaram seis hipóteses comuns sobre os efeitos do conteúdo sintético.

Dos seis, apenas dois foram confirmados. IA torna a web boa menos semanticamente diverso : mesmas expressões, mesmas estruturas, mesmo vocabulário suavizado de um site para outro. E mais positivo em tom. A web gerada por IA está sempre sorrindo, por assim dizer. Por outro lado, não há aumento mensurável de declarações factualmente falsas. Chega de mentiras verificáveis, nem menos links para fontes. A web da IA ​​não é mais enganosa do que a web humana (que talvez diga tanto sobre nós quanto sobre as máquinas).

35% ou 74%: por que os números diferem

O número de 35% não é o único que circula. Outro estudo, realizado em quase um milhão de páginas web em 2025, estimou que 74,2% novas páginas continham conteúdo gerado por IA. A diferença é explicada pelo perímetro. Medidas de Stanford sites inteiros classificados como predominantemente AI. Ahrefs tem páginas arquivos individuais contendo até mesmo um vestígio de texto assistido. É a diferença entre “esta casa foi construída por um robô” e “um robô colocou pelo menos um tijolo”. Ambos os números são verdadeiros, mas não contam a mesma história.

Para os pesquisadores, o mais preocupante não é a quantidade. Esta é uma convergência estilística. Um terço da nova web é escrito pelos mesmos modelos de linguagem, treinados nos mesmos dados. Modelos calibrados para serem “perfeitamente compatíveis e agradáveis”, nas palavras de um coautor do estudo. O risco não é a desinformação. Isso é monocultura. Uma rede onde todas as vozes são iguais e onde as arestas desaparecem em favor de um consenso suave gerado em cadeia.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

404 Mídia

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *