A Wikipedia acaba de decidir: a IA não tem mais lugar na escrita de artigos. A Wikimedia Foundation está endurecendo suas regras para proteger a confiabilidade de seu conteúdo, ao mesmo tempo que admite que descobrir trapaceiros será um inferno técnico.

Sabíamos que a coabitação entre a enciclopédia mais consultada do mundo e a inteligência artificial seria elétrica, mas aqui estamos. Lá Fundação Wikimedia acaba de atualizar suas diretrizes: o uso de LLMs (principais modelos de linguagem como GPT-4 ou Gemini) para gerar ou reescrever artigos agora é estritamente proibido.

Para que ? A Wikipedia se baseia em dois pilares que a IA pisoteia alegremente por natureza. Por um lado, a proibição da “pesquisa original”, tudo deve ser originado. Por outro lado, a exigência de verificabilidade. No entanto, um LLM, por definição, prevê a próxima palavra. Ele não verifica nada, às vezes inventa fontes que não existem e pode apresentar inverdades com uma segurança assustadora.

O verdadeiro problema: é impossível detectar

Agora existe realidade. Como a Wikipedia pretende fazer cumprir esta regra? É aqui que fica complicado. A própria fundação admite: é impossível detectar com certeza se um texto foi escrito por uma IA ou por um humano um pouco acadêmico demais. Alguns colaboradores escrevem naturalmente com um estilo clínico, quase desencarnado, quase mecânico.

A Wikipedia não vai usar “detectores de IA” milagrosos (que, lembre-se, não funcionam). Os administradores contarão com o método tradicional:

  • verificando fontes : se os links estão mortos ou inventados, está aí.
  • eu’histórico de alterações : um usuário que publica 50 artigos perfeitos em três minutos é necessariamente suspeito.
  • Consistência editorial: o conteúdo deve respeitar as regras habituais de neutralidade.

No entanto, existem exceções. Você ainda pode usar IA para correções ortográficas básicas ou para ajudar a traduzir artigos de um idioma para outro. Mas atenção: o tradutor automático não deve acrescentar um único adjetivo que não conste do texto original.

Mas o que é desleixo?

O problema? Isso porque a web está se enchendo do que chamamos de “slop”, esse conteúdo gerado em linha de montagem para SEO, sem nenhum valor agregado humano. Se a Wikipédia deixasse a porta aberta, a enciclopédia se tornaria em poucos meses uma lixeira para textos escorregadios e moderadamente precisos, potencialmente repletos de erros históricos ou científicos.

A estratégia da Wikipédia é, portanto, uma forma de resistência passiva. Eles sabem que não conseguirão bloquear tudo, mas, ao impor esta proibição, estão a dotar-se do quadro jurídico para eliminar massivamente contas suspeitas.

É uma questão de sobrevivência para a sua credibilidade. A Wikipedia quer continuar sendo o último bastião do “fornecido por um ser humano”.

Em suma, a fundação assume as suas responsabilidades. Eles criaram uma salvaguarda.


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *