ENTREVISTA. Chine Labbé é editor europeu da Newsguard, uma empresa de jornalismo que fornece dados sobre a confiabilidade da informação. Ela responde perguntas de Ciência e Futuro sobre as eleições municipais realizadas na França nos dias 15 e 22 de março de 2026.

Sciences et Avenir: Você observou tentativas de interferência ou manipulação durante as eleições municipais?

China Labbé: Tal como muitos observadores, estivemos atentos a possíveis operações de influência, especialmente porque as autoridades francesas, nomeadamente Viginum (o serviço de vigilância e proteção contra interferências digitais estrangeiras, nota do editor)expressou preocupações antes da votação. Assim, uma campanha de desinformação atribuída a uma conhecida operação russa chamada “Tempestade-1516” surgiu pouco antes da primeira volta de 15 de Março de 2026. Tinha como alvo o candidato parisiense Pierre-Yves Bournazel através de um site falso que se fazia passar por seu site de campanha, e que difundia informações falsas segundo as quais Bournazel planeava transformar o Centro Pompidou num centro de recepção de migrantes.

Esta operação foi motivo de preocupação?

Ela nos colocou em alerta. O momento estava muito próximo das eleições, mas já tinha acontecido que as campanhas russas fossem lançadas tarde… mesmo que noutros casos comecem muito cedo: vejamos as eleições legislativas na Arménia, elas acontecem em Junho e já temos observado notícias falsas dirigidas a eles há quase um ano. Portanto, a operação contra Bournazel foi motivo de preocupação, mas posteriormente não identificamos outros conteúdos significativos ligados à “Tempestade-1516” nesta eleição.

“Inteligência sobre falsos riscos de ataque para dissuadir eleitores de irem às urnas”

No entanto, outros atores maliciosos se manifestaram?

Sim, outra operação russa, chamada “Matrioshka”, também espalhou conteúdo enganoso. Mas se “Storm-1516” utiliza meios bastante sofisticados, focados na inteligência artificial generativa, “Matrioshka” aposta em métodos muito mais rudimentares. Trata-se geralmente de reportagens falsas que imitam meios de comunicação ou instituições credíveis – TF1, Le Monde, Repórteres Sem Fronteiras – com uma simples narração e imagens desviadas. Este conteúdo geralmente não é muito viral e fica confinado a plataformas como o Telegram, às vezes

Painéis eletrorais em Saint-Ouen, durante as eleições municipais de 2026.

Em Saint-Ouen, durante as eleições municipais. Foto de STEPHANE OUZOUNOFF / HANS LUCAS / HANS LUCAS VIA AFP

À chegada, as manipulações que indicavam interferência estrangeira eram, portanto, poucas. Como explicar isso?

Talvez porque algumas informações falsas foram rapidamente negadas. No caso de Pierre-Yves Bournazel, ele reagiu rapidamente dizendo que esse boato foi fabricado e que ele havia apreendido o Viginum (ver tweet abaixo); vários meios de comunicação noticiaram isso. Isso possibilitou neutralizar rapidamente o boato. Mas também penso que as eleições autárquicas são um terreno complexo para a desinformação. As questões são muito locais, o que exige um conhecimento detalhado dos contextos políticos e das dinâmicas territoriais. Isso torna as operações de influência mais difíceis de projetar e tornar virais. Além disso, as notícias falsas em torno de Bournazel demonstram isso; o site falso tinha uma URL que dizia “Macron com Bournazel”, embora o Presidente da República nunca tenha apoiado este candidato: é mais fácil cometer este tipo de erro quando não se é um observador de campo.

“Os detectores de IA podem causar falsos positivos e falsos negativos”

Houve outras formas de manipulação além das operações estrangeiras?

Nem todas as tentativas estão necessariamente ligadas a potências estrangeiras. A nível territorial, determinados conteúdos enganosos podem ser produzidos por intervenientes locais, por vezes de forma oportunista. Foram identificados vários casos isolados que levantam questões, como estes anúncios hostis veiculados às vésperas do segundo turno no site do O Despacho em Toulouse, que teve como alvo o candidato da LFI, François Piquemal; em Marselha, foi mais uma vez o candidato do LFI, Sébastien Delogu, que foi alvo de um blog falso que o acusava de violação e violência. Esta campanha caluniosa teve uma dimensão local pois, como foi escrito O mundoos códigos QR referentes a este suposto blog foram distribuídos em alguns bairros de Marselha. A Viginum está investigando estes casos de manipulação, cujos autores ainda são desconhecidos. Este tipo de conteúdo ilustra, no entanto, a crescente facilidade com que as ferramentas de IA podem ser utilizadas para fins de manipulação (de acordo com o Pato Acorrentadouma ligação poderia, no entanto, ser feita com um “farmácia israelense”).

O problema não para com o conteúdo falso…

Não, e é aqui que a situação se torna mais preocupante. Hoje assistimos ao fenómeno oposto: o conteúdo autêntico é acusado de ser gerado pela IA. Um exemplo recente ilustra isso muito bem. Durante o conflito com o Irão, circulou um boato alegando que Benjamin Netanyahu tinha sido morto. Para responder, o primeiro-ministro israelita divulgou um vídeo onde aparece num café em Tel Aviv. Mas este vídeo autêntico foi, por sua vez, apresentado como deepfake por alguns usuários da Internet, com capturas de tela de detectores de IA para apoiá-lo! Na realidade, estas ferramentas de detecção não são 100% confiáveis. Eles produzem falsos positivos e falsos negativos. Mas agora são usados ​​como argumentos para desacreditar qualquer conteúdo.

“Com a IA generativa, existem salvaguardas, mas muitas vezes podem ser contornadas”

Quais consequências para o debate público?

Estamos entrando numa zona de interferência generalizada. O risco já não é apenas a disseminação de informações falsas, mas a crescente impossibilidade de distinguir a verdade da falsidade. Amanhã, uma pessoa vítima de um deepfake – como esse deputado do RN de Oise, alvo de um vídeo falso de strip-tease na Assembleia Nacional (em 25 de dezembro, nota do editor) – poderá já não conseguir convencer as pessoas de que é uma farsa. E, inversamente, imagens reais poderiam ser descartadas como geradas por IA.

As ferramentas atuais permitem limitar estes excessos?

Não o suficiente. Existem salvaguardas, mas muitas vezes podem ser contornadas. Por exemplo, alguns geradores de vídeo incluem “marcas d’água digitais” para sinalizar conteúdo produzido por IA. Mas eles podem ser removidos facilmente, às vezes em minutos. A Newsguard testou diversas ferramentas como NanoBananaPro ou Sora: em todos os casos, as proteções podem ser contornadas. Além disso, as nossas auditorias mostram que os próprios chatbots podem transmitir informações falsas: até 29% dos casos para versões em texto e quase 50% para determinadas versões em áudio.

Podemos dizer que as eleições autárquicas marcam uma viragem?

Ainda não. Eles não foram interrompidos pela IA. Mas mostram que estas ferramentas são agora acessíveis a todos: actores políticos, activistas ou simples indivíduos. Este é talvez o ponto chave: um único indivíduo pode agora produzir conteúdo enganoso credível e divulgá-lo rapidamente. As eleições municipais continuam a ser eleições muito locais, difíceis de utilizar em grande escala. Por outro lado, as eleições presidenciais de 2027 oferecerão um terreno muito mais favorável. Se combinarmos isto com o aumento dos deepfakes e a incerteza sobre a sua detecção, o risco é o de um debate público enfraquecido de forma duradoura.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *