A rede social a partir de agora, qualquer usuário que publicar um vídeo criado com ferramentas de IA deverá denunciá-lo explicitamente.

Sem tempo para ler? Descubra esta novidade em formato de áudio no nosso podcast Vitamine Tech, apresentado por Adèle Ndjaki. ©Futura

Caso contrário, as sanções serão imediatas: suspensão do programa de partilha de receitas por 90 dias. Em caso de reincidênciaa exclusão poderá tornar-se permanente. Esta medida atinge diretamente as carteiras dos criadores de conteúdos e reflete o desejo da plataforma de capacitar os seus utilizadores.

Uma resposta à proliferação de conteúdo enganoso

Esta decisão surge num contexto de forte circulação de conteúdos falsos desde o início da ofensiva contra o Irão liderada por Israel e pelos Estados Unidos. No redes sociaismuitos vídeos apresentados como cenas de combate ou ataques militares acabaram sendo inteiramente gerados por inteligência artificial.


A rede social X toma medidas contra a desinformação sobre a guerra no Médio Oriente – © DR

Para X, o objetivo é claro: preservar a autenticidade das informações em tempos de crise. A plataforma também convida os utilizadores a denunciar conteúdos suspeitos, ao mesmo tempo que afirma adaptar continuamente as suas regras para manter a confiança do público. Apesar destes esforços, a desinformação continua a espalhar-se massivamente.

Imagens falsificadas e vídeos desviados: um mecanismo bem estabelecido

O fenômeno não se limita aos vídeos. Imagens falsificadas, por vezes muito credíveis, também circulam em grande escala. Um caso emblemático chamou a atenção dos investigadores: uma suposta imagem de satélite que mostra uma base militar americana destruída no Qatar.

Segundo a Agence France-Presse, esta imagem foi transmitida pelo diário iraniano Tehran Times, de língua inglesa. Após a verificação, descobriu-se que era uma montagem gerada por IA baseada em uma imagem antiga do Google Earth de uma base no Bahrein. Apesar dessas inconsistências, o visual foi visto milhões de vezes.

Além disso, alguns vídeos virais apresentados como imagens de conflito são, na verdade, provenientes de videojogos como Arma 3. O governador do Texas, Greg Abbott, viu-se no centro da confusão depois de partilhar um vídeo que considerou autêntico e ligado às tensões com o Irão. Rapidamente, verificações e anotações adicionadas ao X estabeleceram que a sequência não veio de um conflito real, mas sim do videogame War Thunder, inspirado no combate da Segunda Guerra Mundial. A postagem foi excluída logo depois, junto com uma correção esclarecendo o erro. Segundo o site de análise NewsGuard, conteúdos enganosos ligados a este conflito acumularam mais de 21 milhões de visualizações nas redes sociais.

Aprenda a evitar armadilhas visuais

Diante disso avalanche de imagens e vídeos manipulados, especialistas insistem: os internautas não estão desamparados. Certos índices permitem identificar conteúdos gerados por inteligência artificial.

Entre os reflexos a adotar:

  • Verifique se há inconsistências visuais (objetos distorcidos, proporções anormais)

  • Observe o luz e as sombras

  • Tenha cuidado com detalhes borrados ou ilegíveis

  • Afaste-se das imagens excessivamente espetaculares

Tantos sinais fracos que podem trair a fabricação artificial.

Informação, uma arma estratégica

A ascensão da inteligência artificial está transformando profundamente a forma como os conflitos são contados online. Imagens de satélite manipuladas, sequências de videojogos ou vídeos inteiramente gerados: a fronteira entre a realidade e a ficção torna-se cada vez mais difícil de discernir.

A Pesquisa Google mostra apenas o que você deseja ver?

Leia o artigo



Diante desse desafio, plataformas como transparência. Mas para os investigadores e especialistas em desinformação, uma coisa continua a ser essencial: a vigilância pública. Porque em tempos de guerra a informação, seja ela verdadeira ou falsificada, também pode tornar-se uma arma.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *