Paris, primavera de 2028. No feed de notícias de uma rede social, um vídeo de um ativista político causa escândalo. Este último acusa um candidato importante numa eleição importante de ter desviado fundos públicos. O clipe é convincente, os comentários abundantes, aplaudindo a “revelação”. Influenciadores “políticos” estão retransmitindo este caso. Em poucas horas, o boato se espalhou em vários idiomas, influenciando conversas e debates políticos. A imprensa aproveita o assunto, porque se tornou essencial. A dúvida é instilada, a corrupção torna-se o tema número 1 do momento. Problema: esse ativista não existe. Nem o caso de peculato. O tema da corrupção está a ganhar ímpeto, apesar de ser cada vez menos frequente do que antes.

Na verdade, este vídeo e os comentários são gerados por um grupo deIA coordenado. Um enxame de agentes inteligentes que cria a ilusão de amplo consenso. Ninguém percebe que estas centenas de relatos são apenas vozes artificiais programadas para convencer, dividir e moldar opiniões.

Infox e propaganda: a indústria da fazenda troll

Etiquetas:

tecnologia

Infox e propaganda: a indústria da fazenda troll

Leia o artigo

Mas uma vez demonstrado o engano, o dano está feito. O ruído de fundo foi tal que agora é impossível restabelecer a verdade. O falso assunto torna-se um só e todos os políticos tiveram de falar sobre um assunto que não deveria sê-lo.

Quando as IAs influenciam nas matilhas

Enxames de IA pilotados para gerar consenso, a fim de influenciar as opiniões dos eleitores e inclinar as eleições de uma forma ou de outra: esta é a nova ameaça que os cientistas consideram iminente.

Esses pesquisadores, que publicaram artigo na revista Ciênciaexplique como fusão grandes modelos de linguagem (LLM) com sistemas multiagentes poderiam permitir a criação desses enxames maliciosos de IA. Do Agentes de IA capaz de imitar dinâmicas sociais reais para reorientar o debate democrático. A sua missão seria claramente criar o início de um forte consenso sobre um assunto polarizador.

Moltbook é a primeira rede social reservada para agentes de IA. © EB, imagem gerada com ChatGPT

Etiquetas:

tecnologia

IAs que debatem, votam e inventam religiões: o que está acontecendo no Moltbook está além da imaginação!

Leia o artigo

Para promover esta impressão de consentimento, estas IAs poderiam facilmente tirar vantagem dos algoritmos de redes sociais e em particular X. O motivo? Os algoritmos priorizam o envolvimento em vez da confiabilidade. Na verdade, embora de acordo com o MIT, notícias falsas são republicados no X 70% mais vezes do que os fatos, a desinformação e a manipulação são permanentes e não distinguimos mais o verdadeiro do falso.

Se é difícil combater informações falsas é porque os algoritmos das redes sociais priorizam o engajamento em detrimento dos fatos. As emoções que o levam a postar e comentar contam mais do que a realidade. © França Diplo

Perigo para a democracia

Nas principais redes sociais, as campanhas de desinformação há muito que utilizam “bots”, estas contas automatizadas que republicam a mesma mensagem ou variações. Mas hoje, com esta nova geração de sistemas, a manipulação promete ser muito mais perigosa e subtil.

Na verdade, o perigo virá destes enxames de agentes de IA que serão capazes de cooperar entre si. Saberão adotar identidades individuais e, acima de tudo, interagir com usuários reais. O que muda fundamentalmente é a capacidade destes agentes aprenderem, adaptarem-se às discussões em tempo real e simularem uma diversidade de pontos de vista, ao mesmo tempo que perseguem um objectivo unificado: criar um “consenso sintético”. Nestas condições, torna-se ainda mais difícil distinguir o que é verdadeiro daquilo que é simplesmente muito convincente.

Ainda não começou

Os pesquisadores não descobriram exatamente esse tipo de pacote de IA ativo nas redes sociais. Por outro lado, já foram realizados experimentos nesse sentido. Assim, a IA que manipula ou influencia conversas online foi testada no Reddit. No momento, estes são essencialmente apenas assuntos de pesquisa isolados ou versões primitivas desses enxames de IA. Ainda não constituem campanhas massivas, autónomas e completamente auto-organizadas como as previstas pelos autores do estudo.

Se tudo isto permanecer apenas uma antecipação, infelizmente existem precedentes que mostram que os responsáveis ​​pela interferência nas democracias estão dispostos a fazer tudo para alcançar os seus objectivos. Esses agentes de IA seriam um grande impulso para isso.


Enxames de IA: a próxima arma invisível de desinformação. © SB, IA ChatGPT

As redes sociais têm sido utilizadas há muito tempo para influenciar pessoas indecisas, devido à sua capacidade de gerar bolhas de informação personalizadas. Um dos primeiros casos notados foi o do escândalo Cambridge Analytica através de Facebook. A rede social facilitou campanhas de desinformação lideradas por uma potência estrangeira (Rússia), ao circular notícias falsas que influenciaram as eleições, como o Brexit.

Uma questão que levou a controlos e a uma melhor moderação. Mas, durante vários anos e em particular a chegada da administração Trump ao poder e a compra de Twitter por Elon Musk, moderação e verificação de fatos são atenuado sob o pretexto de expressão pessoal “libertadora”. Há, portanto, apenas um passo para que estes exércitos de agentes de IA se tornem armas de perturbação em massa dos processos democráticos.

Sendo enganado pela IA

O triste é que estas IA poderão moldar o futuro das democracias, sem que a maioria dos eleitores saiba que foram influenciadas artificialmente. Mas como podemos preparar-nos para lutar contra este fenómeno que parece inevitável? Os investigadores já imaginam respostas diferentes, com a integração de ferramentas de detecção que identificam não só o conteúdo, mas os comportamentos coordenados dos agentes artificiais.

Moltbook é a primeira rede social reservada para agentes de IA. © EB, imagem gerada com ChatGPT

Etiquetas:

tecnologia

IAs que debatem, votam e inventam religiões: o que está acontecendo no Moltbook está além da imaginação!

Leia o artigo

Outra solução: reforçar a verificação de identidade nestas plataformas. Mas há o que poderíamos fazer e a realidade enfrentada pelas redes sociais que são difíceis de respeitar as regulamentações. Na verdade, estas tecnologias têm todas as hipóteses de prosperar nos pontos cegos da lei.

Neste contexto, a questão talvez já não seja se estas manipulações funcionarão, mas se poderá existir no futuro um regresso a um consenso real e não manipulado.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *