euOs algoritmos de recomendação se instalaram discretamente em nossas vidas diárias. Nas redes sociais como X, Facebook, Instagram ou LinkedIn, substituem ou completam a simples sequência pré-cronológica (da mais recente para a mais antiga) de mensagens publicadas por contas que nós próprios decidimos seguir. Dependendo da personalidade do usuário, eles destacam determinadas mensagens e tornam outras invisíveis, mesmo que às vezes sejam postadas por contas seguidas.

Esses feeds personalizados são projetados para maximizar o envolvimento do usuário: cliques, curtidas, respostas, partilhas, tempo gasto, compras… As preocupações com os seus efeitos sociais e políticos são, portanto, legítimas: ao procurarem captar a atenção, podem favorecer conteúdos extremos, polarizadores ou tóxicos. Podem também reforçar crenças existentes, incluindo conceitos errados, e alimentar ambientes de informação polarizados, muitas vezes descritos como “bolhas de filtro”.

Até então, nenhum trabalho científico havia demonstrado que esses algoritmos modificassem o comportamento dos usuários das redes sociais. Mas num estudo realizado com meus colegas Germain Gauthier, Roland Hodler e Philine Widmer, e que acabamos de publicar em 18 de fevereiro, em Naturezademonstramos que a ativação do tópico “Para você” no Yes, o algoritmo modifica permanentemente o ambiente informacional dos usuários, ao incentivá-los a seguir mais contas políticas, com predileção por aqueles que se inclinam à direita.

Posição favorável ao Kremlin

Os nossos resultados põem em causa as conclusões tranquilizadoras que foram tiradas com demasiada pressa de pesquisas anteriores, e em particular de um estudo em grande escala, publicado em 2023 em Ciência. Isto descobriu que as atitudes políticas não são afetadas pela desativação dos algoritmos de recomendação. Realizado durante as eleições presidenciais americanas de 2020, em cooperação com a Meta (Facebook, Instagram, etc.), mostrou que a substituição de um feed algorítmico por um feed cronológico não teve efeito mensurável nas atitudes políticas. Muitos concluíram que as preocupações eram exageradas: o Facebook não tinha “eleito” Donald Trump em 2016. Mas será que podemos avaliar o impacto de um algoritmo apenas observando o que acontece quando o desativamos?

Você ainda tem 58,65% deste artigo para ler. O restante é reservado aos assinantes.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *