Um estudo científico realizado pela Universidade de Stanford destaca os perigos associados à falta de contradição dos chatbots de IA. A sua validação constante pode ter consequências desastrosas nas nossas relações sociais.

A inteligência artificial mudou nosso comportamento. Em pouco mais de três anos, esta tecnologia tornou-se amplamente utilizada pelos franceses. Hoje é utilizado por 48% da população. Com o passar dos anos, os LLMs tornaram-se mais especializados. Eles, por sua vez, tornam-se objetos de discussões amigáveis, psicológicas, mas também românticas.

Um uso que levanta questões. Na verdade, o ponto comum dos LLMs é que eles vão regularmente na direção dos usuários. Um comportamento chamado Bajulação de IA ». Essa dinâmica estendida encorajaria os humanos a se questionarem menos, relata o TechCrunch.

Um questionamento limitado

Como parte deste estudo, os pesquisadores realizaram vários testes. A primeira consiste em analisar a forma como LLMs amplamente utilizados, como ChatGPT ou Google Gemini, respondem a perguntas pessoais já feitas a humanos. Nessa situação, os LLMs validaram o comportamento do usuário em média 49% mais frequentemente do que os humanos. Uma pontuação que só desce para 47% no contexto de situações que podem ser prejudiciais ou ilegais.

Um segundo teste foi realizado usando solicitações do famoso subreddit r/AmItheAsshole/ para comparar as conclusões dos LLMs com as dos humanos. Aqui, novamente, a IA foi 51% na direção dos usuários. Um resultado identicamente oposto ao dos humanos.

Para Myra Cheng, principal autora do estudo, estes resultados são preocupantes. Com esta validação, ela teme que as pessoas perdem a capacidade de lidar com situações sociais difíceis. »

Uma dependência tecnológica

Situação que se encontra na segunda parte do estudo. Desta vez, os pesquisadores analisaram os comportamentos de 2.400 participantes interagindo com chatbots para situações pessoais. Eles então observaram que os usuários preferiam e confiavam em mais LLMs que iam em sua direção.

Para Dan Jurafsky, pesquisador do estudo, essa tendência pode representar um “ problema de segurança “. Na verdade, a aceitação quase sistemática da IA ​​poderia tornar os humanos mais egocêntrico e mais moralmente dogmático » mesmo quando estão cientes do preconceito do LLM. É menos provável que eles se questionem e peçam desculpas no futuro.


Quer se juntar a uma comunidade de entusiastas? Nosso Discord lhe dá as boas-vindas, é um lugar de ajuda mútua e paixão pela tecnologia.

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *