A China está enfrentando o problema da saúde mental de frente com chatbots de IA. As autoridades propuseram uma série de regras muito restritivas que poderiam limitar severamente as capacidades do ChatGPT e de outros bots.

Violência, psicoses, incentivo a práticas perigosas, desinformação, promoção da automutilação e do suicídio… Há anos que se multiplicam os exemplos dos danos causados ​​pelos chatbots e outros “companheiros” de IA mal supervisionados. A OpenAI também teve que implementar um sistema de controle parental muito mais forte, após o suicídio de um adolescente viciado em ChatGPT. A denúncia foi feita pela família.

Chatbots sob controle

China pretendo apertar o parafuso com muita força. A Administração Cibernética propôs uma série de regras que, se validadas (o que não há dúvida), limitariam muito o que os bots podem fazer. Eles não devem procurar influenciar emocionalmente os usuários, especialmente com falsas promessas ou incentivo excessivo. Qualquer incitamento, glorificação ou banalização de comportamento suicida ou violento seria estritamente proibido.

Outras propostas das autoridades de Pequim incluem o registo dos dados de um familiar ou tutor ao registar uma criança ou idoso. Esse ente querido seria então automaticamente alertado no caso de uma discussão sobre suicídio ou automutilação. As “armadilhas emocionais” também seriam banidas: os bots não devem forçar os usuários a tomar decisões “irracionais” ou criar uma relação de dependência emocional.

Os serviços de IA exibiriam lembretes ou pop-ups quando o uso excedesse duas horas consecutivas. Os bots seriam proibidos de discutir assuntos como obscenidade, jogos de azar, difamação, insultos a outros usuários. Finalmente, as plataformas que excedam um milhão de utilizadores registados ou 100.000 utilizadores ativos mensais realizariam auditorias de segurança todos os anos.

Se um serviço for culpado de não respeitar estas regras, a China tem o direito de exigir a sua remoção das lojas de aplicações. A prioridade de Pequim é prevenir riscos psicológicos, dependência e “desvios” comportamentais. Isto também equivaleria à criação de uma das regulamentações mais severas do mundo para regular o antropomorfismo dos bots de IA.

Ao impor um quadro tão restritivo, a China corre o risco de acentuar a fragmentação do panorama global da IA ​​(o ChatGPT não está disponível lá, por exemplo), abrindo caminho para uma IA de duas velocidades, dependendo da região. Mas estas regras são também uma forma de o país aumentar a censura, o controlo social e a vigilância da população.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

CNBC

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *