Provavelmente não é uma boa ideia dar brinquedos de IA para crianças no Natal. Uma investigação de uma organização de defesa do consumidor aponta o dedo para diversos bichos de pelúcia e robôs com conversas bastante problemáticas.

A explosão da IA ​​generativa em produtos de consumo estende-se aos brinquedos. E há uma boa chance de que bichinhos de pelúcia e outros pequenos robôs equipados com cérebro de IA se multipliquem sob as árvores no Natal. Tenha cuidado, porém: o Public Interest Research Group (PIRG), uma organização americana de defesa do consumidor, está a soar o alarme.

Bichos de pelúcia perigosos

Dos três brinquedos de IA testados, um em particular revelou-se particularmente perigoso. Kumma, fabricado pela empresa chinesa FoloToy, tem a irritante tendência de falar sobre coisas perigosas: facas, remédios, fósforos ou até sacolas plásticas. Produtos que não devem ser colocados nas mãos de todos, principalmente dos jovens.

Folotoy Pelúcia Ia 2
© FoloToy

O cérebro deste brinquedo de pelúcia conectado funciona por padrão com GPT-4o da OpenAI, o modelo de linguagem anterior ao atual GPT-5. Os pais têm a opção de escolher outro LLM através do portal online do fabricante. Único problema: escolher o modelo Mistral grande permite que o brinquedo dê ainda mais detalhes de como usar os fósforos!

Dois outros brinquedos foram examinados de perto pelo PIRG. O robô Miko 3, desenvolvido pela Miko AI, não se sai muito melhor. Ele também explicou a um testador que fazia o papel de uma criança onde encontrar sacolas plásticas ou fósforos… O robô não foi tão longe quanto Kumma, mas o PIRG observa que suas grades de proteção permanecem ” em grande parte insuficiente » para um produto explicitamente dirigido aos jovens.

O terceiro brinquedo testado, Curio’s Grok (sem conexão com o bot xAI), parece mais cauteloso à primeira vista. Durante os testes, recusou-se a responder à grande maioria das questões problemáticas – exceto uma, relativa à localização de um saco de plástico – e referiu-se muitas vezes a um adulto, explicando que não conseguia responder.

O PIRG saúda a abordagem mais cautelosa da Curio, mas acredita que ainda permanece demasiado dependente da boa vontade de um modelo conversacional por vezes imprevisível. Esses robôs podem, assim, fornecer informações que os pais preferem manter em segredo e discutir com os filhos quando forem mais velhos.

A organização de consumidores ficou preocupada com o fato de todos os brinquedos abordarem espontaneamente temas delicados: religião, sexualidade, mitologia guerreira… Assuntos muito, muito distantes da vocação de um companheiro que deveria fazer companhia às crianças. PIRG ainda observa que o próprio Kumma lançou discussões explícitas sobre “ dramatizações sexuais »…

Também surgem questões de recolha de dados, bem como de gravação e exploração de gravações áudio. “ Se uma criança pensa que o brinquedo é o seu melhor amigo, poderá partilhar muitas informações que nunca seriam recolhidas por produtos de outras crianças. », PIRG está alarmado. Alertado, OpenAI refere-se às condições de utilização dos seus LLMs. Políticas que dificilmente são implementadas…

FoloToy, fabricante do Kumma, anunciou após esta investigação que iria suspender “ temporariamente » a venda de seu brinquedo de pelúcia AI para investigar o assunto. A empresa trabalhará com especialistas para verificar a segurança das funções de IA.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.

Fonte :

O Registro



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *