A OpenAI está tomando cuidado extra para determinar a idade dos usuários menores, a fim de oferecer-lhes uma experiência de usuário adequada.

OpenAI, empresa por trás do ChatGPT, revela novas medidas de proteção para jovens. O LLM quer ser capaz de ajuste seu comportamento ao conversar com um jovem menor de 18 anos.
Proteja os adolescentes acima de tudo
A empresa indica que está implementando quatro novos princípios para adolescentes com uma instrução que supera todas as outras: “priorizar a segurança dos adolescentes, mesmo que isso possa entrar em conflito com outros objetivos”. A empresa de Sam Altman ainda não sabe como será capaz de prever a idade dos usuários e implementar esta instrução, porém aprendemos um pouco mais sobre as modificações no ChatGPT.
A inteligência artificial direcionará automaticamente o adolescente para uma opção segura quando sua segurança pode estar em perigo. Além disso, promoverá “suporte concreto”convidando o jovem a recorrer a familiares, amigos ou profissionais em busca de apoio.
Comportamento apropriado
Curiosamente, a OpenAI afirma que o ChatGPT mudará seu comportamento ao atingir adolescentes. Ele tratará isso com “bondade e respeito” sem desprezá-los. Ele também demonstrará transparência lembrando-lhes que ele não é humano.
Essas medidas surgem depois que a OpenAI foi apontada após o suicídio de um adolescente que seguiu o conselho do ChatGPT. A empresa anunciou então a implementação de controles parentais em resposta imediata. Outras empresas vão além, como apontado A beira. A Anthropic, a empresa por trás de Claude, consideraria simplesmente cortar o acesso ao seu LLM assim que um adolescente fosse identificado lá.
Para ir mais longe
Modo “Adulto” no ChatGPT: por que a OpenAI se recusa a quebrar as barreiras antes de 2026