A OpenAI está tomando cuidado extra para determinar a idade dos usuários menores, a fim de oferecer-lhes uma experiência de usuário adequada.

Fonte: imagem gerada por Gemini

OpenAI, empresa por trás do ChatGPT, revela novas medidas de proteção para jovens. O LLM quer ser capaz de ajuste seu comportamento ao conversar com um jovem menor de 18 anos.

Proteja os adolescentes acima de tudo

A empresa indica que está implementando quatro novos princípios para adolescentes com uma instrução que supera todas as outras: “priorizar a segurança dos adolescentes, mesmo que isso possa entrar em conflito com outros objetivos”. A empresa de Sam Altman ainda não sabe como será capaz de prever a idade dos usuários e implementar esta instrução, porém aprendemos um pouco mais sobre as modificações no ChatGPT.

A inteligência artificial direcionará automaticamente o adolescente para uma opção segura quando sua segurança pode estar em perigo. Além disso, promoverá “suporte concreto”convidando o jovem a recorrer a familiares, amigos ou profissionais em busca de apoio.

Comportamento apropriado

Curiosamente, a OpenAI afirma que o ChatGPT mudará seu comportamento ao atingir adolescentes. Ele tratará isso com “bondade e respeito” sem desprezá-los. Ele também demonstrará transparência lembrando-lhes que ele não é humano.

Essas medidas surgem depois que a OpenAI foi apontada após o suicídio de um adolescente que seguiu o conselho do ChatGPT. A empresa anunciou então a implementação de controles parentais em resposta imediata. Outras empresas vão além, como apontado A beira. A Anthropic, a empresa por trás de Claude, consideraria simplesmente cortar o acesso ao seu LLM assim que um adolescente fosse identificado lá.

Para ir mais longe
Modo “Adulto” no ChatGPT: por que a OpenAI se recusa a quebrar as barreiras antes de 2026


Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *