O próximo chefe de prevenção de riscos da OpenAI ganhará muito dinheiro… mas também terá que viver sob intensa pressão, numa função particularmente estressante. Ainda está interessado?

OpenAI tem dificuldade em manter o seu “Chefe de Preparação”, que poderia ser traduzido como responsável pela prevenção de riscos. Esta posição sempre foi instável na start-up. Desde julho de 2024, a gestão dessa equipe é bidirecional, mas os dois executivos acabaram saindo da empresa ou se ramificando internamente. É por isso que a OpenAI está procurando uma nova joia rara, mais estável, que será bem paga (US$ 555.000 por ano, mais bônus)… mas você terá que dar de si mesmo.

Prevenindo o abuso de IA

Sam Altman, chefe da OpenAI, avisa: “ Esta será uma posição de alta pressão e você será jogado no fundo do poço quase imediatamente. » Este gerente será colocado em um “ posição-chave num momento decisivo“, ele se desdobra antes de acrescentar que“ Os modelos estão a progredir rapidamente e são agora capazes de grandes coisas, mas também estão a começar a colocar problemas reais. »

Concretamente, o recém-chegado terá de pilotar o programa de prevenção, descrito como um método destinado a monitorizar o surgimento das chamadas capacidades “fronteiriças” que são susceptíveis de causar danos graves se forem mal utilizadas ou mal utilizadas. Uma das suas principais responsabilidades será compreender como as capacidades do modelo podem ser exploradas maliciosamente, seja na segurança cibernética, na manipulação psicológica ou em outras áreas sensíveis.

Sam Altman identifica duas “áreas” principais: o impacto do ChatGPT na saúde mental e a crescente capacidade dos modelos para identificar vulnerabilidades críticas de segurança. O trabalho envolve um equilíbrio delicado entre o fortalecimento das capacidades de defesa da segurança cibernética e, ao mesmo tempo, impedir que os invasores explorem as mesmas ferramentas.

Na verdade, este gestor será responsável por encontrar um caminho entre a rápida ascensão dos modelos e a capacidade da OpenAI de assumir as consequências, enquanto os reguladores estão cada vez mais cuidadosos. A posição é descrita como muito estressante.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

OpenAI

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *