![]()
A OpenAI está se preparando para lançar um novo produto de inteligência artificial dedicado à segurança cibernética. Reservado a um pequeno círculo de parceiros, este modelo pretende responder a Claude Mythos, a IA da Anthropic que rastreia vulnerabilidades de segurança.
OpenAI está perto de finalizar um novo produto capaz de razão sobre questões de segurança cibernética. Segundo uma fonte citada por Eixoseste novo sistema de IA será capaz de analisar software, redes e sistemas para detectar vulnerabilidades ou comportamentos anormais.
O vazamento indica que a OpenAI não planeja oferecer IA ao público em geral. Por razões de segurança, a ferramenta será reservada para um seleto grupo de parceirosespecialmente empresas de tecnologia. Com o seu novo modelo, a OpenAI espera acima de tudo ajudar as equipas de segurança a detectar falhas em códigos antigos ou mal documentados, mas a start-up quer a todo o custo evitar que a IA seja explorada para fins maliciosos. Nas mãos erradas, uma ferramenta deste calibre poderia ser utilizada para automatizar a procura de vulnerabilidades exploráveis em infraestruturas críticas. Observe que este não é o Spud, outro modelo OpenAI muito aguardado, mas cujos contornos ainda não são claros.
Leia também: Semana de 32 horas, confinamento, redistribuição de riqueza… OpenAI revela seu plano contra ameaças de IA
A mesma abordagem do Anthropic com Claude Mythos
Com este novo projeto, a OpenAI provavelmente busca ofuscar Claude Mythos, a IA da Anthropic capaz de descobrir e explorar vulnerabilidades de segurança. Espelhando seu rival, a Anthropic optou por não tornar o Mythos acessível ao público em geral. A IA generativa é exclusivamente reservado para parceiros do “Projeto Glasswing”, que reúne grandes nomes como Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, Linux Foundation, Microsoft e NVIDIA.
A OpenAI já testou esta abordagem com o seu programa piloto lançado em fevereiro de 2026, reservado a um número limitado de organizações. Chamado de “Tr Access for”, o programa dá acesso a modelos avançados de raciocínio de segurança cibernética. Assim como a Anthropic, a OpenAI distribui créditos gratuitos que permitem a utilização de ferramentas dedicadas à segurança cibernética. Os dois gigantes da IA estão a trabalhar para uma indústria em que as tecnologias de IA sejam exploradas por investigadores e profissionais de defesa, e não por cibercriminosos.
Leia também: OpenAI levanta US$ 122 bilhões para “construir a própria infraestrutura de inteligência artificial”
OpenAI enfrenta Antrópico
Recorde-se que a start-up de Sam Altman considera a Anthropic um dos seus principais rivais no mercado de IA. Num memorando dirigido aos seus investidores e interceptado pela Bloomberga OpenAI, no entanto, acredita que seu rival opera em uma escala de cálculo significativamente inferior à dela. A empresa acredita ter ultrapassado a Antrópica ao aumentar “de forma rápida e consistente” sua capacidade computacional. Como sugere o memorando, a OpenAI realmente quer se distanciar da Anthropic.
É também com o objetivo de competir com a Anthropic que a OpenAI anunciou recentemente uma mudança estratégica. Em vez de se espalhar por uma série de projetos diferentes concebidos para o público em geral, como Sora ou mesmo Atlas, a OpenAI decidiu concentrar-se, pelo menos por um tempo, em ferramentas concebidas para a produtividade e o mundo dos negócios. É provavelmente com isto em mente que a start-up acelerou o desenvolvimento da sua IA concebida para investigação em segurança cibernética.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.
Fonte :
Eixos