A Anthropic desenvolveu uma nova versão superpoderosa de Claude. Esta nova iteração, considerada o modelo “de longe o mais poderoso” já impulsionado pela start-up, levanta até preocupações da Anthropic. Segundo a empresa, Mythos apresenta “riscos significativos de segurança cibernética”.

Nesta quinta-feira, 26 de março de 2026, a Anthropic cometeu um pequeno erro em seu blog. Por causa de um “erro humano” configuração no CMS da start-up, uma grande quantidade de rascunhos e documentos internos foram publicados online através de um URL público inseguro. Não é novidade que muitos curiosos começaram a se aprofundar nos documentos postados acidentalmente online pela Anthropic.

Dois investigadores de segurança cibernética, nomeadamente Roy Paz da LayerX Security e Alexandre Pauwels da Universidade de Cambridge, descobriram estes documentos públicos e enviaram-nos para a revista Fortune. Informada pela Fortune, a Anthropic então corta o acesso aos documentos. A startup reconhece “um problema com uma ferramenta CMS externa” e confirma que é “primeiras versões de conteúdo consideradas para publicação”.

Leia também: Onda de desinstalações do ChatGPT, corrida para Claude – o que está acontecendo?

Um novo e poderoso modelo de IA no pipeline da Anthropic

Entre os documentos está uma postagem de blog sobre um novo modelo de inteligência artificial, Claude Mythos, codinome interno Capivara. A postagem do blog descreve Claude Mythos como “de longe o modelo de IA mais poderoso” nunca desenvolvido pela Antrópico. Em termos de desempenho, o modelo vai além do Claude Opus 4.6, o mais recente carro-chefe da Anthropic. A postagem errônea do blog on-line cita resultados “significativamente superiores” em programação acadêmica e testes de raciocínio. A start-up afirma que Mythos representa “um novo nível de modelos”especialmente no domínio da cibersegurança.

A Anthropic confirma oficialmente que treinou e começou a testar este novo modelo. Isso está sendo testado com um pequeno grupo de clientes com acesso antecipado. Particularmente caro para operar, o modelo não é não está pronto para o lançamento convencional. Nos documentos vazados erroneamente, a Anthropic admite que sua futura IA realmente apresenta riscos de segurança cibernética.

Leia também: “Claude permanecerá livre de anúncios” – Anthropic simula anúncios no ChatGPT

“Riscos significativos de segurança cibernética”

Este modelo é “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas”, detalha o rascunho. Segundo a Anthropic, o modelo Mythos representa “riscos significativos de segurança cibernética”. Concretamente, o modelo de IA é capaz “explorar vulnerabilidades de uma forma que excede em muito os esforços dos defensores”. Nas mãos dos cibercriminosos, Claude Mythos poderia, portanto, servir de ponto de partida para ataques cibernéticos. Segundo a Anthropic, esses ataques baseados no Mythos não podem ser bloqueados pelos defensores.

O modelo vai mais longe na procura de vulnerabilidades, e na sua exploração, do que Claude Opus 4.6. No entanto, o modelo atual já encontrou mais de 500 falhas críticas de dia zero em projetos de código aberto, incluindo 22 no navegador Firefox da Mozilla. Por outro lado, era claramente menos eficaz na exploração de vulnerabilidades. De acordo com testes conduzidos pela Anthropic, a IA tem dificuldade, na maioria dos casos, para identificar explorações verdadeiramente exploráveis. Apesar de centenas de tentativas, ela só conseguiu gerar um programa de ataque funcional para duas vulnerabilidades. Mais poderoso e sofisticado, o Mythos pode descobrir vulnerabilidades e sugerir métodos de exploração. É uma dádiva de Deus para os hackers.

É por isso que a Anthropic decidiu ter cautela ao implantar o Mythos. Inicialmente, a empresa forneceu acesso à IA para organizações de defesa. Eles são convidados a se preparar para a chegada da modelo e um “ onda iminente de explorações baseadas em IA “.

“Queremos proceder com maior cautela e compreender os riscos que isso representa – além do que aprendemos em nossos próprios testes. Em particular, queremos compreender os riscos potenciais de curto prazo na segurança cibernética e compartilhar as descobertas para ajudar os defensores a se prepararem.”diz Antrópico.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

Fortuna

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *