A Antrópica afirma ter frustrado um ataque cibernético global que explorava a IA. Pela primeira vez, uma IA autónoma, pilotada por hackers chineses financiados por Pequim, realizou uma vasta operação de espionagem contra cerca de trinta organizações do início ao fim.

A Anthropic, start-up por trás de Claude, indica que tem “frustrou uma campanha de espionagem extremamente sofisticada” que foi orquestrado pela inteligência artificial. A empresa americana diz estar convencida de que o ataque foi realizado por uma gangue de hackers encomendada pela China. Para a Antrópica, esta é a “primeiro caso documentado de um ataque cibernético em grande escala realizado por IA sem intervenção humana significativa”.

A ofensiva foi identificada pelas equipes da Anthropic durante o mês de setembro de 2025. Com a ajuda da ferramenta Claude Code, assistente de codificação para desenvolvedores, hackers chineses penetraram nas infraestruturas de TI decerca de trinta grandes organizações em todo o mundo. Entre os alvos, encontramos “grandes empresas de tecnologia, instituições financeiras, empresas de fabricação de produtos químicos e agências governamentais”. A operação teve como objetivo exfiltrar uma grande quantidade de informações confidenciais.

Leia também: Aqui está o precursor dos vírus controlados por IA, MalTerminal

IA, de ferramenta a gênio do crime

Para atingir seus objetivos, os piratas foram obrigados a contornar as restrições impostas pela Anthropic. Os hackers têm IA manipulada para fazê-la acreditar que estava realizando missões de testes de segurança. Dessa forma, ela foi capaz de ignorar suas salvaguardas éticas. O módulo de geração de código de Claude foi aproveitado notavelmente por hackers, conforme observado pela Anthropic.

Uma vez sob o controle dos hackers, a IA começa mapeando a rede do alvo muito rapidamente, identificando onde estão localizados os bancos de dados sensíveis. Explorando as falhas descobertas por ela, ela recuperar credenciais de acessocoleta o máximo de dados confidenciais possível e, em seguida, classifica e documenta todas as informações roubadas. No processo, ela desliza por uma porta dos fundos. Esta porta permite que ele retorne ao sistema comprometido mais tarde.

Neste ataque cibernético, a IA não foi apenas uma ferramenta. Como explica o relatório da Antrópico, a inteligência artificial assumiu praticamente toda a missão. Durante o ataque, a IA escolhe automaticamente o que fazer e como se adaptar em caso de obstáculo. Os pesquisadores notaram que a inteligência artificial analisava a rede por conta própria, identificava onde procurar informações críticas de forma independente e então lançava ela mesma os ataques.

“Os modelos de IA podem agir como agentes reais: são capazes de operar continuamente, encadear ações autônomas e tomar decisões por conta própria, exigindo apenas intervenção humana ocasional e mínima”sublinha Antrópico.

Ela até escreveu código malicioso instantaneamente, testou vulnerabilidades de segurança e decidiu extrair ou mover dados com base no que descobriu. Os humanos apenas intervieram para validar cada passo. Resumindo, a IA era perfeitamente autônoma. O atacante tem “conseguimos usar IA para realizar 80 a 90% da campanha”.

Concluída sua missão, a IA escreve um relatório completo para os hackers, que lista os acessos obtidos, as falhas exploradas e os dados por ela extraídos.

Leia também: Ataques cibernéticos alimentados por IA – primeiro ransomware inteligente descoberto

IA um pouco confiante demais

Durante o ataque, Claude mostrou-se falível. Como todas as IAs, é provável que Claude tenha alucinações, ou seja, invente informações com confiança. Neste caso, a IA tem senhas inventadas ou roubar informações públicas apresentando-as como dados confidenciais. Em suma, a IA frequentemente sobrestimava os seus sucessos e forçava os hackers a verificar por si próprios se os dados recolhidos eram realmente utilizáveis. Vários erros retardaram os cibercriminosos durante suas invasões. A Anthropic garante que as contas dos hackers foram banidas assim que o uso indevido foi detectado. Além disso, a start-up atualizou as suas salvaguardas para combater tentativas de manipulação.

Os cibercriminosos estão usando cada vez mais IA para orquestrar seus ataques. O caso destacado pela Anthropic lembra que Vírus de IA recentemente destacado pelo Google Threat Intelligence Group (GTIG). Esses malwares podem sofrer mutações e alterar seu código em tempo real durante um ataque. Isso permite que eles evitem antivírus e se adaptem a cada vítima. Mais uma vez, os hackers usaram IAs populares, como o Gemini, para escrever códigos maliciosos automaticamente.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.



Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *