
A Antrópica afirma ter frustrado um ataque cibernético global que explorava a IA. Pela primeira vez, uma IA autónoma, pilotada por hackers chineses financiados por Pequim, realizou uma vasta operação de espionagem contra cerca de trinta organizações do início ao fim.
A Anthropic, start-up por trás de Claude, indica que tem “frustrou uma campanha de espionagem extremamente sofisticada” que foi orquestrado pela inteligência artificial. A empresa americana diz estar convencida de que o ataque foi realizado por uma gangue de hackers encomendada pela China. Para a Antrópica, esta é a “primeiro caso documentado de um ataque cibernético em grande escala realizado por IA sem intervenção humana significativa”.
Interrompemos uma campanha de espionagem altamente sofisticada liderada por IA.
O ataque teve como alvo grandes empresas de tecnologia, instituições financeiras, empresas de fabricação de produtos químicos e agências governamentais. Avaliamos com grande confiança que o autor da ameaça era um grupo patrocinado pelo Estado chinês.
– Antrópico (@AnthropicAI) 13 de novembro de 2025
A ofensiva foi identificada pelas equipes da Anthropic durante o mês de setembro de 2025. Com a ajuda da ferramenta Claude Code, assistente de codificação para desenvolvedores, hackers chineses penetraram nas infraestruturas de TI decerca de trinta grandes organizações em todo o mundo. Entre os alvos, encontramos “grandes empresas de tecnologia, instituições financeiras, empresas de fabricação de produtos químicos e agências governamentais”. A operação teve como objetivo exfiltrar uma grande quantidade de informações confidenciais.
Leia também: Aqui está o precursor dos vírus controlados por IA, MalTerminal
IA, de ferramenta a gênio do crime
Para atingir seus objetivos, os piratas foram obrigados a contornar as restrições impostas pela Anthropic. Os hackers têm IA manipulada para fazê-la acreditar que estava realizando missões de testes de segurança. Dessa forma, ela foi capaz de ignorar suas salvaguardas éticas. O módulo de geração de código de Claude foi aproveitado notavelmente por hackers, conforme observado pela Anthropic.
Uma vez sob o controle dos hackers, a IA começa mapeando a rede do alvo muito rapidamente, identificando onde estão localizados os bancos de dados sensíveis. Explorando as falhas descobertas por ela, ela recuperar credenciais de acessocoleta o máximo de dados confidenciais possível e, em seguida, classifica e documenta todas as informações roubadas. No processo, ela desliza por uma porta dos fundos. Esta porta permite que ele retorne ao sistema comprometido mais tarde.
Neste ataque cibernético, a IA não foi apenas uma ferramenta. Como explica o relatório da Antrópico, a inteligência artificial assumiu praticamente toda a missão. Durante o ataque, a IA escolhe automaticamente o que fazer e como se adaptar em caso de obstáculo. Os pesquisadores notaram que a inteligência artificial analisava a rede por conta própria, identificava onde procurar informações críticas de forma independente e então lançava ela mesma os ataques.
“Os modelos de IA podem agir como agentes reais: são capazes de operar continuamente, encadear ações autônomas e tomar decisões por conta própria, exigindo apenas intervenção humana ocasional e mínima”sublinha Antrópico.
Ela até escreveu código malicioso instantaneamente, testou vulnerabilidades de segurança e decidiu extrair ou mover dados com base no que descobriu. Os humanos apenas intervieram para validar cada passo. Resumindo, a IA era perfeitamente autônoma. O atacante tem “conseguimos usar IA para realizar 80 a 90% da campanha”.
Concluída sua missão, a IA escreve um relatório completo para os hackers, que lista os acessos obtidos, as falhas exploradas e os dados por ela extraídos.
Leia também: Ataques cibernéticos alimentados por IA – primeiro ransomware inteligente descoberto
IA um pouco confiante demais
Durante o ataque, Claude mostrou-se falível. Como todas as IAs, é provável que Claude tenha alucinações, ou seja, invente informações com confiança. Neste caso, a IA tem senhas inventadas ou roubar informações públicas apresentando-as como dados confidenciais. Em suma, a IA frequentemente sobrestimava os seus sucessos e forçava os hackers a verificar por si próprios se os dados recolhidos eram realmente utilizáveis. Vários erros retardaram os cibercriminosos durante suas invasões. A Anthropic garante que as contas dos hackers foram banidas assim que o uso indevido foi detectado. Além disso, a start-up atualizou as suas salvaguardas para combater tentativas de manipulação.
Os cibercriminosos estão usando cada vez mais IA para orquestrar seus ataques. O caso destacado pela Anthropic lembra que Vírus de IA recentemente destacado pelo Google Threat Intelligence Group (GTIG). Esses malwares podem sofrer mutações e alterar seu código em tempo real durante um ataque. Isso permite que eles evitem antivírus e se adaptem a cada vítima. Mais uma vez, os hackers usaram IAs populares, como o Gemini, para escrever códigos maliciosos automaticamente.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google News, assine nosso canal no WhatsApp ou siga-nos em vídeo no TikTok.