
Os especialistas em segurança de TI vêm prevendo o uso malicioso da inteligência artificial (IA) há vários anos. Não demorou muito para que as falhas do ChatGPT e as formas de contornar as salvaguardas desse tipo de interface fossem reveladas. Sem falar nos deepfakes sobre os quais o Clusif já alertou há dois anos. No dia 15 de janeiro de 2026, esta associação francesa de especialistas em cibersegurança apresentou o seu tradicional Panocrim, a avaliação da ameaça cibernética do ano passado. E para Gérôme Billois, da consultoria de TI Wavestone, que falou sobre o assunto, “Este ano (2025, nota do editor) foi o da realização dos primeiros ataques no campo da IA.”
Essas tecnologias impulsionam notavelmente técnicas de golpes on-line bem conhecidas. No seu relatório sobre a ameaça cibernética publicado em setembro de 2025, a Microsoft avaliou que uma operação de phishing automatizada com recurso a IA era 4,5 vezes mais eficaz do que uma operação baseada em métodos tradicionais. “Mais preocupante, observa o relatório, A automação de IA oferece potencialmente 50 vezes mais lucratividade para phishing, implantando ataques altamente direcionados a milhares de destinatários a um custo mínimo.” O suficiente para encorajar qualquer cibercriminoso a começar… Mas não para por aí porque o uso da IA atingiu tal maturidade que alguns criminosos, em vez de usá-la eles próprios, estão desenvolvendo ferramentas que revendem a outros.
Os perigos da automação
A automação, de facto, deu provas com uma operação de ciberespionagem sobre cerca de trinta alvos (empresas, instituições financeiras, etc.) atribuída a hackers chineses e detalhada em Novembro de 2025 pela empresa Anthropic, designer do modelo de linguagem Claude. Na verdade, o invasor utilizou o Claude Code, a versão do modelo especializada em escrever códigos de computador. “Ele simplesmente definiu seu alvoexplica Gérôme Billois, e então, ele deixou a IA realizar as diversas operações automaticamente: descoberta da superfície de ataque, testes de vulnerabilidade…” Enquanto Claude Code operou sozinho por algumas horas em cada fase, o humano só foi mobilizado por alguns minutos. Segundo o relatório Antrópico, seria “primeiro caso documentado de um ataque cibernético em grande escala executado principalmente sem intervenção humana.”
A guerra na Ucrânia viu outra novidade preocupante: malware autônomo. Chamado LameHug, ele foi instalado na rede de computadores alvo (neste caso, sites do governo ucraniano) para enviar avisos que serviam como comandos para sistemas existentes (particularmente no Windows). “Recupera assim instruções que lhe permitem realizar ataques adaptados ao contexto de uma empresa, em tempo real, sem ninguém por trás. explica Gérôme Billois novamente.
Leia também“Operações que chegam ao ponto de atingir o chefe da DGSI”: a ameaça cibernética entra numa nova era política
Ataques autônomos em Agentic AI
Mais uma vez, é a autonomia que representa um grande risco para um desenvolvimento popular na IA: a IA agente. Este termo já não se refere apenas a IAs que geram conteúdo após uma solicitação em linguagem natural, mas que realizam tarefas para as quais foram configuradas: abrir páginas web, coletar dados, preencher formulários, classificar e resumir e-mails, pesquisar conteúdo, produzir resumos, etc.
De momento, estes ataques limitam-se principalmente ao trabalho de investigação. É o caso, por exemplo, da falha EchoLeak descoberta no início de 2025 no Copilot, IA da Microsoft, pela empresa de cibersegurança Aim Security. Ele vem por meio de um e-mail contendo um prompt oculto, em letras brancas sobre fundo branco. A instrução é invisível para um humano, que em qualquer caso não precisa abrir o e-mail para processá-lo pela IA. Mas o Copilot lê e, portanto, executa o prompt. Neste caso, exfiltrando dados confidenciais.
Leia tambémDo adolescente que controla o Mediterrâneo às explosões de canos: 7 ataques cibernéticos massivos dos quais você provavelmente nunca ouviu falar
Uma armadilha para ChatGPT Atlas
Este mecanismo se aplica a navegadores que integram IA nativa, como Comet from Perplexity, AI Mode do Google ou ChatGPT Atlas. Uma equipe de outra empresa de segurança cibernética, NeuralTrust, conseguiu capturar o ChatGPT Atlas em outubro de 2025 inserindo sequências de caracteres semelhantes a endereços de páginas da web (começando com https://) na interface. Mas na verdade eram comandos para o LLM que, em vez de abrir uma página web, pode realizar uma ação maliciosa, como excluir ou roubar dados, mudar para um site falso usado para uma operação de phishing, etc.
“Essas IAs têm um problema fundamental: a forma como as configuramos e aquele de onde são utilizados passam pelo mesmo canal de interação, ou seja, o promptinsiste Gérôme Billois. Ao contrário dos sistemas tradicionais, com o espaço do administrador do sistema de um lado e o do usuário do outro.” Duas áreas previamente seladas.
Efeito multiplicador na segurança
Resta que, se a inteligência artificial pode aumentar os ataques, logicamente tem o mesmo efeito na segurança. A prova é o Desafio AIxCC organizado ao longo de dois anos pela Darpa, a agência americana de pesquisa de defesa. Os participantes tiveram que usar IA para encontrar, corrigir e testar atualizações em 80 projetos de TI de código aberto. Resultado, publicado em agosto de 2025: determinados sistemas conseguiram descobrir 77% das vulnerabilidades conhecidas, mas também encontraram as chamadas falhas de “dia zero”, ou seja, não identificadas anteriormente. E para uma taxa de sucesso de patch de 61%.
“Obviamente preferiríamos que fosse 100%, mas a verdadeira novidade é que, em média, desde a análise do código até a compilação do software após a integração das correções, foram necessários 45 minutos para um custo de poder computacional de US$ 450.” Isto é incomparável com práticas tradicionais muito mais laboriosas. Pelo menos algumas boas notícias num contexto que é muitas vezes estressante.