
Uma nova ameaça está surgindo no Windows. Os pesquisadores da Varonis descobriram uma nova vulnerabilidade de segurança no Microsoft Copilot. Ele permite que seus dados sejam desviados sem o seu conhecimento…
Uma nova falha de segurança foi descoberta no funcionamento do Copilot, assistente de IA da Microsoft integrado ao Windows e às ferramentas da editora. Identificada pelos pesquisadores da Varonis, a vulnerabilidade foi batizada Responderpois consiste em relançar a mesma solicitação (“prompt” em inglês) diversas vezes em loop para extrair cada vez mais informações da IA. Explorada por um invasor, a falha provavelmente levará a um grande roubo de dados no computador da vítima. Para se beneficiar disso, basta um clique do alvo. Reprompt é descrito como “um ponto de entrada invisível para realizar uma cadeia de exfiltração de dados que contorna completamente os controles de segurança empresarial e acessa dados confidenciais sem ser detectado, tudo com um único clique”.
Leia também: Microsoft lança Copilot Actions, uma IA que funciona para você
URL legítimo e parâmetro malicioso
Para aproveitar a vulnerabilidade do Copilot, o hacker deve primeiro enviar um URL legítimo à vítima, seja por e-mail ou SMS. Este é um URL que redireciona para o Copilot. O link aponta para um domínio clássico da Microsoft, o que tranquiliza o usuário. O link é acompanhado por uma mensagem que pode lembrar um e-mail interno, uma solicitação de colega ou uma notificação da Microsoft. No entanto, este URL legítimo contém um parâmetro malicioso. Caso a vítima clique no link, uma solicitação pré-determinada pelo hacker será exibida e executada na conversa com o Copilot. A consulta é iniciada assim que a página é carregada, sem que o usuário digite nada na interface.
A solicitação em questão solicitará ao Copilot quebuscar informações do computador da vítima, como arquivos recentes, identificadores, localização, histórico de navegação e outros dados pessoais. A IA é ordenada a coletar essas informações para enviá-las ao hacker. Como a vítima já está autenticada no Copilot, a solicitação é executada na sua sessão, com acesso total à memória do Copilot.
Leia também: como remover o Copilot e funções desnecessárias de IA do seu PC?
Uma falha que contorna as proteções da Microsoft
Para contornar as restrições de exfiltração de dados do Copilot, a configuração maliciosa simplesmente pedirá à IA para “fazer tudo duas vezes” e mantenha apenas o melhor resultado. Na verdade, as proteções do Copilot filtram a primeira chamada para dados confidenciais, mas só se aplicam a essa primeira solicitação por motivos de desempenho. De fato, Copiloto cumpre na segunda tentativae os pesquisadores perceberam isso durante seus experimentos.
Feita a solicitação, o Copilot passa a conversar sozinho com o servidor do hacker, que lhe envia gradativamente novas instruções para extrair cada vez mais informações. Por exemplo, o servidor pede à IA que diga a hora ou descreva os arquivos abertos. Essas questões triviais mantenha a conversa abertaenquanto os dados são exfiltrados em segundo plano.
O Copilot “vaza dados de forma incremental, permitindo que a ameaça use cada resposta para gerar a próxima instrução maliciosa”, explica Varonis. Mesmo que o usuário feche a aba, a sessão permanece ativa. A conversa oculta continua em segundo plano e o Copilot continua a comunicar dados ao invasor. A cadeia de ataque depende de três disfunções distintas na segurança do Copilot, diz Varonis.
Uma falha corrigida pela Microsoft
Os pesquisadores alertaram a Microsoft sobre as falhas. Para proteger seus usuários, a gigante americana incluiu uma correção no último Windows Patch Tuesday, implantado em 13 de janeiro de 2026. Recomendamos que você instale a atualização em seu computador sem esperar. Para se proteger contra esses ataques, a Varonis recomenda tratar todos os links recebidos com extrema cautela. Tenha cuidado com links que abrem ferramentas de IA ou preenchem mensagens para você.
Vale lembrar que esta não é a primeira falha de segurança identificada na operação do Copilot. No ano passado, uma falha chamada EchoLeak foi descoberta no Copilot. Tornou possível a exfiltração de dados corporativos por meio de uma simples bomba de e-mail, sem ação do usuário. Para roubar os dados, o invasor simplesmente precisava enviar um e-mail contendo instruções de remarcação ocultas, destinadas a forçar a IA a transmitir informações confidenciais (e-mails, arquivos, dados internos).
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.