
É difícil depositar total confiança na IA generativa quando ela bisbilhota arquivos que lhe são especificamente proibidos. A Microsoft, embora esperasse virar a esquina na segurança de suas ferramentas, deixou o Copilot resumir os e-mails que nunca deveria ter acessado. O problema já foi corrigido.
Ops. Microsoft confirmou que Co-piloto vem resumindo e-mails confidenciais no Microsoft 365 desde o final de janeiro, contornando as políticas de prevenção contra perda de dados (DLP) usadas por empresas e organizações para proteger suas informações confidenciais. O bug, detectado em 21 de janeiro, diz respeito mais especificamente à aba “trabalho” da função de chat do Copilot no pacote de escritório.
Passo em falso para o copiloto
Isto permitiu, portanto, que o Copilot acessasse e resumisse e-mails armazenados nas pastas “rascunhos” e “enviados” dos usuários… incluindo mensagens explicitamente rotuladas como confidenciais que deveriam proibir o acesso a este tipo de ferramenta de IA. “ Mensagens de email de usuários que têm um rótulo de confidencialidade aplicado são processadas incorretamente pelo chat do Microsoft 365 Copilot », confirmou o editor.
A Microsoft confirmou que um “erro de código” foi a causa do bug e que uma correção está em fase de implantação desde o início de fevereiro. A empresa não fornece, no entanto, um cronograma para a resolução completa do problema, nem indica o número de usuários ou organizações afetadas. A extensão do impacto pode mudar durante a investigação.
O Copilot Chat é uma das muitas novas ferramentas de IA que a Microsoft está incorporando em todos os seus softwares e serviços. A ferramenta apareceu em setembro de 2025 no Word, PowerPoint, Excel, Outlook e OneNote no pacote Microsoft 365 para clientes empresariais.
A Microsoft não demorou muito para reagir, o que é uma boa notícia. Mas o erro mostra que ainda é muito difícil confiar cegamente na IA generativa até que os problemas básicos de segurança sejam resolvidos.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.
Fonte :
BipandoComputador