O assistente baseado em inteligência artificial da Microsoft tornou-se um pouco confortável demais com o sigilo profissional. Desde o final de janeiro, um bug irritante fez com que o Copilot lesse e resumisse e-mails corporativos estritamente protegidos por regras de confidencialidade.

Implantado com grande alarde em setembro de 2025 para clientes empresariais pagos do Microsoft 365, o Copilot Chat deveria torne-se o aliado essencial da sua produtividade diária. Integrado diretamente nas principais ferramentas de escritório, como Word, Excel, PowerPoint, OneNote e, claro, Outlook, a missão deste agente conversacional é economizar seu tempo analisando seu conteúdo de maneira contextual. No entanto, a máquina era um pouco curiosa.

Sua memória impulsionada pela IA
PLAUD NOTE PRO registra, transcreve e resume seus principais momentos em reuniões, aulas ou passeios. Ideal para se manter organizado sem esforço.
O problema está localizado muito precisamente no “ Trabalhar » na interface de bate-papo. Normalmente, as empresas utilizam políticas de prevenção contra perda de dados (as famosas regras DLP) e rótulos de confidencialidade para proibir formalmente que ferramentas automatizadas acessem certas mensagens confidenciais. Mas a inteligência artificial da Microsoft simplesmente ignorou estas barreiras de software. Resultado: o Copilot começou a vasculhar os arquivos “ Itens enviados ” E ” Rascunhos » usuários gerem seus resumos, em total desrespeito às restrições configuradas pelos administradores do sistema.
Um problema de código sob vigilância rigorosa
Detectado em 21 de janeiro e catalogado sob a referência técnica CW1226324esta anomalia rapidamente fez com que a empresa americana reagisse. A Microsoft confirmou a existência do mau funcionamentoexplicando que um erro de código não especificado permitiu que a IA ignorasse alegremente as tags de privacidade colocadas em rascunhos e mensagens enviadas. Uma situação embaraçosa para um ecossistema vendido precisamente na sua capacidade de respeitar os quadros de segurança muito rigorosos do mundo profissional.
Para preencher esta lacuna digital, um patch começou a ser implantado discretamente no início de fevereiro. O editor está jogando a carta da cautela: atualmente está monitorando o comportamento deste patch de software e entrou em contato com uma amostra de usuários afetados para garantir que a IA respeite as instruções de classificação novamente.
Actualmente, a extensão exacta dos danos permanece um mistério. A Microsoft não comunicou nenhum cronograma definitivo para a resolução completa do problema, nem revelou o número de organizações ou usuários potencialmente expostos por esta leitura indiscreta, especificando que o escopo do impacto pode evoluir à medida que a investigação avança. No entanto, a editora classificou este incidente técnico como uma opinião consultiva (“ consultivo “). No jargão interno, este rótulo é geralmente reservado para mau funcionamento cujo escopo ou consequências permanecem limitados. Independentemente disso, é improvável que este incidente ajude a IA a se tornar mais popular.