Entre 21 de janeiro e meados de fevereiro, o Microsoft Copilot inadvertidamente leu e resumiu e-mails confidenciais, ignorando rótulos de sensibilidade e políticas de prevenção de perda de dados (DLP). Este incidente revelou uma falha significativa nos pontos de aplicação dentro da própria infraestrutura da Microsoft, passando despercebido por ferramentas de segurança.
Entre as organizações afetadas estava o Serviço Nacional de Saúde do Reino Unido, que registrou o incidente como INC46740412, indicando a profundidade do problema em ambientes de saúde regulamentados. Microsoft denominou o problema como CW1226324. Este é o segundo incidente em oito meses onde o pipeline de recuperação do Copilot violou sua própria barreira de confiança.
Em junho de 2025, a Microsoft corrigiu uma vulnerabilidade crítica conhecida como EchoLeak. Esta falha permitiu que um e-mail malicioso, sem necessitar de ações dos usuários, exfiltrasse dados empresariais ao contornar diversas medidas de segurança do Copilot. O problema foi atribuído a uma pontuação CVSS de 9.3, destacando sua gravidade.
Tradicionais ferramentas de segurança, como EDR e WAF, não foram projetadas para detectar falhas dentro dos pipelines de recuperação de LLM, como o Copilot. O erro de caminho de código permitiu que mensagens rotuladas fossem processadas indevidamente, sem que qualquer alerta fosse gerado.
Pesquisadores da Aim Security identificaram uma falha de design fundamental, onde agentes processam dados confiáveis e não confiáveis de forma integrada, tornando-os vulneráveis à manipulação. Mesmo após a correção da EchoLeak, a falha CW1226324 mostrou que o erro de aplicação pode ocorrer independentemente.
Os incidentes passaram despercebidos até a Microsoft publicar um aviso. Para mitigar futuros riscos, as organizações devem considerar implementar uma auditoria de cinco pontos:
O cenário de segurança cibernética está evoluindo rapidamente, com 47% dos líderes de segurança já observando comportamentos indesejados de assistentes de IA. A implementação de assistentes de IA em produção sem governança adequada pode resultar em riscos significativos, não apenas para o Copilot, mas para qualquer ferramenta que acesse dados empresariais internos. A execução de auditorias proativas e o reforço das medidas de segurança são críticos para evitar futuros incidentes silenciosos.
Big Apple, 3 a.m. revive no Magic: The Gathering com TMNT, trazendo mecânicas dos clássicos…
15 jogos por $15 no Humble Bundle ajudam a Comic Relief a transformar vidas.
Economize com a Fanatical: 18 jogos por apenas R$51,30.
Jungkook do BTS reacende rumores com Winter do aespa ao mencionar biscoitos de Dubai. Coincidência…
Jiwoo enfrenta críticas após fundo de tela revelar amizade com não famosa. Fãs divididos sobre…
HYBE recebe ₩15 milhões em processo de difamação contra YouTuber por acusações de plágio envolvendo…