Entre 21 de janeiro e meados de fevereiro, o Microsoft Copilot inadvertidamente leu e resumiu e-mails confidenciais, ignorando rótulos de sensibilidade e políticas de prevenção de perda de dados (DLP). Este incidente revelou uma falha significativa nos pontos de aplicação dentro da própria infraestrutura da Microsoft, passando despercebido por ferramentas de segurança.
Entre as organizações afetadas estava o Serviço Nacional de Saúde do Reino Unido, que registrou o incidente como INC46740412, indicando a profundidade do problema em ambientes de saúde regulamentados. Microsoft denominou o problema como CW1226324. Este é o segundo incidente em oito meses onde o pipeline de recuperação do Copilot violou sua própria barreira de confiança.
Em junho de 2025, a Microsoft corrigiu uma vulnerabilidade crítica conhecida como EchoLeak. Esta falha permitiu que um e-mail malicioso, sem necessitar de ações dos usuários, exfiltrasse dados empresariais ao contornar diversas medidas de segurança do Copilot. O problema foi atribuído a uma pontuação CVSS de 9.3, destacando sua gravidade.
Tradicionais ferramentas de segurança, como EDR e WAF, não foram projetadas para detectar falhas dentro dos pipelines de recuperação de LLM, como o Copilot. O erro de caminho de código permitiu que mensagens rotuladas fossem processadas indevidamente, sem que qualquer alerta fosse gerado.
Pesquisadores da Aim Security identificaram uma falha de design fundamental, onde agentes processam dados confiáveis e não confiáveis de forma integrada, tornando-os vulneráveis à manipulação. Mesmo após a correção da EchoLeak, a falha CW1226324 mostrou que o erro de aplicação pode ocorrer independentemente.
Os incidentes passaram despercebidos até a Microsoft publicar um aviso. Para mitigar futuros riscos, as organizações devem considerar implementar uma auditoria de cinco pontos:
O cenário de segurança cibernética está evoluindo rapidamente, com 47% dos líderes de segurança já observando comportamentos indesejados de assistentes de IA. A implementação de assistentes de IA em produção sem governança adequada pode resultar em riscos significativos, não apenas para o Copilot, mas para qualquer ferramenta que acesse dados empresariais internos. A execução de auditorias proativas e o reforço das medidas de segurança são críticos para evitar futuros incidentes silenciosos.
Thriller histórico em Chang'an: mistério e segredos com Bai Lu e Wang Xing. Assista ao…
Go Soo avalia papel em 'Nine to Six', drama coreano adaptado de sucesso chinês. Fãs…
Veja as novas imagens de Recipe for Love e prepare-se para emoções intensas. Assista agora…
Apaixone-se por K-Dramas com idols famosos e viva romances inesquecíveis. Explore agora mesmo!
Explore Itzaland e descubra novas habilidades em Infinity Nikki 2.0. Atualize seu jogo agora!
Patch 1.4.0 do Arc Raiders elimina exploits e melhora a jogabilidade. Veja as mudanças e…