Microsoft è alle prese con un bug critico che mina le fondamenta stesse della sicurezza aziendale: dal 21 gennaio scorso, l'assistente AI Copilot Chat integrato in Microsoft 365 sta accedendo e riassumendo email riservate, ignorando completamente le policy di prevenzione della perdita di dati (DLP) configurate dalle organizzazioni.
Il problema, identificato con il codice CW1226324, colpisce specificatamente la funzionalità "work tab" di Copilot Chat, l'interfaccia conversazionale basata su AI che Microsoft ha iniziato a distribuire ai clienti business di Microsoft 365 lo scorso settembre 2025. La tecnologia, progettata per essere context-aware e interagire con documenti, email e altri contenuti aziendali, sta elaborando messaggi presenti nelle cartelle Posta inviata e Bozze degli utenti, inclusi quelli protetti da etichette di riservatezza specificamente pensate per bloccare l'accesso da parte di strumenti automatizzati.
La conferma arriva direttamente da Redmond attraverso un alert di servizio visionato da BleepingComputer: "I messaggi email degli utenti con etichetta di riservatezza applicata vengono processati in modo errato da Microsoft 365 Copilot chat. La funzione Chat nella scheda 'work' di Microsoft 365 Copilot sta riassumendo messaggi email nonostante su questi messaggi sia applicata un'etichetta di sensibilità e sia configurata una policy DLP". Una falla che vanifica di fatto uno dei pilastri della governance dei dati nelle aziende moderne.
Microsoft ha identificato la causa nel codice stesso dell'applicazione, senza però fornire dettagli tecnici specifici sulla natura dell'errore. Il rollout di una correzione è iniziato nei primi giorni di febbraio, ma a metà settimana l'azienda stava ancora monitorando attivamente la distribuzione della patch, contattando un sottoinsieme di utenti colpiti per verificare l'efficacia della soluzione implementata.
L'azienda di Redmond non ha rivelato il numero esatto di organizzazioni o singoli utenti coinvolti nell'incidente, limitandosi a specificare che l'entità dell'impatto potrebbe cambiare man mano che l'indagine procede. L'incidente è stato classificato come advisory, una categoria tipicamente riservata a problematiche con portata o impatto limitato, anche se la sensibilità dei dati potenzialmente esposti solleva dubbi sulla reale gravità della situazione.
La vicenda evidenzia uno dei rischi emergenti nell'era dell'AI generativa applicata agli ambienti enterprise: quando gli assistenti intelligenti ottengono accesso a vasti repository di dati aziendali per fornire funzionalità avanzate, ogni falla nei meccanismi di controllo degli accessi può tradursi in esposizione di informazioni critiche. Le policy DLP rappresentano da anni la linea difensiva primaria contro la fuga accidentale o intenzionale di dati sensibili, e il fatto che un tool Microsoft le abbia aggirate per settimane solleva questioni sulla maturità dei sistemi di sicurezza implementati nei prodotti AI dell'azienda.
Non è stata comunicata una timeline definitiva per la risoluzione completa del problema. Per le organizzazioni che hanno adottato Microsoft 365 Copilot, resta la necessità di verificare attentamente quali email potrebbero essere state processate dall'AI durante la finestra temporale dell'incidente, un'operazione complessa considerando che Microsoft non ha fornito strumenti specifici di audit per questo tipo di accessi non autorizzati.