Bug Copilot Microsoft: mail “confidenziali” riassunti nonostante DLP attivo
Che cosa è successo
Il 21 gennaio 2026 Microsoft ha registrato l’incidente CW1226324: un difetto nel motore di Microsoft 365 Copilot Chat ha permesso al sistema di leggere e sintetizzare e-mail contrassegnate come riservate, nonostante le aziende avessero configurato politiche di Data Loss Prevention (DLP) espressamente per impedirlo.
L’errore interessa esclusivamente la scheda “work” (ambiente aziendale) del Copilot Chat. Secondo gli avvisi di servizio ufficiali, i messaggi presenti nelle cartelle Posta inviata e Bozze finivano comunque nel set di dati usato dal modello per generare riepiloghi, bypassando le etichette di sensibilità e le regole DLP.
Perché il problema colpisce i responsabili di sicurezza
L’impatto non è tecnico solo sulla carta: nei settori regolamentati la classificazione dei dati è il primo anello di una catena di controlli che comprende audit, policy di accesso e compliance. Quando un assistente AI ignora deliberatamente un’etichetta “Confidential”, l’intero perimetro di fiducia vacilla.
Copilot, infatti, non è un chatbot generico: la sua principale leva competitiva è l’integrazione profonda nel contesto aziendale, da Outlook a SharePoint. Un malfunzionamento in questa pipeline amplifica il rischio di data spill anche in assenza di attacchi esterni.
Microsoft: tempi di intervento e comunicazioni ufficiali
L’azienda di Redmond ha avviato il roll-out della patch a inizio febbraio 2026 e continua il monitoring per verificarne la stabilità. Microsoft ha identificato un sottoinsieme di tenant da contattare individualmente, ma non ha pubblicato:
- una data definitiva di chiusura dell’incidente;
- il numero esatto di organizzazioni o utenti coinvolti.
L’incidente è classificato come “advisory”, livello usato per problemi reputazionali o di servizio ritenuti di portata limitata. Nel mondo della cyber-sicurezza, però, anche un singolo messaggio riservato condiviso male può costare multe e reputazione, soprattutto in ambienti finanziari o sanitari.
Il contesto: Copilot Chat sempre più presente
Il lancio commerciale di Copilot Chat a settembre 2025 l’ha portato in Word, Excel, Outlook, Teams e OneNote con l’obiettivo di diventare il copilota di lavoro quotidiano. Più cresce la superficie di esposizione, più stringenti devono essere i guard-rail tecnici. In questo caso l’anello “DLP” è saltato, dimostrando che i controlli non sono mai definitivi: vanno testati e ricertificati dopo ogni update.
Cosa deve fare adesso un’organizzazione
Non è necessario sospendere Copilot, ma conviene attuare un piano di verifica pragmatico:
- Controllare nel Microsoft 365 admin center se il proprio tenant figura fra quelli toccati da CW1226324.
- Simulare una query su posta etichettata come riservata per confermare che la patch funziona.
- Rivedere le regole DLP e le etichette di sensibilità nel portale Microsoft Purview, assicurandosi coprano esplicitamente Copilot Chat.
- Audit e log: esportare i log di accesso dell’AI in vista di eventuali eDiscovery.
Lezioni per l’IA aziendale
L’episodio sottolinea una verità poco pubblicizzata: la conformità non è una feature, ma un processo continuo. Ogni nuova release può invalidare policy messe a punto mesi prima. Per questo le aziende dovranno sempre più integrare cicli di penetration test e policy regression test dedicati alle AI, esattamente come fanno oggi per i sistemi tradizionali.
FAQ rapida
Copilot Chat legge davvero tutta la posta?No, accede solo ai contenuti a cui l’utente ha diritti espliciti; il bug, però, ha ignorato le etichette di riservatezza.
La patch è automatica?Sì, Microsoft la sta distribuendo via cloud; l’amministratore può monitorare lo stato dal Service Health Dashboard.
Si tratta di un attacco informatico?Nessuna evidenza di attacco: è un difetto di codice interno.
Si può disabilitare Copilot in attesa di maggiori garanzie?Sì, tramite criteri di licenza o tenant-level toggle nel centro di amministrazione.
Lascia un commento