
Wprowadzenie do problemu / definicja luki
Microsoft potwierdził incydent związany z Microsoft 365 Copilot Chat: przez błąd logiki/konfiguracji narzędzie potrafiło przetwarzać (i streszczać) wiadomości e-mail oznaczone etykietą poufności mimo tego, że w organizacji skonfigurowano sensitivity labels oraz Data Loss Prevention (DLP), które miały wykluczać takie treści z użycia przez Copilota.
To nie „wyciek” w klasycznym rozumieniu (np. do innych tenantów), ale złamanie oczekiwanego modelu ochrony danych: treści, które miały być „niewidoczne” dla funkcji AI, znalazły się w zakresie przetwarzania przez Copilot Chat.
W skrócie
- Problem dotyczył Copilot Chat w „Work tab” i obejmował e-maile w folderach Drafts i Sent Items (Outlook desktop).
- Zdarzenie było śledzone jako CW1226324; pierwsze wykrycie/zgłoszenia pojawiają się przy dacie 21 stycznia 2026.
- Microsoft wskazał „code issue” jako przyczynę oraz poinformował o wdrażaniu poprawki od początku lutego.
- W oświadczeniu (aktualizacja w artykule) Microsoft podkreślił, że nie dawało to dostępu do informacji osobom nieuprawnionym oraz że wdrożono globalną aktualizację konfiguracyjną dla klientów enterprise.
Kontekst / historia / powiązania
Microsoft od miesięcy promuje Copilota jako warstwę produktywności „osadzoną” w danych organizacji. W tym modelu kluczowe są dwie linie obrony:
- Sensitivity labels (Microsoft Purview Information Protection) – klasyfikują i (opcjonalnie) egzekwują ochronę, m.in. poprzez szyfrowanie i prawa użycia.
- DLP (Microsoft Purview Data Loss Prevention) – zestaw zasad ograniczających „nadmierne udostępnianie” danych w aplikacjach i usługach M365.
Incydent jest ważny, bo uderza w zaufanie do tego, że „etykieta + DLP” rzeczywiście wycina treści z przepływu AI w każdej ścieżce produktu (tu: Copilot Chat / Work tab).
Analiza techniczna / szczegóły luki
Co dokładnie działo się „źle”
Według komunikatów przytoczonych przez media i treści alertu serwisowego, Copilot Chat błędnie przetwarzał e-maile z nałożoną etykietą „confidential” i aktywną polityką DLP, a źródłem była usterka powodująca, że elementy z Sent Items i Drafts „wpadały” do indeksu/streszczeń Copilota mimo wykluczeń.
Dlaczego to jest newralgiczne dla bezpieczeństwa
W praktyce firmy budują polityki tak, by:
- część korespondencji (np. umowy, dane HR, dane medyczne, M&A) była oznaczona etykietą poufności,
- a DLP miało ograniczać przetwarzanie/ujawnianie tych treści w nowych kanałach (w tym przez narzędzia generatywne).
Microsoft opisuje DLP jako mechanizm ochrony przed oversharingiem w aplikacjach enterprise i usługach M365.
Jednocześnie dokumentacja Microsoft Learn wskazuje, że etykiety poufności są rozpoznawane przez Copilot i Copilot Chat, a przy treściach szyfrowanych znaczenie mają konkretne prawa użycia (np. EXTRACT).
W tym incydencie problem polegał na tym, że „intencja polityki” (wykluczyć) rozmijała się z „rzeczywistą ścieżką przetwarzania” w Copilot Chat dla określonych folderów Outlooka.
Praktyczne konsekwencje / ryzyko
- Ryzyko niezamierzonego ujawnienia w ramach tej samej tożsamości
Nawet jeśli Microsoft podkreśla, że nie rozszerzyło to uprawnień dostępowych, streszczenie w narzędziu AI może ułatwić przypadkowe „wyciąganie” wrażliwych informacji w toku pracy (np. kopiowanie fragmentów, wklejanie do innych kanałów). - Ryzyko naruszeń zgodności
W wielu reżimach (RODO/GDPR, tajemnice przedsiębiorstwa, regulacje sektorowe) liczy się nie tylko „kto miał uprawnienie”, ale też czy kontrola techniczna działała zgodnie z polityką i czy dane nie były przetwarzane w nieautoryzowanym scenariuszu. - Erozja zaufania do sterowania AI przez etykiety i DLP
Jeżeli wykluczenia potrafią zawieść w jednym kanale (Work tab), organizacje zaczną traktować integracje AI jak „kolejny kanał exfiltracji”, który wymaga osobnego hardeningu i monitoringu.
Rekomendacje operacyjne / co zrobić teraz
Poniżej lista działań „bezpiecznych domyślnie” dla środowisk enterprise korzystających z Copilot/Outlook:
- Zweryfikuj komunikat serwisowy (CW1226324) i status w Twoim tenancie
Jeśli masz Microsoft 365 Admin Center, sprawdź, czy poprawka/aktualizacja konfiguracyjna została zastosowana oraz czy Microsoft wskazuje dodatkowe kroki po stronie klienta. (W samych publikacjach brak pełnej listy tenantów dotkniętych problemem). - Upewnij się, że DLP obejmuje Copilot i Copilot Chat – dedykowana lokalizacja polityk
Microsoft opisuje możliwość tworzenia zasad DLP ukierunkowanych na Microsoft 365 Copilot i Copilot Chat (m.in. blokowanie przetwarzania treści oznaczonych etykietami w kontekście generowania odpowiedzi).
W praktyce: jeśli polegasz wyłącznie na „etykietach w Outlook/Exchange”, rozważ dodanie/utwardzenie reguł stricte dla „Copilot and Copilot Chat policy location”. - Wzmocnij ochronę najbardziej wrażliwych etykiet przez szyfrowanie i prawa użycia
Microsoft wskazuje, że przy etykietach z szyfrowaniem Copilot sprawdza prawa użycia użytkownika (np. EXTRACT), zanim zwróci dane.
To nie rozwiązuje wszystkich przypadków, ale podnosi poprzeczkę dla „łatwego streszczenia” treści klasy Highly Confidential/HR/Legal. - Przegląd „gdzie leżą wrażliwe rzeczy” – Drafts i Sent Items też są danymi krytycznymi
Ten incydent pokazuje, że ochrona często jest projektowana „pod Inbox i udostępnienia”, a robocze wersje dokumentów i korespondencji (Drafts/Sent) bywają jeszcze bardziej wrażliwe. - Ogranicz ekspozycję Copilot Chat w okresie weryfikacji
Jeśli Twoja organizacja ma wysoką wrażliwość danych (prawo, finanse, medycyna), rozważ tymczasowe ograniczenia użycia Copilot Chat w scenariuszach e-mailowych do czasu potwierdzenia skuteczności poprawek (np. poprzez polityki dostępu/konfigurację Copilota na poziomie tenantów i ról).
Różnice / porównania z innymi przypadkami (jeśli dotyczy)
- „Naruszenie uprawnień” vs „naruszenie oczekiwanego wykluczenia”:
Microsoft twierdzi, że nie doszło do nadania nowego dostępu do danych, ale doszło do sytuacji, w której Copilot działał niezgodnie z zamierzoną separacją treści chronionych od funkcji AI. - DLP w klasycznych kanałach M365 vs DLP w interakcjach AI:
DLP historycznie „pilnowało” Exchange/SharePoint/Teams. Teraz dochodzą interakcje prompt/response i scenariusze streszczania – Microsoft rozwija dedykowane mechanizmy DLP dla Copilota.
Podsumowanie / kluczowe wnioski
- Incydent z Copilot Chat (Work tab) ujawnił, że nawet przy włączonych etykietach poufności i DLP mogą wystąpić ścieżki, w których AI przetwarza treści w sposób niezamierzony.
- Microsoft wskazał przyczynę jako błąd kodu, a następnie wdrożył aktualizację konfiguracyjną globalnie dla enterprise, podkreślając brak eskalacji uprawnień.
- Dla organizacji to sygnał, by traktować Copilota jak nową powierzchnię przetwarzania danych, którą trzeba objąć: dedykowanym DLP dla Copilot/Copilot Chat, twardszymi etykietami dla „top secret”, oraz przeglądem ryzyka dla Drafts/Sent.
Źródła / bibliografia
- BleepingComputer – opis incydentu i cytaty z alertu/stanowiska Microsoft. (BleepingComputer)
- The Register – kontekst DLP/sensitivity labels i stanowisko Microsoft. (The Register)
- TechRadar Pro – streszczenie wpływu (Drafts/Sent), identyfikator CW1226324, timeline. (TechRadar)
- Microsoft Learn – Sensitivity labels (Purview) i ich relacja do Copilot/Copilot Chat. (Microsoft Learn)
- Microsoft Learn – Data Loss Prevention (DLP): definicja, zakres i lokalizacje ochrony. (Microsoft Learn)


