Das Risiko der KI! Microsoft Copilot sammelte vertrauliche Mails ein, obwohl er das nicht sollte
Microsoft hat einen Fehler in Microsoft 365 Copilot Chat eingeräumt, durch den der Assistent vertrauliche EâMails ausgewertet und zusammengefasst hat, obwohl Schutzmechanismen das eigentlich verhindern sollten.
Was genau passiert ist
Der Bug betraf die CopilotâChatfunktion im âWorkâ-Tab von Microsoft 365 (OutlookâUmfeld). Copilot konnte EâMails aus den Ordnern âGesendetâ und âEntwĂźrfeâ in Zusammenfassungen einbeziehen, obwohl diese mit VertraulichkeitsâLabels gekennzeichnet und durch DataâLossâPreventionâRichtlinien (DLP) geschĂźtzt waren.
Intern wird der Vorfall unter der Kennung CW1226324 gefĂźhrt; erste Hinweise von Kunden gab es am 21. Januar 2026.
Ursache und Reaktion von Microsoft
AuslĂśser war laut Microsoft ein Programmierfehler in der CopilotâChatlogik, der dazu fĂźhrte, dass die DLPâ und SensitivityâLabels in dieser speziellen Funktion nicht korrekt beachtet wurden.
Microsoft hat Anfang Februar einen Fix ausgerollt und ßberwacht dessen Verteilung; ein Teil der betroffenen Unternehmenskunden wird gezielt informiert, während Admins angehalten sind, das Verhalten in ihren Tenants zu prßfen.
Was Admins jetzt tun sollten
In den AdminâPortalen prĂźfen, ob die ServiceâHinweise zu CW1226324 angezeigt werden, und kontrollieren, ob CopilotâChat sich nun konform zu den DLPâRichtlinien verhält.
AuditâLogs und Zugriffsprotokolle analysieren, um festzustellen, ob und in welchem Umfang vertrauliche EâMails im relevanten Zeitraum von Copilot verarbeitet wurden. Bei Bedarf interne Meldungen (Compliance/DSB) und zusätzliche SchutzmaĂnahmen (z.âŻB. Einschränkung von CopilotâFunktionen, âRestricted Contentâ-Policies) umsetzen.
Hier findest du weiterfĂźhrende Informationen: Winfuture