LegalCheck im Dr. Datenschutz-Podcast zu Copilot: Bonus-Material

Im Dr. Datenschutz-Podcast vom Dezember (ab 28.11.2025 hörbar) sprechen Laura Stoll und ich über Microsoft 365 Copilot. Für alle, die noch mal zum nachlesen wollen, was Copilot und Copilot Chat sind, kommt hier die Dokumentation.

Auf Spotify, iTunes oder im Web: Der Dr. Datenschutz-Podcast
Auf Spotify, iTunes oder im Web: Der Dr. Datenschutz-Podcast

Die Podcast-Episode gibt's u.a. bei Dr. Datenschutz (https://www.dr-datenschutz.de/podcast/81-microsoft-365-copilot-einfach-erklaert-mit-olaf-koglin/), auf Spotify oder in iTunes.

Microsoft macht es einem nicht einfach: Es gibt gleich eine Vielzahl von Produkten, die Copilot heißen. Daher hatten Raphael Köllner und ich unsere Übersicht im Datenschutz-Berater (Heft 9/2024) auch im Plural "Der Verantwortliche und seine Copiloten" genannt. Das ist lange her, und seitdem haben sich die Namen auch immer wieder geändert.

Im Kern gibt es den "großen" Microsoft 365 Copilot und den chat-basierten Microsoft 365 Copilot Chat.

Dazu kommen ein paar weitere Copilot-Varianten, die wir im Podcast außen vor gelassen haben - etwa Copilot Studio. Dazu findet sich im Internet (und bei Präsentationen) oft ein Zirkel mit etlichen Copilot-Varianten. Wichtig: Diese Grafik ist nicht mehr aktuell und wird m.W. von Microsoft nicht mehr offiziell verwendet.

Quelle für dieses Bild: https://stoneridgesoftware.com/wp-content/uploads/2023/12/Microsoft-Copilot-Available.png; (c) Microsoft.

Microsoft Copilot Circle ((c) Microsoft)
Microsoft Copilot Circle ((c) Microsoft)

Nicht einfacher wird's dadurch, dass Microsoft seine Produkte nicht immer einheitlich bezeichnet - teilweise sogar in der rechtlichen Dokumentation. So bleibt für User oft unklar, um welchen Copilot es sich konkret handelt:

Welcher Microsoft-Copilot ist hier wohl gemeint?
Welcher Microsoft-Copilot ist hier wohl gemeint?

Wir kommen zurück zu den "Haupt-Copiloten", die korrekt wie folgt heißen:

  • Microsoft 365 Copilot
    (der große Copilot)

  • Microsoft 365 Copilot Chat
    (der Name sagt es: Mit Chat-Interface wie bei ChatGPT)

Der "kleine" Copilot Chat (ihr wisst, die Bezeichnung ist jetzt auch schon verkürzt) ist zunächst kostenlos, aber im Umfang teilweise begrenzt. "Kostenlos in bestehenden Lizenzen enthalten" bedeutet in Eurer Organisation: Es besteht die Gefahr, dass Mitarbeitende das Produkt nutzen, ohne dass der Einsatz (datenschutz-)rechtlich geprüft wurde.

Man muss wohl sagen, dass dies in den meisten Fällen gutgläubig wäre: Anders als bei privaten Accounts für ChatGPT etc. würden Beschäftige hier zu Recht davon ausgehen dürfen, dass die vom Arbeitgeber zur Verfügung gestellte KI-Lösung auch eingesetzt werden darf. Anders gesagt: Es wird nicht als Schatten-KI wahrgenommen.

Wer mich kennt weiß: Daher weise ich immer darauf hin, dass man Software as a Service nicht einfach einmal freigeben und dann wegschauen kann. Der Verantwortliche benötigt einen Prozess, um mitzubekommen, was sich ändert: Neue Funktionalitäten werden integriert, AVV und Verträge können sich ändern, und natürlich Recht und Rechtsprechung.

Den "großen" Copilot hingegen nutzt man in der Regel nicht aus Versehen, da hierfür eine gesonderte Lizenz erforderlich ist. Die kostet bei Kauf über die Microsoft-Website ("per Kreditkarte", wie Raphael immer sagt) 28,10 EUR je Monat und User. Mindestlaufzeit sind 12 Monate, man ist also ab netto 337,20 EUR je User dabei. In den Anfangsphasen gab es noch eine Mindestlizenzierung für 300 User; das gilt nicht mehr.

(Anmerkung von meinem Urheberrechts-Herz: Der Begriff "Lizenz" ist für einen SaaS-Service nicht ganz korrekt.)

So sieht das aus (Quelle / siehe https://www.microsoft.com/de-de/microsoft-365-copilot/pricing):

Microsoft 365 Copilot: Preise
Microsoft 365 Copilot: Preise

Die Preise gelten nicht für alle. Eines der öffentlich einsehbaren Angebote: Studierende an der "IU Copilot School featuring Microsoft" können die Lizenz, wie es hier heißt, zum Vorteilspreis von 16,99 EUR im Monat erwerben (vermutlich incl. USt.):

Für Studierende an der
Für Studierende an der "IU Copilot School featuring Microsoft" gibt es Copilot günstiger

Datenschutz bei den Copiloten

Kommen wir nun zum Datenschutz: Microsoft unterscheidet bei seinen Produkten u.a. nach dem Datenschutz für Konsumenten (wie bei Konsumenten-Produkten wie der Suchmaschine Bing) und dem Datenschutz auf dem Enterprise-Niveau.

Hier kommen die Begriffe Core Online Service und EU Data Boundary ins Spiel. Die Aufteilung findet man in den "Privacy & Security Terms" (zu finden über https://use365.ms/PT).

Beide Copilot-Varianten können dem Enterprise-Datenschutzniveau der Core Online Services unterliegen. Das ist beim Microsoft 365 Copilot unkompliziert:

Microsoft 365 Copilot als Core Online Service (Bild: LegalCheck)
Microsoft 365 Copilot als Core Online Service (Bild: LegalCheck)

Komplizierter wird dies beim M365 Copilot Chat:

Microsoft 365 Copilot Chat: nur mit richtigem Log-In ein Core Online Service
Microsoft 365 Copilot Chat: nur mit richtigem Log-In ein Core Online Service

Denn der Copilot Chat gilt vertragsrechtlich nur als Core Online Service, wenn man mit seinem Account eingeloggt ist.

Mit irgendeinem Microsoft-Account? - Nein. Wir erinnern uns an das Bild von oben (und an die Aussage, dass es bei Microsoft Datenschutz u.a. auf Consumer- und auf Enterprise-Ebene gibt):

Einloggen bei Microsoft Copilot Chat - mit welchem Account?
Einloggen bei Microsoft Copilot Chat - mit welchem Account?

Hinter "Arbeit" verbirgt sich das Einloggen mit einem Entra ID-Account, bei Microsoft oft auch "Schul- oder Unternehmenskonto" genannt. (Hierfür gibt es, gerade bei den deutschen Übersetzungen, wechselnde Bezeichnungen.)

Mit "Persönlich" ist ein privater, besser gesagt Consumer-Account gemeint. Also das, was man über outlook.com bekommen kann - E-Mail-Accounts wie bei gmail oder gmx. So eingeloggt (oder gar nicht eingeloggt), unterliegt die Copilot Chat-Nutzung also nicht dem Enterprise-Datenschutzniveau und gilt nicht als "Core Online Service".

Und wie erkennt man das im Eifer des Gefechts? Wenn man mit einem Entra ID-Account angemeldet ist, erscheint rechts oben ein kleines Symbol, das "weißer Haken im grünen Ritterschild" bedeuten soll.

Sofern man auf die Datenschutz-Klassifizierung wert legt (und das habe ich ja in Lauras Podcast erläutert: vielleicht fühlt man sich auch wohler, wenn die Prompts nicht mit einem bestimmten Account verknüpft sind), sofern man das also möchte, sollte man darauf achten, dass man selbst und alle Beschäftigten Copilot Chat nur nutzen, wenn sie mit "grünem Häkchen" eingeloggt sind.

Das ist Teil der kleinen Copilot-Policy, die ich mit Laura besprochen habe:

LegalCheck-Richtlinie zu Copilot-Nutzung (Auszug)
LegalCheck-Richtlinie zu Copilot-Nutzung (Auszug)

Diese interne Richtlinie (Policy) zur Nutzung von Copilot deckt datenschutzrechtlich einfache und unkomplizierte Nutzungen von Copilot ab. Wer mir folgt, der wird vom Inhalt nicht überrascht sein (Koglin, Datenschutz bei Microsoft 365 und Copilot, S. 243 / Rn. 691 ff., und auch jüngst im Datenschutz-Berater 09/2025 (S. 254 ff.)).

Copilot-Artikel im Datenschutzberater mit Vorschlägen zur Policy
Copilot-Artikel im Datenschutzberater mit Vorschlägen zur Policy

Und auch etliche Kunden von mir haben die Richtlinie bei sich eingeführt: Damit werden die einfachen und unkritischen Use Cases abgedeckt und sind reglementiert, also aus der Schatten-KI rausgeholt. Zugleich werden die Nutzer kaum eingeschränkt und sind (für die einfachen Use Cases) glücklich und versorgt.

Zugleich entlastet sich die Rechts- oder Datenschutzabteilung von den unkomplizierten Anfragen und kann sich auf die wichtigeren Fragen von Datenschutz und KI-Recht (und damit auf die wahren Risiken oder Probleme) fokussieren. Perfekt, oder?

Hier kommt noch ein Ausschnitt aus der Policy:

Ein Teil der Regelungen in der Copilot-Policy von LegalCheck
Ein Teil der Regelungen in der Copilot-Policy von LegalCheck

Die Copilot-Policy: Kostenlos für Hörer:innen des Dr Datenschutz-Podcasts

Wer den Podcast gehört hat, weiß: Die vollständige Policy gibt es kostenlos für alle, die den Podcast hören (Download ist bis zum 12.12.2025 befristet). Und zusätzlich gibt es noch ein tolles Special für alle, die bei unserer Webinar-Reihe "M365-Club" mitmachen wollen - mit zwei M365-Terminen im Monat. Für den Dezember sieht das z.B. wie folgt aus:

Am Mi 03.12.2025 um 10:00 ist der nächste reguläre Termin im M365-Club: Es geht um die Bewertung des Hessischen Beauftragten für Datenschutz und Informationsfreiheit zur Zulässigkeit von Microsoft 365.

Und am Mi 10.12.2025 um 10:00 (Achtung, Änderung gegenüber der gesprochenen Ankündigung im Podcast) ist unser Special mit Dr. Stefan Brink, dem früheren LfDI Baden-Württemberg. Er wird uns alles zu den M365-Beschlüssen der Datenschutzkonferenz (DSK) sagen, was wir uns nie zu fragen wagten. Und wir versprechen: Es wird Überraschungen geben!

Also: Podcast hören, die Links aus den Shownotes nehmen und dabei sein!

Dr. Stefan Brink und Dr. Olaf Koglin auf der Datenschutzkonferenz Düsseldorf im September 2025
Dr. Stefan Brink und Dr. Olaf Koglin auf der Datenschutzkonferenz Düsseldorf im September 2025

© LegalCheck