Compliance-Strategie
Jeder ChatGPT-Prompt ist eine Datenübermittlung. Was das für dein Unternehmen bedeutet.

Stell dir folgendes Szenario vor: Eine Beraterin deines Unternehmens arbeitet an einem Due-Diligence-Bericht. Sie markiert einen Absatz aus einer Vertragsklausel -- mit Mandantenname, Geschäftsführernamen und Konditionen -- kopiert ihn und fügt ihn in ChatGPT ein. Die Anweisung lautet: "Fasse die wesentlichen Risiken dieser Klausel zusammen."
In weniger als zwei Sekunden hat sie ein brauchbares Ergebnis. In denselben zwei Sekunden ist etwas anderes passiert: Die personenbezogenen Daten des Mandanten wurden an Server von OpenAI in den USA übermittelt. Unter der DSGVO ist das keine Bagatelle. Es ist eine Verarbeitung personenbezogener Daten mit Drittlandübermittlung.
Und genau das passiert gerade tausendfach in deutschen Unternehmen. Jeden Tag.
Welche Daten verarbeitet ChatGPT bei jedem Prompt?
Jeder Text, den du in ChatGPT eingibst, wird an OpenAIs Server gesendet. OpenAI ist ein US-amerikanisches Unternehmen mit Rechenzentren in den Vereinigten Staaten. Wenn dieser Text personenbezogene Daten enthält (Namen, E-Mail-Adressen, Vertragsnummern, Gesundheitsdaten, Kundennummern) dann liegt eine Verarbeitung personenbezogener Daten im Sinne von Art. 4 Nr. 2 DSGVO vor.
Das gilt unabhängig davon, ob der Nutzer die Daten bewusst oder unbewusst eingibt. Es gilt unabhängig davon, ob ChatGPT die Daten "speichert" oder nicht. Die Übermittlung an den Server ist bereits die Verarbeitung.
OpenAI hat zwar seit 2023 eine Niederlassung in Irland (OpenAI Ireland Limited) und bietet einen Auftragsverarbeitungsvertrag (Data Processing Addendum) an. Dieser stützt sich auf die EU-Standardvertragsklauseln (Standard Contractual Clauses, SCCs) nach dem Durchführungsbeschluss der Kommission vom 4. Juni 2021. Aber, und das ist entscheidend, die tatsächliche Datenverarbeitung findet weiterhin auf US-Servern statt. Die irische Gesellschaft ändert daran nichts.
Wer die kostenlose ChatGPT-Webversion nutzt, hat übrigens keinen Auftragsverarbeitungsvertrag. OpenAI ist in diesem Fall eigenständiger Verantwortlicher für die Datenverarbeitung. Deine Mitarbeitenden übermitteln also Mandantendaten an einen US-Verantwortlichen -- ohne jede vertragliche Grundlage im Sinne von Art. 28 DSGVO.
Was sagt der EDPB zur Verarbeitung personenbezogener Daten in KI-Prompts?
Am 23. Mai 2024 veröffentlichte der Europäische Datenschutzausschuss (EDPB) den Bericht seiner ChatGPT Taskforce. Dieses Gremium, das die Untersuchungen verschiedener nationaler Datenschutzbehörden zwischen November 2022 und Februar 2024 koordinierte, lieferte erstmals eine europäisch abgestimmte Einordnung.
Der Bericht unterscheidet fünf Verarbeitungsphasen bei ChatGPT:
Erhebung von Trainingsdaten (einschließlich Web-Scraping)
Vorverarbeitung und Filterung der Daten
Modelltraining
Verarbeitung von Prompts und Erzeugung von Antworten
Nutzung von Prompts zum weiteren Modelltraining
Für jede Phase muss eine eigene Rechtsgrundlage nach Art. 6 DSGVO vorliegen. OpenAI stützt sich durchgängig auf das berechtigte Interesse nach Art. 6 Abs. 1 lit. f DSGVO. Die Taskforce stellte klar, dass diese Rechtsgrundlage eine sorgfältige Interessenabwägung erfordert, und dass insbesondere bei der Nutzung von Prompt-Inhalten zum Weitertraining (Phase 5) eine klare und nachweisbare Information der Nutzer entscheidend ist.
Besonders relevant: Die Taskforce betonte, dass keine Risikoverlagerung auf die betroffenen Personen zulässig ist. OpenAI kann die Verantwortung für den Umgang mit personenbezogenen Daten nicht über AGB-Klauseln auf die Nutzer abwälzen.
Die rechtliche Kette: Von Datenminimierung bis Drittlandübermittlung
Wenn du einen Prompt mit personenbezogenen Daten absendest, greifen mehrere DSGVO-Vorschriften gleichzeitig:
Art. 5 Abs. 1 lit. c - Datenminimierung. Personenbezogene Daten müssen dem Zweck angemessen und auf das notwendige Maß beschränkt sein. Wenn die Beraterin den vollständigen Mandantennamen in den Prompt schreibt, obwohl ein Platzhalter ("Mandant A") den gleichen Zweck erfüllen würde, verstößt das Unternehmen als Verantwortlicher gegen den Grundsatz der Datenminimierung.
Art. 6 - Rechtsgrundlage. Für die Übermittlung personenbezogener Daten an OpenAI benötigt das Unternehmen eine eigene Rechtsgrundlage. Eine Einwilligung des Mandanten, dessen Daten verarbeitet werden? Liegt in der Regel nicht vor. Ein berechtigtes Interesse des Unternehmens? Die Interessenabwägung dürfte schwierig ausfallen, wenn es technische Alternativen gibt, die den Zweck ohne Datenübermittlung erfüllen.
Art. 44 ff. - Drittlandübermittlung. Die Übermittlung personenbezogener Daten in die USA unterliegt den besonderen Anforderungen des Kapitels V der DSGVO. Seit dem Schrems-II-Urteil des EuGH vom 16. Juli 2020 (Rs. C-311/18) sind Übermittlungen in die USA nur zulässig, wenn zusätzliche Schutzmaßnahmen die Zugriffsmöglichkeiten der US-Geheimdienste (insbesondere Section 702 FISA) kompensieren.
OpenAI stützt sich auf die EU-Standardvertragsklauseln und seit 2023 auf das EU-US Data Privacy Framework (DPF). Das DPF hat zwar im September 2025 eine erste Anfechtung vor dem EuG überstanden (Rechtssache Latombe). Allerdings hat der Kläger am 31. Oktober 2025 Rechtsmittel beim EuGH eingelegt und die Datenschutzorganisation noyb hat angekündigt, eine eigenständige, umfassendere Klage vorzubereiten. Die Parallelen zu Schrems I und Schrems II sind offensichtlich: Auch die Vorgängerregelungen Safe Harbor und Privacy Shield wurden vom EuGH gekippt.
Für Unternehmen bedeutet das: Die rechtliche Grundlage der Datenübermittlung an OpenAI ist auf Sand gebaut. Wer sich ausschließlich auf SCCs und das DPF verlässt, geht ein kalkuliertes Risiko ein. Ein Risiko, das mit jeder DPA-Untersuchung und jedem EuGH-Urteil steigen kann.
Wie hoch ist das Bußgeldrisiko tatsächlich?
Die Durchsetzung der DSGVO im Bereich Drittlandübermittlungen hat in den letzten zwei Jahren erheblich an Fahrt aufgenommen:
Meta (Mai 2023): 1,2 Milliarden Euro Bußgeld der irischen Datenschutzbehörde für die Übermittlung von Facebook-Nutzerdaten in die USA ohne angemessene Schutzmaßnahmen - das höchste DSGVO-Bußgeld aller Zeiten.
Uber (August 2024): 290 Millionen Euro Bußgeld der niederländischen Datenschutzbehörde für die Übermittlung von Fahrerdaten in die USA ohne gültige Transfermechanismen. Uber hatte unter anderem Standortdaten, Identitätsdokumente und in einigen Fällen sogar Gesundheits- und Strafdaten ohne ausreichende Absicherung übermittelt.
OpenAI (Dezember 2024): 15 Millionen Euro Bußgeld der italienischen Datenschutzbehörde (Garante) wegen mehrerer DSGVO-Verstöße bei ChatGPT, darunter fehlende Rechtsgrundlage für die Verarbeitung personenbezogener Daten zum Training, unzureichende Transparenz und mangelnde Altersverifikation.
Natürlich: 15 Millionen Euro sind für OpenAI ein Rundungsfehler. Aber die Signalwirkung ist eine andere: Europäische Datenschutzbehörden betrachten KI-Anbieter nicht als Sonderfall. Die DSGVO gilt vollumfänglich.
Für ein mittelständisches Unternehmen ist das Bußgeldrisiko zwar nicht in der Größenordnung von Meta. Aber Art. 83 Abs. 5 DSGVO sieht bei Verstößen gegen die Drittlandübermittlungsregeln Bußgelder von bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes vor, je nachdem, welcher Betrag höher ist. Die Bußgelder der deutschen Landesdatenschutzbehörden lagen 2024 und 2025 im Einzelfall regelmäßig im sechs- bis siebenstelligen Bereich.
Drei Handlungsoptionen - und warum keine davon ideal ist
Die meisten Unternehmen reagieren auf diese Situation mit einer von drei Strategien:
Option 1: KI komplett verbieten
Einige Unternehmen untersagen die Nutzung von ChatGPT und vergleichbaren Tools vollständig. Das ist rechtlich die sicherste Option, aber operativ realitätsfern. Studien zeigen, dass 77 % der Beschäftigten bereits KI-Tools nutzen, davon 67 % über private Accounts ohne jede Unternehmenskontrolle. Ein Verbot führt nicht zur Nichtnutzung, sondern zur so genannten Schatten-KI.
Option 2: Erlauben mit Richtlinie
Viele Unternehmen erstellen interne KI-Nutzungsrichtlinien: "Keine Kundennamen in ChatGPT", "Keine vertraulichen Daten in KI-Tools". Das ist besser als nichts, aber es basiert auf der Annahme, dass Mitarbeitende unter Zeitdruck stets die Richtlinie beachten. In der Praxis passiert das nicht. Die Beraterin aus dem Eingangsbeispiel hat die Richtlinie vermutlich gelesen und trotzdem den Mandantennamen eingefügt, weil sie in 30 Sekunden ein Ergebnis brauchte.
Option 3: Technische DLP-Lösungen implementieren
Enterprise-DLP-Lösungen (Data Loss Prevention) wie Nightfall AI, LayerX oder Cyberhaven bieten Überwachung und Filterung. Die Nachteile: Kosten von 50.000 bis 500.000 Euro pro Jahr, Implementierungszeiten von drei bis sechs Monaten, Abhängigkeit von IT-Abteilungen und bei cloudbasierten Lösungen das Paradox, dass die Daten zur "Prüfung" erst an einen weiteren Drittanbieter-Server gesendet werden.
Die vierte Option: Anonymisierung auf dem Endgerät
Es gibt einen vierten Ansatz, der die Stärken der technischen Kontrolle nutzt, ohne die Nachteile zentraler DLP-Systeme: On-Device-Anonymisierung.
Das Prinzip: Bevor ein Prompt den Browser verlässt, erkennt ein lokal ausgeführtes NER-Modell (Named Entity Recognition) alle personenbezogenen Daten im Text - Namen, E-Mail-Adressen, Telefonnummern, Adressen, IBAN-Nummern. Diese werden durch typisierte Platzhalter ersetzt (Platzhalter, die den wesentlichen Typ der personenbezogenen Daten beibehalten). Der anonymisierte Prompt wird an ChatGPT gesendet. In der Antwort werden die Platzhalter automatisch wieder durch die Originaldaten ersetzt.
Warum ist das datenschutzrechtlich relevant?
Wenn der Prompt, der an OpenAI übermittelt wird, keine personenbezogenen Daten mehr enthält, dann liegt keine Verarbeitung personenbezogener Daten im Sinne der DSGVO vor. Keine Verarbeitung, keine Drittlandübermittlung, kein Verstoß gegen Art. 44 ff. DSGVO. Die Datenminimierung nach Art. 5 Abs. 1 lit. c wird technisch erzwungen, nicht nur organisatorisch erhofft.
Entscheidend ist dabei: Die Anonymisierung muss lokal erfolgen. Wenn die Daten zur Anonymisierung erst an einen Cloud-Dienst gesendet werden, verschiebt sich das Problem nur -- statt OpenAI erhält dann der Anonymisierungsanbieter die personenbezogenen Daten. Echte On-Device-Verarbeitung bedeutet: Das NER-Modell läuft im Browser, die Zuordnungstabelle bleibt verschlüsselt auf dem Endgerät, keine Daten verlassen den Rechner.
5 Fragen, die dein Datenschutzbeauftragter heute zur ChatGPT-Nutzung stellen sollte
Unabhängig davon, welche der vier Optionen dein Unternehmen verfolgt, die folgenden Fragen sollte dein DSB beantworten können:
Wissen wir, welche Mitarbeitenden ChatGPT und vergleichbare KI-Tools nutzen? Nicht nur die offiziell genehmigten Accounts, sondern auch die private Nutzung am Arbeitsplatz. Wenn du keine belastbare Zahl hast, geh von einer Nutzungsquote von mindestens 50 % aus.
Haben wir eine Rechtsgrundlage für die Übermittlung personenbezogener Daten an OpenAI dokumentiert? Art. 6 DSGVO verlangt eine Rechtsgrundlage vor Beginn der Verarbeitung. "Wir regeln das noch" ist keine Rechtsgrundlage.
Haben wir ein Transfer Impact Assessment für die Drittlandübermittlung an OpenAI durchgeführt? Seit Schrems II ist ein TIA bei Übermittlungen in die USA auf Basis von SCCs erforderlich. Das gilt auch dann, wenn OpenAI am EU-US Data Privacy Framework teilnimmt -- denn dessen Bestandskraft ist nicht gesichert.
Können wir die Einhaltung des Datenminimierungsgrundsatzes technisch nachweisen? Eine Richtlinie, die Mitarbeitende anweist, keine personenbezogenen Daten einzugeben, genügt der Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO nicht, wenn keine technischen Maßnahmen vorliegen, die die Einhaltung absichern.
Sind wir auf die Durchsetzung der KI-Verordnung (AI Act) ab August 2026 vorbereitet? Die Verpflichtungen für Hochrisiko-KI-Systeme umfassen die Dokumentation der KI-Nutzung, die Implementierung von Schutzmaßnahmen gegen Datenlecks und die Durchführung von Risikobewertungen. Der Stichtag 2. August 2026 rückt näher.
Fazit
Jeder Prompt mit personenbezogenen Daten ist eine Datenübermittlung. Das ist keine theoretische Rechtsauslegung sondern die Position des EDPB, bestätigt durch Bußgeldverfahren in Italien, den Niederlanden und darüber hinaus.
Die Frage ist nicht, ob deine Mitarbeitenden ChatGPT nutzen. Die Frage ist, ob personenbezogene Daten dabei das Unternehmen verlassen. Wer diese Frage mit technischen Maßnahmen statt mit Hoffnung auf Richtlinientreue beantwortet, hat die bessere Ausgangsposition gegenüber Datenschutzbehörden, gegenüber Mandanten und gegenüber dem eigenen Risikomanagement.
Wenn du sehen möchtest, wie On-Device-Anonymisierung in der Praxis funktioniert: Die Browser-Erweiterung Rehydra ist kostenlos und Open Source. Die Installation dauert nur 30 Sekunden - probier es mit deinem nächsten ChatGPT-Prompt aus.
Rehydra für Chrome installieren | Rehydra für Firefox installieren
—-
Häufig gestellte Fragen
Ist die Nutzung von ChatGPT im Unternehmen grundsätzlich DSGVO-widrig?
Nicht grundsätzlich. Die Nutzung von ChatGPT ist dann DSGVO-konform, wenn keine personenbezogenen Daten in Prompts eingegeben werden, eine gültige Rechtsgrundlage für die Datenverarbeitung vorliegt und die Anforderungen an Drittlandübermittlungen erfüllt sind. In der Praxis scheitern die meisten Unternehmen an mindestens einem dieser Punkte - insbesondere an der tatsächlichen Vermeidung personenbezogener Daten in Prompts.
Reicht ein Auftragsverarbeitungsvertrag (AVV) mit OpenAI aus?
Ein AVV ist eine notwendige, aber keine hinreichende Bedingung. Erstens bietet OpenAI den AVV nur für die kostenpflichtigen Produkte (ChatGPT Team, Enterprise, API) an, nicht für die kostenlose Webversion. Zweitens regelt der AVV die Auftragsverarbeitung nach Art. 28 DSGVO, löst aber nicht das Problem der Drittlandübermittlung. Dafür sind zusätzlich SCCs oder eine Teilnahme am EU-US Data Privacy Framework erforderlich - beides mit den oben beschriebenen Unsicherheiten.
Was passiert mit den Daten, die ich in ChatGPT eingebe?
Bei der kostenlosen Version und ChatGPT Plus (ohne Opt-Out) nutzt OpenAI Prompts und Uploads zum Weitertraining des Modells. Bei ChatGPT Team, Enterprise und der API mit entsprechender Konfiguration verzichtet OpenAI laut eigenen Angaben auf die Nutzung zum Training. Unabhängig von der Trainingsnutzung werden alle Prompts an OpenAIs Server übertragen und dort verarbeitet - das allein stellt bereits die datenschutzrechtlich relevante Handlung dar.
Wie funktioniert On-Device-Anonymisierung technisch?
Ein Named-Entity-Recognition-Modell (NER) läuft lokal im Browser des Nutzers als ONNX-Modell über WebAssembly (WASM), ohne Server-Kommunikation. Das Modell erkennt personenbezogene Daten im Prompt-Text und ersetzt sie vor dem Absenden durch Platzhalter. Die Zuordnungstabelle zwischen Platzhaltern und Originaldaten bleibt verschlüsselt auf dem Endgerät. In der KI-Antwort werden die Platzhalter automatisch wieder eingesetzt. So bleiben die personenbezogenen Daten auf dem Gerät, während der KI-Anbieter nur anonymisierte Texte erhält.
—-
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für die datenschutzrechtliche Bewertung der KI-Nutzung in deinem Unternehmen konsultiere bitte deinen Datenschutzbeauftragten oder eine auf Datenschutzrecht spezialisierte Kanzlei.



