Compliance-Strategie
ChatGPT sicher im Unternehmen nutzen: Praxisleitfaden 2026

ChatGPT sicher im Unternehmen nutzen: Praxisleitfaden 2026
Deine Mitarbeitenden nutzen ChatGPT. Jeden Tag. Für E-Mail-Entwürfe, Zusammenfassungen von Besprechungen, Vertragsanalysen und Recherchen. Das ist kein Geheimnis mehr. Und es ist auch kein Problem, solange man es datenschutzkonform macht.
Laut dem Cyberhaven AI Adoption Report 2024 landen bereits 27,4 Prozent der Daten, die Mitarbeitende in KI-Tools eingeben, in der Kategorie "sensibel" -- Kundendaten, Vertraege, Quellcode, interne Dokumente. 73,8 Prozent der ChatGPT-Nutzung am Arbeitsplatz erfolgt über private, nicht vom Unternehmen verwaltete Konten. Die Daten fließen also nicht nur zu OpenAI -- sie fließen unkontrolliert dorthin.
Die Frage ist längst nicht mehr, ob dein Team KI-Tools nutzen soll. Die Frage ist: Wie machst du die Nutzung DSGVO-konform, ohne die Produktivitätsvorteile zu verlieren?
Dieser Leitfaden zeigt dir konkret, wo die Risiken liegen, wie du sie manuell minimieren kannst und welche Automatisierung den Prozess im Alltag tragbar macht.
Die 5 größten Datenschutz-Risiken bei ChatGPT im Arbeitsalltag
1. Kunden-E-Mails zur Zusammenfassung einfügen
Das Szenario: Eine Beraterin fügt die E-Mail-Korrespondenz mit einem Kunden in ChatGPT ein und bittet um eine Zusammenfassung der offenen Punkte.
Was dabei an Daten abfließt: Vollständige Namen, E-Mail-Adressen, Telefonnummern, Firmenbezeichnungen, Projektdetails, möglicherweise Vertragskonditionen. All das wird an OpenAIs Server in den USA übermittelt.
Warum das relevant ist: Unter der DSGVO handelt es sich bei jedem dieser Datenpunkte um personenbezogene Daten. Die Übermittlung an OpenAI ist eine Datenübermittlung in ein Drittland -- und zwar bei jeder einzelnen Eingabe. (Mehr zur rechtlichen Einordnung findest du in unserem Artikel Jeder ChatGPT-Prompt ist eine Datenübermittlung.)
2. Vertragsauszüge zur Prüfung hochladen
Das Szenario: Ein Mitarbeiter in der Rechtsabteilung kopiert drei Absätze aus einem Kundenvertrag in ChatGPT, um eine Klausel prüfen zu lassen.
Was dabei an Daten abfließt: Vertragsparteien mit vollen Namen, Vertragswerte, spezifische Konditionen, möglicherweise Vertraulichkeitsklauseln -- ironischerweise also genau die Daten, die die Vertraulichkeitsklausel schützen soll.
Warum das relevant ist: Neben dem Datenschutz können hier Betriebsgeheimnisse und vertragliche Geheimhaltungspflichten verletzt werden. Mandantengeheimnisse im Anwaltsbereich unterliegen zusätzlich dem besonderen Schutz des Berufsgeheimnisses.
3. Patienten- oder Kundennamen in Prompts verwenden
Das Szenario: Eine Sachbearbeiterin in einer Versicherung tippt: "Erstelle eine Zusammenfassung des Schadenfalls von Max Mustermann, geboren am 15.03.1982, Versicherungsnummer DE-4839201."
Was dabei an Daten abfließt: Klartextnamen, Geburtsdaten, Versicherungsnummern -- alles direkt zuordenbar, alles personenbezogene Daten im Sinne der DSGVO, teilweise sogar besonders schützenswerte Daten nach Art. 9 DSGVO (Gesundheitsdaten).
Warum das relevant ist: Gesundheitsbezogene Daten unterliegen dem höchsten Schutzniveau der DSGVO. Ein unkontrollierter Transfer solcher Daten kann Bußgeldverfahren und berufsrechtliche Konsequenzen nach sich ziehen.
4. Interne Projektdetails zum Brainstorming teilen
Das Szenario: Ein Produktmanager gibt ChatGPT eine ausführliche Projektbeschreibung inklusive Codenamen, Zeitplaenen, Budgets und strategischen Zielen, und bittet um Vorschläge für die Kommunikationsstrategie.
Was dabei an Daten abfließt: Interne Projektnamen, Budgetzahlen, strategische Pläne, Markteintrittstermine. Keine personenbezogenen Daten im engeren Sinne, aber Betriebsgeheimnisse.
Warum das relevant ist: Auch wenn die DSGVO hier nicht direkt greift, können Geschäftsgeheimnisse nach dem Geschäftsgeheimnisgesetz (GeschGehG) ihren Schutzstatus verlieren, wenn sie ohne angemessene Schutzmaßnahmen an Dritte weitergegeben werden. Ein Prompt an ChatGPT kann als ungeschützte Offenlegung gewertet werden.
5. API-Keys und Secrets in Code-Prompts übermitteln
Das Szenario: Ein Entwickler fügt eine Konfigurationsdatei oder ein Code-Snippet in ChatGPT ein, um einen Fehler zu finden -- ohne zu bemerken, dass im selben Snippet ein API-Key, ein Datenbank-Passwort oder ein Connection-String hardcoded ist.
Was dabei an Daten abfließt: Zugangsdaten zu Produktivsystemen -- API-Keys, Datenbank-URLs, OAuth-Secrets, interne Service-Endpunkte. Laut Cyberhaven machen Quellcode-Eingaben 12,7 Prozent aller sensiblen Daten aus, die in KI-Tools landen. Die eigentliche Gefahr liegt dabei weniger im Code selbst als in den eingebetteten Secrets.
Warum das relevant ist: Ein einziger geleakter API-Key kann ausreichen, um auf Produktionsdatenbanken, Cloud-Infrastruktur oder Zahlungssysteme zuzugreifen. Im Gegensatz zu einem versehentlich übermittelten Kundennamen lässt sich ein kompromittierter Schlüssel nicht durch Löschen des Chats ungeschehen machen -- er muss rotiert werden, und bis dahin besteht ein offenes Sicherheitsrisiko.
Wohin fließen deine Daten eigentlich? Die Speicherrichtlinien der großen Anbieter
Bevor du weiterliest: Es lohnt sich zu verstehen, was mit den Daten geschieht, die deine Mitarbeitenden in diese Tools eingeben.
Anbieter | Kostenlos/Plus | Enterprise | Quelle |
|---|---|---|---|
OpenAI (ChatGPT) | Standardmäßig gespeichert, kann für Modelltraining genutzt werden. Seit 2024 keine Deaktivierung der Chat-Historie für kostenlose Nutzer. Gelöschte Chats: 30 Tage Aufbewahrung. | Kein Modelltraining. Zero Data Retention verfügbar. AV-Vertrag und EU-Datenresidenz möglich. | |
Anthropic (Claude) | 30 Tage Speicherung. Opt-in für Training: bis 5 Jahre. API-Daten: 7 Tage, kein Training. Verdachtsflags: bis 2 Jahre. | Kein Training. API mit Zero Retention verfügbar. | |
Google (Gemini) | Kann für Modellverbesserung genutzt und durch menschliche Prüfer eingesehen werden. Aufbewahrung bis 3 Jahre, auch nach Konto-Trennung. | Kein Modelltraining. Keine menschliche Überprüfung ohne Zustimmung. |
Die Kernaussage: Bei kostenloser Nutzung -- und das betrifft den Großteil der Schatten-KI im Unternehmen -- werden deine Daten gespeichert, möglicherweise für Modelltraining verwendet und könnten von menschlichen Prüfern eingesehen werden. Enterprise-Pläne bieten besseren Schutz, aber die meisten Mitarbeitenden nutzen eben nicht die Enterprise-Version.
Wichtig fuer Enterprise-Nutzer: Auftragsverarbeitung. Wenn dein Unternehmen ChatGPT Enterprise oder Team nutzt, bietet OpenAI seit 2025 einen Auftragsverarbeitungsvertrag (AV-Vertrag) nach Art. 28 DSGVO sowie die Option für EU-Datenresidenz an. Das ist ein wesentlicher Schritt in Richtung DSGVO-Konformität -- betrifft aber nur die Enterprise-Pläne, nicht die kostenlose Nutzung. Und selbst mit AV-Vertrag bleibt die Pflicht zur Datenminimierung bestehen: Nur die Daten übermitteln, die für den Zweck tatsächlich nötig sind.
Die regulatorische Uhr tickt. Die EU-KI-Verordnung (EU AI Act) tritt im August 2026 in die nächste Anwendungsphase ein und bringt Transparenz- und KI-Governance-Pflichten für Unternehmen mit sich, die KI-Systeme einsetzen. Wer KI-Tools wie ChatGPT im Arbeitsalltag nutzt, muss nachweisen können, dass angemessene Governance-Maßnahmen bestehen. Einschließlich einer internen Richtlinie für den Umgang mit KI. Eine KI-Nutzungsrichtlinie ist nicht mehr optional; sie wird zur regulatorischen Anforderung.
Schritt für Schritt: ChatGPT datenschutzkonform nutzen (die manuelle Methode)
Das Grundprinzip ist einfach: Personenbezogene und sensible Daten müssen aus dem Prompt entfernt werden, bevor er abgeschickt wird. So funktioniert das in der Praxis:
Schritt 1: Prompt vor dem Absenden prüfen
Lies deinen Prompt noch einmal durch und markiere alle Stellen, die personenbezogene Daten, Firmennamen, Adressen, Kontonummern oder andere identifizierbare Informationen enthalten.
Schritt 2: Sensible Daten durch Platzhalter ersetzen
Ersetze identifizierbare Daten durch typisierte Platzhalter:
Originaldaten | Platzhalter |
|---|---|
Max Mustermann | [PERSON_1] |
Muster GmbH | [FIRMA_1] |
[EMAIL_1] | |
DE89 3704 0044 0532 0130 00 | [IBAN_1] |
Freiburg, Hauptstrasse 42 | [ADRESSE_1] |
Beispiel:
Vorher: "Fasse die offenen Punkte aus der E-Mail von Thomas Schneider (Schneider & Partner GmbH) zusammen. Er hat am 15. März angefragt, ob wir den Wartungsvertrag (Vertragsnr. WV-2026-0847) um ein Jahr verlängern koennen."
Nachher: "Fasse die offenen Punkte aus der E-Mail von [PERSON_1] ([FIRMA_1]) zusammen. Er hat am [DATUM_1] angefragt, ob wir den Wartungsvertrag (Vertragsnr. [VERTRAG_1]) um ein Jahr verlängern koennen."
Schritt 3: Anonymisierten Prompt absenden
Sende den bereinigten Prompt an ChatGPT. Die KI arbeitet mit den Platzhaltern genau so gut wie mit den Originaldaten -- sie braucht den echten Namen nicht, um eine E-Mail zusammenzufassen.
Schritt 4: Antwort prüfen und Platzhalter zurückersetzen
Ersetze in der Antwort die Platzhalter wieder durch die Originaldaten, bevor du das Ergebnis weitverwendest.
Schritt 5: Keine Rohdaten in der Chat-Historie belassen
Wenn du ohne Bereinigung gearbeitet hast: Lösche den Chat. Bei kostenlosen OpenAI-Konten werden gelöschte Chats innerhalb von 30 Tagen entfernt.
Das Problem mit der manuellen Methode: Sie funktioniert. Aber sie ist mühsam. Bei fünf bis zehn Prompts am Tag wird das Suchen-und-Ersetzen schnell zur Belastung. Und es genügt ein einziges Mal, in dem du es vergisst, um Daten unwiderruflich zu übermitteln.
Die automatisierte Alternative: Browser-basierte Anonymisierung
Das manuelle Vorgehen aus dem letzten Abschnitt lässt sich vollständig automatisieren -- direkt im Browser, ohne dass Daten deinen Rechner verlassen.
So funktioniert der automatisierte Ablauf:
Du tippst deinen Prompt ganz normal in ChatGPT, Claude oder Gemini -- mit echten Namen, Adressen, Vertraegen.
Bevor der Prompt abgesendet wird, erkennt ein lokales KI-Modell (ein ONNX Named Entity Recognition-Modell, das direkt im Browser per WebAssembly läuft) alle personenbezogenen Daten im Text.
Die erkannten Daten werden durch Platzhalter ersetzt. Nur der anonymisierte Prompt wird an den KI-Anbieter gesendet. Die Zuordnungstabelle (welcher Platzhalter zu welchem Originaldatum gehört) bleibt verschlüsselt auf deinem Gerät.
Die KI-Antwort kommt zurück -- mit den Platzhaltern.
Die Platzhalter werden automatisch durch die Originaldaten ersetzt (die "Rehydrierung"). Du siehst die vollstaendige Antwort mit den richtigen Namen und Daten, aber der KI-Anbieter hat sie nie gesehen.
Entscheidend: Das NER-Modell läuft lokal in deinem Browser. Keine Cloud, kein Proxy, keine Daten an Dritte. Die Anonymisierung findet auf deinem Gerät statt, bevor irgendetwas den Browser verlässt.
Dieses Prinzip -- Anonymisieren, Senden, Empfangen, Rehydrieren -- ist genau das, was im manuellen Verfahren funktioniert, nur ohne den täglichen Aufwand.
Vorlage: KI-Nutzungsrichtlinie für dein Team
Die folgende Vorlage kannst du als Ausgangspunkt für eine interne KI-Nutzungsrichtlinie verwenden. Pass sie an die Anforderungen deines Unternehmens, deiner Branche und deines Datenschutzbeauftragten an.
1. Geltungsbereich
Für welche Mitarbeitenden und Abteilungen gilt diese Richtlinie?
Welche KI-Tools sind abgedeckt (ChatGPT, Claude, Gemini, Copilot, weitere)?
2. Zugelassene Nutzungszwecke
Texterstellung und -bearbeitung (Entwürfe, Zusammenfassungen, Übersetzungen)
Recherche und Ideenfindung
Code-Unterstuetzung (Debugging, Dokumentation, Refactoring)
Datenanalyse (nur mit anonymisierten Datensätzen)
3. Verbotene Eingaben
Personenbezogene Daten (Namen, Adressen, Geburtsdaten, Sozialversicherungsnummern)
Gesundheitsdaten und besondere Kategorien nach Art. 9 DSGVO
Kunden- und Mandanteninformationen in Klartextform
Nicht-öffentliche Finanzdaten, Vertragsdetails und Preiskalkulationen
Zugangsdaten, API-Schluessel, Passwörter
4. Pflicht zur Anonymisierung
Alle Prompts, die auf interne Vorgänge oder Kundendaten Bezug nehmen, müssen vor dem Absenden anonymisiert werden
Empfohlene Methode: Einsatz eines vom Unternehmen freigegebenen Anonymisierungstools oder manuelle Ersetzung durch Platzhalter
Verantwortung für die Anonymisierung liegt bei der eingebenden Person
5. Kontenregelung
Nutzung ausschließlich über vom Unternehmen bereitgestellte Konten (Enterprise/Business-Pläne)
Nutzung privater Konten für geschäftliche Zwecke ist untersagt
Begründung: Enterprise-Plaene schließen die Nutzung von Eingaben für Modelltraining aus
6. Dokumentation und Nachvollziehbarkeit
Relevante KI-gestützte Arbeitsergebnisse müssen als solche gekennzeichnet werden
Abteilungsleitungen führen ein Register der eingesetzten KI-Tools
7. Schulung und Sensibilisierung
Alle Mitarbeitenden absolvieren eine jährliche Schulung zur sicheren KI-Nutzung
Neue Mitarbeitende werden im Onboarding ueber die Richtlinie informiert
8. Verstoß und Meldepflicht
Verstöße gegen diese Richtlinie sind unverzüglich dem Datenschutzbeauftragten zu melden
Unbeabsichtigte Eingaben personenbezogener Daten sind als Datenschutzvorfall zu behandeln
Teil diesen Leitfaden mit deiner Teamleitung oder deinem Datenschutzbeauftragten, sie werden es dir danken.
Quick-Wins-Checkliste: 6 Dinge, die du heute sofort umsetzen kannst
Unabhängig davon, welche Tools du einsetzt oder ob dein Unternehmen bereits eine KI-Richtlinie hat, diese Maßnahmen kannst du sofort umsetzen:
Prüfe deinen nächsten Prompt, bevor du ihn absendest. Lies ihn einmal durch und frag dich: Enthält dieser Text einen Namen, eine Adresse, eine Kontonummer oder ein internes Detail, das nicht nach draußen gehört? Wenn ja, ersetze es durch einen Platzhalter. Das ist die einfachste Form der Datenminimierung.
Deaktiviere die Modelltraining-Option in deinen KI-Tools. Bei ChatGPT: Einstellungen > Datenkontrollen > "Modell für alle verbessern" deaktivieren. Bei Gemini: myaccount.google.com > Daten und Datenschutz > Gemini-Apps-Aktivität deaktivieren. Das verhindert nicht die Speicherung, aber die Nutzung für Modelltraining.
Nutz den temporären Chat-Modus von ChatGPT für sensible Aufgaben. Temporäre Chats werden nicht in deiner Historie gespeichert und nicht für Modelltraining verwendet. Das ersetzt keine Anonymisierung (die Daten erreichen trotzdem OpenAIs Server), reduziert aber den Speicherfußabdruck.
Nutz ein separates Browserprofil für KI-Tools. Erstelle ein eigenes Browserprofil ohne gespeicherte Logins, Autofill-Daten und Cookies. Das verhindert, dass KI-Tools auf deinen browserseitigen Datenbestand zugreifen.
Lösche Chats mit sensiblen Inhalten nach der Nutzung. Auch wenn es kein sofortiges Löschen bei OpenAI gibt (30 Tage Aufbewahrung), reduzierst du damit das Zeitfenster, in dem die Daten zugänglich sind.
Frag deinen Datenschutzbeauftragten nach einer KI-Nutzungsrichtlinie. Falls es noch keine gibt: Die Vorlage oben ist ein guter Startpunkt für das Gespräch. Falls es eine gibt: Lies sie. Viele Mitarbeitende wissen nicht, dass ihr Unternehmen bereits Regeln für KI-Governance hat.
Häufig gestellte Fragen
Ist ChatGPT DSGVO-konform?
Nicht automatisch. Bei kostenlosen und Plus-Konten werden Eingaben gespeichert und koennen für Modelltraining verwendet werden. Das ist mit der DSGVO in vielen Anwendungsfällen nicht vereinbar, insbesondere wenn personenbezogene Daten im Spiel sind. ChatGPT Enterprise bietet seit 2025 einen AV-Vertrag nach Art. 28 DSGVO und EU-Datenresidenz. Damit wird eine DSGVO-konforme Nutzung grundsätzlich möglich. Aber nur, wenn zusätzlich die Pflicht zur Datenminimierung eingehalten wird. Das bedeutet: Auch mit Enterprise-Konto sollten keine personenbezogenen Daten uebermittelt werden, die für den Zweck nicht nötig sind.
Darf ich Kundendaten in ChatGPT eingeben?
Nein. Jedenfalls nicht in Klartextform. Kundennamen, Adressen, Vertragsdaten und andere personenbezogene Daten sind unter der DSGVO geschützt und dürfen nicht ohne Rechtsgrundlage und angemessene Schutzmaßnahmen an Dritte übermittelt werden. Die Lösung: Anonymisiere die Daten vor der Eingabe, indem du sie durch Platzhalter ersetzt (manuell oder automatisiert mit einem Tool wie Rehydra).
Werden meine Daten bei ChatGPT gespeichert?
Ja. Bei kostenlosen und Plus-Konten speichert OpenAI deine Eingaben standardmäßig und kann sie für Modelltraining verwenden. Gelöschte Chats werden innerhalb von 30 Tagen entfernt. Bei Enterprise-Konten ist keine Nutzung für Training vorgesehen, und Zero Data Retention ist optional verfügbar. Die Details findest du in der Vergleichstabelle oben.
Was ist Schatten-KI und warum ist das ein Problem?
Schatten-KI (Shadow AI) bezeichnet die Nutzung von KI-Tools wie ChatGPT, Claude oder Gemini durch Mitarbeitende über private Konten, ohne Wissen und außerhalb der Kontrolle von IT und Compliance. Laut Cyberhaven erfolgen 73,8 Prozent der ChatGPT-Nutzung am Arbeitsplatz über private Konten. Das bedeutet: Sensible Unternehmensdaten fließen an KI-Anbieter ohne Enterprise-Schutz, ohne Audit-Trail und ohne Compliance-Kontrolle.
Braucht mein Unternehmen eine KI-Nutzungsrichtlinie?
Ja. Mit der EU-KI-Verordnung (EU AI Act), die im August 2026 in die nächste Anwendungsphase tritt, müssen Unternehmen, die KI-Systeme einsetzen, dokumentierte KI-Governance-Maßnahmen nachweisen. Eine KI-Nutzungsrichtlinie legt fest, welche Tools zugelassen sind, welche Daten eingegeben werden dürfen und wie Mitarbeitende sensible Eingaben anonymisieren sollen. Sie schützt das Unternehmen rechtlich und gibt den Mitarbeitenden klare Orientierung statt informeller Vorsicht.
Fazit: KI-Nutzung ist kein Risiko. Unkontrollierte KI-Nutzung ist eines
ChatGPT, Claude und Gemini sind produktive Werkzeuge. Sie zu verbieten, ist realitätsfremd. 73,8 Prozent der Nutzung passiert ohnehin über private Konten, an der IT vorbei. Die bessere Strategie: Den Mitarbeitenden zeigen, wie sie diese Tools sicher nutzen koennen, und ihnen die Werkzeuge an die Hand geben, die das möglich machen.
Der manuelle Weg (Prüfen, Ersetzen, Absenden, Wiederherstellen) funktioniert, ist aber im Alltag fehleranfällig und lästig. Browser-basierte Anonymisierung automatisiert genau diesen Prozess: Datenschutz, der den KI-Workflow nicht unterbricht.
Du möchtest diesen Prozess automatisieren? Die Rehydra-Browsererweiterung anonymisiert deine Prompts in Echtzeit, direkt im Browser. Kostenlos, Open Source, keine IT-Einrichtung erforderlich.
Für Chrome installieren | Für Firefox installieren
Was ist das Riskanteste, das du jemals in ChatGPT eingefügt gesehen hast? Schreib uns (anonym), wir sammeln Daten zu Schatten-KI-Praktiken in Unternehmen, um die Diskussion mit noch mehr echten Zahlen zu füttern.



