Compliance-Strategie

EU AI Act August 2026: Was die Compliance-Frist konkret von deinem Team verlangt

Die Zeit wird knapp für den EU AI Act

EU AI Act August 2026: Was die Compliance-Frist konkret von deinem Team verlangt

Am 2. August 2026 wird die EU-KI-Verordnung vollständig durchsetzbar. Noch rund 16 Wochen. Deine Mitarbeitenden nutzen längst ChatGPT. Wie gut ist dein Unternehmen vorbereitet?

Die EU-KI-Verordnung (EU AI Act, Verordnung (EU) 2024/1689) trat am 1. August 2024 in Kraft. Seitdem greifen die Pflichten stufenweise. Am 2. August 2025 wurden die Regeln für KI-Modelle mit allgemeinem Verwendungszweck (GPAI) anwendbar. Am 2. August 2026 folgt der große Rest: Hochrisiko-KI-Systeme, Deployer-Pflichten, und das vollständige Sanktionsregime. Ab diesem Tag können Aufsichtsbehörden Bußgelder verhängen.

Dieser Beitrag erklärt, was die Frist konkret bedeutet. Nicht als juristische Abhandlung, sondern als praktischer Leitfaden für Compliance-Teams und Führungskräfte, die KI-Tools wie ChatGPT, Claude oder Gemini im Alltag einsetzen.

Was am 2. August 2026 konkret in Kraft tritt

Die EU-KI-Verordnung unterscheidet verschiedene Pflichtenkategorien, die zu unterschiedlichen Zeitpunkten greifen. Für den 2. August 2026 sind vor allem zwei Bereiche relevant:

Hochrisiko-KI-Systeme (Art. 6, Anhang III)

KI-Systeme, die in bestimmten sensiblen Bereichen eingesetzt werden, gelten als Hochrisiko. Art. 6 definiert zwei Wege zur Einstufung: Entweder ist das KI-System Sicherheitskomponente eines Produkts, das einer EU-Konformitätsbewertung unterliegt (Art. 6 Abs. 1). Oder das System fällt in eine der acht Kategorien des Anhang III (Art. 6 Abs. 2).

Die Anhang-III-Kategorien umfassen unter anderem:

  • Biometrie: Fernidentifikation, biometrische Kategorisierung, Emotionserkennung

  • Kritische Infrastruktur: Steuerung von Strom-, Gas-, Wasser- oder Verkehrsnetzen

  • Bildung: Zugang zu Bildungseinrichtungen, Prüfungsüberwachung, Bewertung von Lernergebnissen

  • Beschäftigung: Recruiting, Bewerbungsscreening, Leistungsbeurteilung

  • Zugang zu wesentlichen Diensten: Kreditscoring, Versicherungsbewertung, Sozialleistungen

  • Strafverfolgung, Migration, Justiz und demokratische Prozesse

Für diese Systeme greifen ab August 2026 umfassende Anforderungen an Risikomanagement, Datenqualität, Dokumentation und menschliche Aufsicht.

GPAI: Durchsetzung der Sanktionen (Art. 53, Art. 101)

Die Transparenzpflichten für Anbieter von GPAI-Modellen (Art. 53) gelten formal bereits seit August 2025. Neu ab August 2026: Das AI Office kann Bußgelder verhängen. Bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes für Verstöße gegen die GPAI-Pflichten (Art. 101). Anbieter, die ihre Modelle vor dem 2. August 2025 auf den Markt gebracht haben, müssen bis August 2027 konform sein.

Die sechs Kernanforderungen für Hochrisiko-KI im überblick

Wenn dein Unternehmen ein Hochrisiko-KI-System betreibt oder anbietet, gelten ab August 2026 folgende Pflichten. Hier die wichtigsten Artikel, übersetzt in das, was sie praktisch bedeuten:

Art. 9: Risikomanagementsystem

Du brauchst ein dokumentiertes, kontinuierliches Risikomanagementsystem für jedes Hochrisiko-KI-System. Das ist kein einmaliges Assessment, sondern ein lebender Prozess über den gesamten Lebenszyklus des Systems. Risiken müssen identifiziert, bewertet und durch technische Maßnahmen oder Nutzerinformationen reduziert werden.

Was das praktisch heißt: Wenn dein Team ein KI-Tool für Bewerbungsscreening nutzt, musst du dokumentieren, welche Risiken bestehen (Diskriminierung, Bias, fehlerhafte Ablehnungen), wie du sie minderst, und wie du das laufend überprüfst.

Art. 10: Daten-Governance

Trainingsdaten, Validierungsdaten und Testdaten müssen definierten Qualitätskriterien entsprechen. Datensätze müssen die spezifischen geografischen, kontextuellen und funktionalen Eigenheiten der Einsatzumgebung widerspiegeln. Bias-Erkennung ist Pflicht.

Was das praktisch heisst: Du musst nachweisen können, dass die Daten, mit denen dein KI-System trainiert wurde, repräsentativ und qualitätsgesichert sind. Für die meisten Unternehmen, die KI-Dienste Dritter nutzen (ChatGPT, Claude), liegt diese Pflicht beim Anbieter, aber du musst verstehen, welche Daten du als Eingabe lieferst.

Art. 12: Aufzeichnungspflichten

Hochrisiko-KI-Systeme müssen automatische Protokolle (Logs) über ihre gesamte Lebensdauer erzeugen. Deployer müssen diese Logs mindestens sechs Monate aufbewahren.

Was das praktisch heisst: Wenn du ein Hochrisiko-KI-System einsetzt, brauchst du technische Infrastruktur, die protokolliert, wann das System genutzt wurde, welche Eingaben es erhielt, und welche Ergebnisse es lieferte. Bei einer Prüfung musst du diese Daten vorlegen können.

Art. 26: Pflichten der Betreiber (Deployer)

Deployer von Hochrisiko-KI-Systemen müssen sicherstellen, dass sie das System gemäß der Gebrauchsanweisung des Anbieters einsetzen. Sie müssen menschliche Aufsicht durch qualifiziertes Personal gewährleisten, die Funktionsfähigkeit überwachen, bei Risiken den Anbieter und die Aufsichtsbehörde informieren, und betroffene Personen über den Einsatz des KI-Systems informieren.

Was das praktisch heißt: Dein Unternehmen ist nicht aus der Pflicht, nur weil OpenAI oder Google das Modell gebaut haben. Wenn du ein Hochrisiko-KI-System in einem der Anhang-III-Bereiche einsetzt, trägst du eigene regulatorische Pflichten.

Anbieter vs. Betreiber: Warum diese Unterscheidung entscheidend ist

Die grösste Verwirrung rund um die EU-KI-Verordnung: Wer ist Anbieter (Provider), wer ist Betreiber (Deployer)?


Anbieter (Provider)

Betreiber (Deployer)

Wer?

OpenAI, Anthropic, Google, Mistral - Unternehmen, die KI-Modelle oder -Systeme entwickeln und auf den Markt bringen

Dein Unternehmen, wenn es ChatGPT, Claude oder Gemini einsetzt

GPAI-Pflichten (Art. 53)

Ja: Modelldokumentation, Transparenzpflichten gegenüber dem AI Office und nachgelagerten Anbietern

Nein (GPAI-Pflichten betreffen nur Anbieter)

Hochrisiko-Pflichten

Art. 9-15: Risikomanagementsystem, Daten-Governance, Dokumentation, Genauigkeit, Cybersicherheit

Art. 26: Einsatz gemäß Anweisung, menschliche Aufsicht, Monitoring, Informationspflichten, Aufbewahrung von Logs

Konformitätsbewertung

Ja, vor Markteintritt

Nein, aber Mitwirkungspflichten

Sanktionen

Bis zu 35 Mio. EUR / 7 % Umsatz (Art. 99 Abs. 3)

Bis zu 15 Mio. EUR / 3 % Umsatz (Art. 99 Abs. 4)

Das Missverständnis

Viele Unternehmen glauben: "OpenAI ist der Anbieter, also trägt OpenAI die Pflichten. Wir nutzen das Tool nur." Das stimmt, bis zu dem Punkt, an dem du ChatGPT in einem Hochrisikobereich einsetzt. Nutzt dein HR-Team ein KI-gestütztes Tool für Bewerbungsscreening? Setzt deine Kreditabteilung KI zur Bonitätsprüfung ein? Dann bist du Deployer eines Hochrisiko-KI-Systems mit eigenen Pflichten nach Art. 26.

Aber auch ausserhalb von Hochrisikobereichen gelten allgemeine Governance-Erwartungen. Jeder ChatGPT-Prompt ist eine Datenübermittlung, mit allen datenschutzrechtlichen Konsequenzen nach der DSGVO. Die KI-Verordnung kommt zu diesen bestehenden Pflichten hinzu, sie ersetzt sie nicht.

Zeitplan: Was bis August 2026 passieren muss

Hätte bereits erledigt sein sollen (seit Februar 2025)

  • Verbotene KI-Praktiken identifiziert und eingestellt (Art. 5): Social Scoring, Manipulation, Emotionserkennung am Arbeitsplatz ohne Einwilligung

  • KI-Kompetenz im Unternehmen aufgebaut (Art. 4): Mitarbeitende, die mit KI-Systemen arbeiten, müssen ein ausreichendes Maß an KI-Kompetenz haben

Hätte bereits erledigt sein sollen (seit August 2025)

  • Transparenzpflichten für GPAI-Modelle erfüllt (wenn du Anbieter bist)

  • KI-Systeme mit Interaktionsfunktion gekennzeichnet (Art. 50): Nutzer müssen wissen, dass sie mit KI interagieren

Muss bis August 2026 stehen

  • Vollständiges Compliance-Framework für Hochrisiko-KI-Systeme

  • Risikomanagementsystem (Art. 9) dokumentiert und implementiert

  • Daten-Governance-Prozesse (Art. 10) etabliert

  • Aufzeichnungssysteme (Art. 12) technisch umgesetzt

  • Deployer-Pflichten (Art. 26) operationalisiert

  • Sanktionsregime aktiv: Bußgelder bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Verstösse gegen verbotene Praktiken; bis zu 15 Millionen Euro oder 3 % für Verstösse gegen Hochrisiko-Anforderungen

Für KMU gilt eine Erleichterung: Die Bußgelder orientieren sich am niedrigeren Wert, entweder dem Festbetrag oder dem Prozentsatz, je nachdem, was weniger ist (Art. 99 Abs. 7). Das ändert aber nichts daran, dass die Pflichten selbst gelten.

7 konkrete Schritte, die dein Compliance-Team jetzt umsetzen sollte

16 Wochen sind nicht viel. Hier ist ein priorisierter Massnahmenplan:

1. KI-Inventar erstellen, auch Schatten-KI erfassen

Erstelle eine vollständige Liste aller KI-Tools, die in deinem Unternehmen genutzt werden. Nicht nur die offiziell eingeführten, auch die, die Mitarbeitende eigenständig nutzen. ChatGPT mit privatem Account im Browser, Copilot in der IDE, Midjourney für Präsentationen, Claude für Zusammenfassungen. Studien zeigen, dass 77 % der Mitarbeitenden KI-Tools nutzen, oft ohne Wissen der IT-Abteilung. Ohne vollständiges Inventar weißt du nicht, wo deine Risiken liegen.

Ergebnis: Eine zentrale Liste mit Tool-Name, Anbieter, Einsatzbereich, Nutzerzahl, Datentypen.

2. Risikostufen nach Anhang III klassifizieren

Prüfe für jedes KI-Tool im Inventar: Fällt der Einsatzzweck in eine der acht Kategorien des Anhang III? Wird das Tool für Personalentscheidungen genutzt? Für Kreditvergabe? Für Zugangskontrollen? Wenn ja: Hochrisiko. Wenn nein: geringeres Risiko, aber nicht pflichtenfrei.

Ergebnis: Risikomatrix mit Einstufung jedes KI-Systems nach EU-AI-Act-Kategorien.

3. Datenflüsse dokumentieren

Für jedes KI-Tool: Welche Daten fließen wohin? Wenn ein Mitarbeiter einen Kundenvertrag in ChatGPT eingibt, werden personenbezogene Daten an OpenAI-Server in den USA übermittelt. Das betrifft nicht nur die KI-Verordnung, sondern auch die DSGVO (Art. 44 ff. Drittlandsübermittlung). Dokumentiere: Welche Datentypen werden eingegeben? Wohin werden sie übertragen? Welche Rechtsgrundlage existiert?

Ergebnis: Datenflussdiagramm pro KI-Tool mit Datenkategorien, Empfängern und Rechtsgrundlagen.

4. Technische Schutzmassnahmen für personenbezogene Daten implementieren

Datenminimierung ist ein Grundprinzip der DSGVO (Art. 5 Abs. 1 lit. c) und ein praktisches Compliance-Instrument für die KI-Verordnung. Wenn personenbezogene Daten gar nicht erst an den KI-Anbieter übermittelt werden, reduzieren sich Transferrisiken, Dokumentationspflichten und Angriffsflächen gleichzeitig. On-Device-Anonymisierung, also die Erkennung und Ersetzung personenbezogener Daten direkt im Browser, bevor der Prompt den Rechner verlässt, adressiert mehrere Anforderungen gleichzeitig: Datenminimierung nach DSGVO, Reduktion von Drittlandübermittlungen, und nachweisbare technische Schutzmaßnahmen im Sinne der KI-Governance.

Ergebnis: Technische Controls implementiert und dokumentiert.

5. Mitarbeitende schulen

KI-Kompetenz ist seit Februar 2025 Pflicht (Art. 4). Aber Pflicht und Realität klaffen oft auseinander. Deine Mitarbeitenden müssen wissen: Welche Daten dürfen in welches KI-Tool eingegeben werden? Was passiert mit den Daten? Welche internen Richtlinien gelten? Schulungen sollten praxisnah sein. Nicht abstrakte DSGVO-Theorie, sondern konkrete Szenarien: "Darf ich diesen Kundenvertrag in ChatGPT zusammenfassen lassen?"

Ergebnis: Schulungskonzept, durchgeführte Schulungen, dokumentierte Teilnahme.

6. Monitoring-Prozesse etablieren

Compliance ist kein einmaliges Projekt. Du brauchst laufende Prozesse: Regelmässige überprüfung des KI-Inventars (neü Tools tauchen ständig auf), Monitoring der Nutzung, Eskalationswege bei Vorfällen, und regelmässige Risikoneubewertung. Art. 26 verlangt von Deployern ausdrücklich, die Funktionsfähigkeit des KI-Systems zu überwachen und bei Risiken den Anbieter sowie die Aufsichtsbehörde zu informieren.

Ergebnis: Monitoring-Konzept mit Verantwortlichkeiten, Intervallen und Eskalationsprozess.

7. Dokumentation für Aufsichtsbehörden vorbereiten

Ab August 2026 können Aufsichtsbehörden prüfen. Bereite dich darauf vor, folgende Fragen beantworten zu können: Welche KI-Systeme setzt ihr ein? Wie habt ihr die Risikostufe bestimmt? Welche technischen und organisatorischen Maßnahmen habt ihr getroffen? Wie gewährleistet ihr menschliche Aufsicht? Wo sind die Logs? Art. 26 Abs. 5 verpflichtet Deployer ausdrücklich zur Zusammenarbeit mit zuständigen Behörden.

Ergebnis: Compliance-Dokumentationspaket, jederzeit vorlegbar.

Compliance-Readiness: 10 Fragen zur Selbsteinschätzung

Geh diese Checkliste mit deinem Team durch. Jedes "Nein" ist eine offene Flanke.

Nr.

Frage

Ja / Nein

1

Haben wir ein vollständiges Inventar aller KI-Tools, die in unserem Unternehmen genutzt werden, einschließlich privater Accounts und inoffizieller Nutzung?


2

Haben wir für jedes KI-Tool geprüft, ob der Einsatzzweck in eine Hochrisikokategorie nach Anhang III fällt?


3

Können wir für jedes KI-Tool dokumentieren, welche Daten wohin fließen und auf welcher Rechtsgrundlage?


4

Haben wir technische Massnahmen implementiert, die verhindern, dass personenbezogene Daten unkontrolliert an KI-Anbieter übermittelt werden?


5

Haben alle Mitarbeitenden, die KI-Tools nutzen, eine dokumentierte Schulung zu KI-Kompetenz und internen Nutzungsrichtlinien erhalten (Art. 4)?


6

Gibt es eine klare interne Richtlinie, welche Datentypen in welche KI-Tools eingegeben werden dürfen?


7

Existiert ein dokumentiertes Risikomanagementsystem für unsere Hochrisiko-KI-Systeme (Art. 9)?


8

Haben wir Prozesse für die Aufbewahrung automatisch erzeugter Logs mit einer Mindestdauer von sechs Monaten (Art. 12, Art. 26)?


9

Ist definiert, wer die menschliche Aufsicht über KI-gesteürte Entscheidungsprozesse verantwortet, und hat diese Person die nötige Qualifikation und Befugnis?


10

Könnten wir bei einer behördlichen Anfrage innerhalb von zwei Wochen ein vollständiges Compliance-Dokumentationspaket vorlegen?


Auswertung:

  • 8-10 Ja: Dein Unternehmen ist gut aufgestellt. Fokussiere dich auf Lückenschluss und laufendes Monitoring.

  • 5-7 Ja: Grundlagen sind da, aber erhebliche Lücken bestehen. Priorisiere die fehlenden Bereiche in den nächsten 16 Wochen.

  • 0-4 Ja: Akuter Handlungsbedarf. Starte sofort mit dem KI-Inventar (Schritt 1) und der Risikoklassifizierung (Schritt 2).

Häufig gestellte Fragen

Was ist der EU AI Act?

Der EU AI Act (offiziell: Verordnung (EU) 2024/1689, auch EU-KI-Verordnung) ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz. Er legt risikobasierte Anforderungen für KI-Systeme fest - von verbotenen Praktiken über Hochrisiko-Pflichten bis zu Transparenzregeln für allgemeine KI-Modelle. Die Verordnung gilt unmittelbar in allen EU-Mitgliedstaaten und trat am 1. August 2024 in Kraft. Die vollständige Durchsetzung erfolgt stufenweise bis August 2027.

Wer ist vom EU AI Act betroffen?

Jedes Unternehmen, das KI-Systeme in der EU anbietet oder einsetzt. Das umfasst Anbieter (Entwickler wie OpenAI, Google, Anthropic), Betreiber (Unternehmen, die diese Tools einsetzen), Importeure und Händler. Auch Unternehmen ausserhalb der EU sind betroffen, wenn ihre KI-Systeme in der EU genutzt werden oder deren Output in der EU verwendet wird. In der Praxis: Wenn dein Unternehmen ChatGPT nutzt, bist du zumindest als Nutzer, möglicherweise als Deployer reguliert.

Welche Strafen drohen bei Verstössen gegen den EU AI Act?

Die Sanktionen sind gestaffelt: Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für verbotene KI-Praktiken (Art. 99 Abs. 3). Bis zu 15 Millionen Euro oder 3 % für Verstöße gegen Hochrisiko-Anforderungen (Art. 99 Abs. 4). Bis zu 7,5 Millionen Euro oder 1 % für irreguläre Angaben (Art. 99 Abs. 5). Für KMU und Startups gelten reduzierte Obergrenzen. Die Bußgelder übersteigen damit sogar das DSGVO-Maximum von 20 Millionen Euro oder 4 % Umsatz.

Müssen wir ChatGPT im Unternehmen verbieten, um konform zu sein?

Nein. Die EU-KI-Verordnung verbietet nicht die Nutzung von KI-Tools. Sie verlangt, dass der Einsatz verantwortungsvoll, transparent und mit angemessenen Schutzmaßnahmen erfolgt. Das bedeutet konkret: Ein Inventar der genutzten Tools, klare interne Richtlinien, Schulungen, technische Schutzmaßnahmen (etwa Anonymisierung personenbezogener Daten vor der übermittlung) und Dokumentation. ChatGPT sicher im Unternehmen nutzen ist machbar, es erfordert aber bewusste Governance statt Wegschauen.

Nächster Schritt

Die Frist steht. 16 Wochen sind machbar, wenn du jetzt anfängst. Beginne mit dem KI-Inventar, klassifiziere Risiken, dokumentiere Datenflüsse.

Einer der schnellsten technischen Controls: Die Rehydra Browser-Extension anonymisiert personenbezogene Daten direkt auf deinem Gerät, bevor sie an ChatGPT, Claude oder Gemini übermittelt werden. Kein Datenabfluss, kein Cloud-Umweg, Open Source. Verfügbar für Chrome und Firefox.

Diesen Artikel teilen
Besuche unser Github