Rechtslage

DSGVO und KI: Dürfen Unternehmen personenbezogene Daten an KI-Tools senden?

Rechtliche Analyse von Art. 6, Auftragsverarbeitung, Drittlandtransfer und EU AI Act

Die Nutzung von KI-Tools wie ChatGPT, Copilot oder DeepL im Unternehmen wirft grundlegende datenschutzrechtliche Fragen auf. Dürfen personenbezogene Daten an diese Dienste übermittelt werden? Welche Rechtsgrundlage greift? Und was bedeutet der neue EU AI Act für die Praxis?

Dieser Artikel analysiert die rechtlichen Rahmenbedingungen systematisch — von der Rechtsgrundlage nach Art. 6 DSGVO über die Frage der Auftragsverarbeitung bis hin zum Drittlandtransfer und den Stellungnahmen der Datenschutzbehörden. Am Ende steht eine praxistaugliche Handlungsempfehlung für Unternehmen, die KI-Tools DSGVO-konform einsetzen wollen.

Hinweis: Dieser Artikel stellt keine Rechtsberatung dar. Er bietet eine Orientierung auf Basis der aktuellen Rechtslage und der Stellungnahmen der Datenschutzbehörden. Für eine verbindliche Einschätzung konsultieren Sie Ihren Datenschutzbeauftragten oder einen Fachanwalt für Datenschutzrecht.

Rechtsgrundlage: Art. 6 DSGVO

Auf welcher Basis dürfen personenbezogene Daten an KI-Tools übermittelt werden?

Jede Verarbeitung personenbezogener Daten benötigt eine Rechtsgrundlage nach Art. 6 Abs. 1 DSGVO. Für die Nutzung von KI-Tools kommen vor allem drei Rechtsgrundlagen in Betracht:

Einwilligung (Art. 6 Abs. 1 lit. a)

Die betroffene Person kann in die Verarbeitung einwilligen. In der Praxis ist das für Unternehmensdaten jedoch kaum praktikabel: Wer holt die Einwilligung aller in einem Vertrag genannten Personen ein, bevor der Vertrag von einer KI analysiert wird? Zudem muss die Einwilligung jederzeit widerrufbar sein, was die KI-Nutzung erschwert.

Vertragserfüllung (Art. 6 Abs. 1 lit. b)

Die Verarbeitung ist zulässig, wenn sie zur Erfüllung eines Vertrags erforderlich ist. Das greift in den wenigsten Fällen, da die KI-Nutzung in der Regel nicht vertraglich vereinbart ist und die betroffenen Personen nicht Vertragspartei der KI-Nutzung sind.

Berechtigtes Interesse (Art. 6 Abs. 1 lit. f)

Die in der Praxis am häufigsten herangezogene Rechtsgrundlage. Das Unternehmen hat ein berechtigtes Interesse an der effizienten Verarbeitung von Dokumenten. Dieses muss jedoch gegen die Interessen der betroffenen Personen abgewogen werden. Je sensibler die Daten, desto schwerer wiegt das Schutzinteresse der Betroffenen.

Praxistipp: Pseudonymisierung stärkt die Interessenabwägung erheblich. Wenn nur Pseudonyme an die KI übermittelt werden, ist das Risiko für die betroffenen Personen deutlich geringer — das berechtigte Interesse des Unternehmens überwiegt in der Regel.

Auftragsverarbeitung: Art. 28 DSGVO

Ist OpenAI ein Auftragsverarbeiter — und was bedeutet das?

Wenn ein Unternehmen personenbezogene Daten an einen externen Dienstleister übermittelt, der diese im Auftrag verarbeitet, liegt eine Auftragsverarbeitung nach Art. 28 DSGVO vor. Dies erfordert einen Auftragsverarbeitungsvertrag (DPA).

Die Gretchenfrage: Auftragsverarbeiter oder eigenständiger Verantwortlicher?

Die Einordnung von KI-Anbietern wie OpenAI ist rechtlich umstritten:

  • Für Auftragsverarbeitung spricht: Der KI-Anbieter verarbeitet Daten im Auftrag des Nutzers, hat keinen eigenen Verwendungszweck und handelt nach Weisungen.
  • Gegen Auftragsverarbeitung spricht: OpenAI nutzt Eingabedaten (bei bestimmten Produkten) zum Modelltraining — das ist ein eigener Verarbeitungszweck, der über die Auftragsverarbeitung hinausgeht.

DPA bei Enterprise-Produkten

ChatGPT Enterprise, Microsoft Copilot (mit Microsoft 365 DPA) und Google Gemini Enterprise bieten Auftragsverarbeitungsverträge an. Diese regeln:

  • Kein Modelltraining mit Kundendaten
  • Datenverarbeitung nur im Rahmen der vertraglich vereinbarten Zwecke
  • Technische und organisatorische Maßnahmen zum Datenschutz
  • Unterauftragsverarbeiter und deren Standorte

Das Restrisiko bleibt

Auch mit DPA bleiben Risiken: Die Daten verlassen die EU, werden auf US-Servern verarbeitet und unterliegen US-Recht. Pseudonymisierung löst dieses Problem, da die KI nur Pseudonyme verarbeitet — selbst bei einem Datenleck auf Seiten des Anbieters sind die echten Daten nicht betroffen.

Drittlandtransfer: Art. 44-49 DSGVO

Die Problematik der Datenübermittlung in die USA nach Schrems II

Die meisten KI-Tools werden von US-Unternehmen betrieben. Die Übermittlung personenbezogener Daten in die USA unterliegt strengen Regeln:

EU-US Data Privacy Framework

Seit Juli 2023 ermöglicht der Angemessenheitsbeschluss der EU-Kommission den Datentransfer an zertifizierte US-Unternehmen. OpenAI und Microsoft sind zertifiziert. Allerdings:

  • Der Angemessenheitsbeschluss könnte erneut angefochten werden (nach Schrems I und Schrems II)
  • US-Geheimdienste haben unter bestimmten Umständen Zugriff auf Daten (FISA Section 702)
  • Für besonders sensible Daten (Gesundheit, Finanzen, Berufsgeheimnisse) ist zusätzlicher Schutz ratsam

Stellungnahmen der Datenschutzbehörden

Die europäischen Datenschutzbehörden haben sich mehrfach zur KI-Nutzung geäußert:

  • Italien (Garante, 2023): Temporäres ChatGPT-Verbot wegen fehlender Rechtsgrundlage, mangelnder Transparenz und fehlendem Altersschutz. Nach Nachbesserungen durch OpenAI wurde das Verbot aufgehoben.
  • EDPB Task Force (2024): Die europäische Datenschutzausschuss-Task Force erarbeitet harmonisierte Leitlinien zur DSGVO-konformen KI-Nutzung.
  • Hamburgischer BfDI (2023): Warnung vor unkontrollierter ChatGPT-Nutzung in Unternehmen und Behörden. Empfehlung: Daten vor der Eingabe anonymisieren oder pseudonymisieren.
  • Französische CNIL (2024): Veröffentlichung praktischer Leitfäden zur DSGVO-konformen Nutzung von generativer KI.

EU AI Act: Die neue Regulierung

Was der EU AI Act für die Verarbeitung personenbezogener Daten mit KI bedeutet

Der EU AI Act (Verordnung (EU) 2024/1689) trat am 1. August 2024 in Kraft und wird schrittweise bis 2027 anwendbar. Er ergänzt die DSGVO um spezifische Anforderungen an KI-Systeme:

Risikoklassifizierung

Der AI Act klassifiziert KI-Systeme in vier Risikostufen:

  • Unannehmbares Risiko: Verboten (z. B. Social Scoring, biometrische Echtzeit-Überwachung)
  • Hohes Risiko: Strenge Anforderungen an Transparenz, Dokumentation, Datenqualität
  • Begrenztes Risiko: Transparenzpflichten (z. B. Kennzeichnung von KI-generierten Inhalten)
  • Minimales Risiko: Keine besonderen Auflagen

General-Purpose AI (GPAI)

ChatGPT, Copilot und Claude fallen als allgemeine KI-Modelle unter die GPAI-Vorschriften. Anbieter müssen Transparenzanforderungen erfüllen, technische Dokumentation bereitstellen und bei Modellen mit systemischem Risiko zusätzliche Sicherheitsmaßnahmen implementieren.

Datenschutz bleibt Pflicht

Der AI Act ersetzt die DSGVO nicht, sondern ergänzt sie. Für die Verarbeitung personenbezogener Daten gelten weiterhin die DSGVO-Anforderungen. Der AI Act betont explizit, dass technische Schutzmaßnahmen wie Pseudonymisierung und Anonymisierung eingesetzt werden sollten.

Praxisempfehlung: Wann ist KI-Nutzung erlaubt?

Klare Regeln für den DSGVO-konformen Einsatz von KI-Tools

KI-Nutzung ist in der Regel zulässig, wenn:

  • Ein DPA mit dem KI-Anbieter besteht (Enterprise-Vertrag)
  • Das berechtigte Interesse als Rechtsgrundlage tragfähig ist
  • Die Anforderungen an den Drittlandtransfer erfüllt sind
  • Daten vor der Übermittlung pseudonymisiert oder anonymisiert werden
  • Eine Datenschutz-Folgenabschätzung (DPIA) durchgeführt wurde
  • Mitarbeiter über die Risiken und korrekten Handhabung geschult sind

KI-Nutzung ist kritisch oder unzulässig, wenn:

  • Sensible Daten (Art. 9 DSGVO: Gesundheit, Religion, sexuelle Orientierung) ohne besondere Schutzmaßnahmen verarbeitet werden
  • Daten von Minderjährigen betroffen sind
  • Kein DPA besteht und kostenlose Versionen genutzt werden
  • Berufsgeheimnisse (Anwalts-, Steuer-, Arztgeheimnis) betroffen sind
  • Keine Datenschutz-Folgenabschätzung durchgeführt wurde

Kernempfehlung: Pseudonymisierung ist die pragmatischste Lösung für die meisten Anwendungsfälle. Sie reduziert das Datenschutzrisiko erheblich, stärkt die Interessenabwägung nach Art. 6 Abs. 1 lit. f und ermöglicht die produktive Nutzung von KI-Tools, ohne personenbezogene Daten preiszugeben. Docuflair Mask automatisiert diesen Prozess vollständig On-Premises.

KI-Tools DSGVO-konform einsetzen

Mit Docuflair Mask pseudonymisieren Sie Dokumente automatisch, bevor sie an KI-Tools übergeben werden. On-Premises, DSGVO-konform und in nur 15 Minuten live erleben.

Häufig gestellte Fragen

Antworten auf die wichtigsten Fragen zu DSGVO und KI

Ist OpenAI ein Auftragsverarbeiter nach Art. 28 DSGVO?

Die Einordnung ist umstritten. OpenAI verarbeitet Daten teilweise für eigene Zwecke (z. B. Modelltraining), was gegen eine reine Auftragsverarbeitung spricht. Bei ChatGPT Enterprise gibt es ein Data Processing Agreement, aber die Verantwortung für die DSGVO-Konformität liegt weiterhin beim nutzenden Unternehmen.

Darf ich personenbezogene Daten an US-basierte KI-Tools senden?

Der Datentransfer in die USA ist seit dem EU-US Data Privacy Framework unter bestimmten Bedingungen möglich. OpenAI ist zertifiziert. Dennoch bestehen Restrisiken, da US-Behörden unter bestimmten Umständen auf die Daten zugreifen können. Pseudonymisierung minimiert das Risiko, da keine echten personenbezogenen Daten übertragen werden.

Was sagt der EU AI Act zur Verarbeitung personenbezogener Daten?

Der EU AI Act klassifiziert KI-Systeme nach Risikostufen. Für Hochrisiko-KI-Systeme gelten strenge Anforderungen an Transparenz, Dokumentation und Datenqualität. Die Verarbeitung personenbezogener Daten muss zusätzlich die DSGVO-Anforderungen erfüllen. Pseudonymisierung wird als wirksame Schutzmaßnahme anerkannt.

Wann ist die KI-Nutzung mit personenbezogenen Daten erlaubt?

Die KI-Nutzung ist erlaubt, wenn eine Rechtsgrundlage vorliegt (z. B. Einwilligung, berechtigtes Interesse), ein DPA mit dem Anbieter besteht, die Anforderungen an den Drittlandtransfer erfüllt sind und geeignete technische Schutzmaßnahmen wie Pseudonymisierung implementiert sind.

In 15 Min. live erleben

Unverbindlich & kostenlos
Demo starten