ChatGPT im Unternehmen und DSGVO: Was Arbeitgeber jetzt wissen müssen

KI-Tools wie ChatGPT sind in vielen Unternehmen längst Alltag. Was die wenigsten dabei prüfen: Jeder Prompt ist eine Datenverarbeitung. Und die hat datenschutzrechtliche Konsequenzen – sowohl für den Einsatz als auch für die interne Organisation.

Wenn Mitarbeiter Kundendaten in ChatGPT eingeben, Vertragsklauseln mit Klarnamen prüfen lassen oder Personalgespräche zusammenfassen, verarbeiten sie personenbezogene Daten auf Servern außerhalb der EU. Ohne die richtigen vertraglichen und organisatorischen Vorkehrungen ist das oft ein DSGVO-Verstoß – auch wenn niemand dabei etwas Böses im Sinn hatte.

Das Wichtigste in Kürze

Was Unternehmen beim beruflichen Einsatz von ChatGPT unter der DSGVO beachten müssen, lässt sich auf folgende Kernpunkte zusammenfassen:

  • Jeder Prompt mit personenbezogenen Daten ist eine Verarbeitung im Sinne der DSGVO und braucht eine Rechtsgrundlage.
  • Wer ChatGPT beruflich einsetzt, muss mit OpenAI einen Auftragsverarbeitungsvertrag (Art. 28 DSGVO) abschließen.
  • Die Datenübertragung in die USA ist ein Drittlandtransfer. Er ist nur unter bestimmten Voraussetzungen zulässig (Art. 44 ff. DSGVO).
  • Mitarbeiterdaten dürfen nicht ohne weiteres in externe KI-Systeme eingegeben werden. Hier gelten besondere Sorgfaltspflichten.
  • Bei besonders risikoreichen KI-Einsätzen ist vorab eine Datenschutz-Folgenabschätzung erforderlich (Art. 35 DSGVO).
  • Ohne interne KI-Richtlinie wissen Mitarbeiter oft nicht, was erlaubt ist. Die organisatorische Lücke ist meist größer als die rechtliche.

Warum ist jeder Prompt eine Datenverarbeitung?

Die DSGVO erfasst jede Verarbeitung personenbezogener Daten, unabhängig davon, ob sie automatisiert erfolgt oder ob eine natürliche oder juristische Person die Verarbeitung veranlasst. Wenn ein Mitarbeiter den Namen eines Kunden in einen Prompt eingibt, ist das eine Verarbeitung dieser Daten – durch das Unternehmen, das das Tool einsetzt, und durch den Anbieter, der die Infrastruktur betreibt.

Dabei spielt es keine Rolle, ob der Name für die Antwort relevant war oder ob er „nur" im Kontext mitgegeben wurde. Entscheidend ist, ob die Daten übermittelt und dort verarbeitet wurden. Das ist bei jedem API-Aufruf der Fall.

Viele Unternehmen sind sich dieser Konsequenz nicht bewusst, weil sie KI-Tools intuitiv wie eine Suchmaschine behandeln. Datenschutzrechtlich ist der Unterschied aber erheblich. Was bei Google-Suchen ohne Personenbezug harmlos ist, wird bei ChatGPT-Prompts mit Kundennamen, Geburtsdaten oder Beschäftigungsinformationen schnell zum Problem.

Was ist ein Auftragsverarbeitungsvertrag – und brauche ich ihn?

Wer personenbezogene Daten durch einen externen Dienstleister verarbeiten lässt, muss mit diesem Dienstleister einen Auftragsverarbeitungsvertrag (AVV) abschließen. Das regelt Art. 28 DSGVO verbindlich. Der AVV legt fest, welche Daten zu welchem Zweck verarbeitet werden, welche technischen und organisatorischen Maßnahmen der Dienstleister einhält und wie Löschpflichten geregelt sind.

OpenAI bietet für die API-Nutzung (also für ChatGPT-Integrationen in Unternehmenssoftware) entsprechende Vertragsgrundlagen an. Wer dagegen das kostenlose oder kostenpflichtige Chat-Frontend unter chat.openai.com verwendet, ohne eine API-Anbindung, tut das als Endnutzer – und hat damit in der Regel keinen AVV. OpenAI nutzt diese Eingaben unter Umständen für das Training eigener Modelle, was eigene datenschutzrechtliche Fragen aufwirft.

Für den Unternehmenseinsatz bedeutet das: Wer Mitarbeitern die Nutzung von ChatGPT erlaubt, sollte sicherstellen, dass entweder die API-Version mit AVV genutzt wird oder dass der Einsatz auf Inhalte ohne Personenbezug beschränkt ist. Andernfalls besteht das Risiko, dass keine ausreichende vertragliche Grundlage für die Datenübermittlung an OpenAI besteht.

Was bedeutet der Drittlandtransfer in die USA?

OpenAI ist ein US-amerikanisches Unternehmen. Wer Daten über ChatGPT oder die OpenAI-API verarbeitet, überträgt diese Daten in die USA. Das ist ein sogenannter Drittlandtransfer im Sinne von Art. 44 ff. DSGVO, weil die USA kein Angemessenheitsbeschluss der EU-Kommission zukommt.

Seit dem EU-US Data Privacy Framework, das im Juli 2023 in Kraft getreten ist, gibt es für zertifizierte US-Unternehmen wieder eine Rechtsgrundlage. OpenAI ist dem Framework beigetreten. Das erleichtert die Situation, löst sie aber nicht vollständig. Zum einen steht das Framework politisch unter Druck – insbesondere nach Entwicklungen im Zusammenhang mit US-amerikanischer Datenzugriffspolitik. Zum anderen müssen Unternehmen den Transfer weiterhin dokumentieren und im Verzeichnis der Verarbeitungstätigkeiten festhalten.

Wer auf Nummer sicher gehen will, sollte ergänzend Standardvertragsklauseln (Art. 46 Abs. 2 lit. c DSGVO) vereinbaren und prüfen, ob der konkrete Anwendungsfall eine zusätzliche Risikoabschätzung erfordert. Das gilt insbesondere für besonders sensible Daten wie Gesundheitsdaten, biometrische Merkmale oder Daten aus dem Personalbereich.

Welche Daten dürfen in einen Prompt?

Die kürzeste Antwort: Sobald Daten identifizierbare Personen betreffen, gelten die DSGVO-Pflichten. Die Praxis ist komplizierter, weil viele Mitarbeiter nicht intuitiv unterscheiden, welche Informationen personenbezogen sind und welche nicht.

Unproblematisch sind in der Regel allgemeine Anfragen, Textbearbeitungen ohne Personenbezug, Entwürfe mit fiktiven Beispielen oder Recherchen zu allgemeinen Rechtsfragen. Sobald aber Namen, Adressen, Vertragsdaten, Krankengeschichten oder andere Informationen einfließen, die eine natürliche Person identifizierbar machen, ist die DSGVO im Spiel.

Für die Praxis bedeutet das vor allem drei Problemzonen:

  • Kundendaten: Wer Vertragsentwürfe, Korrespondenz oder CRM-Inhalte mit Kundendaten in ChatGPT eingibt, überträgt diese Daten ohne eine klare Rechtsgrundlage auf Basis einer Einwilligung oder eines berechtigten Interesses. Kunden haben dem in der Regel nicht zugestimmt.
  • Mitarbeiterdaten: Personalgespräche, Krankmeldungen, Leistungsbeurteilungen – all das sind besonders sensible Daten. Ihre Verarbeitung über externe KI-Systeme bedarf einer belastbaren Rechtsgrundlage und häufig auch der Einbeziehung des Betriebsrats.
  • Mandantengeheimnisse (für Kanzleien): Rechtsanwälte und Steuerberater unterliegen Berufsverschwiegenheitspflichten. Das Einspeisen von Mandantendaten in externe KI-Systeme kann diese Pflichten verletzen, unabhängig von der datenschutzrechtlichen Bewertung.

Wann brauche ich eine Datenschutz-Folgenabschätzung?

Für bestimmte Verarbeitungen verlangt Art. 35 DSGVO vorab eine Datenschutz-Folgenabschätzung (DSFA). Das gilt, wenn die Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat.

Bei KI-Tools ist das relevanter, als viele denken. Wer KI-Systeme für die Bewerbungsauswahl, Leistungsbewertung von Mitarbeitern, automatisierte Entscheidungen über Kreditwürdigkeit oder personalisierte Inhalte mit erheblichen Auswirkungen einsetzt, kommt um eine DSFA nicht herum. Auch die systematische Verarbeitung besonderer Kategorien von Daten nach Art. 9 DSGVO löst die Pflicht aus.

Viele Datenschutzbehörden haben Listen veröffentlicht, welche Verarbeitungsarten in jedem Fall eine DSFA erfordern. Diese Listen sind ein sinnvoller Ausgangspunkt für die Einschätzung. Faustregel: Wer KI zur Entscheidungsunterstützung in Bereichen einsetzt, die erhebliche Auswirkungen auf Personen haben können, sollte die DSFA-Pflicht ernsthaft prüfen.

Welche Rolle spielt der Betriebsrat?

In Betrieben mit Betriebsrat kommt eine weitere Ebene hinzu. § 87 Abs. 1 Nr. 6 BetrVG gibt dem Betriebsrat ein Mitbestimmungsrecht bei der Einführung technischer Einrichtungen, die dazu geeignet sind, das Verhalten oder die Leistung von Arbeitnehmern zu überwachen.

ChatGPT und vergleichbare Tools fallen darunter, sobald sie so eingesetzt werden, dass daraus Rückschlüsse auf die Arbeitsweise, die Produktivität oder das Verhalten einzelner Mitarbeiter gezogen werden können – etwa wenn Prompts protokolliert oder Nutzungsdaten ausgewertet werden. Auch wenn das Tool selbst keine Überwachungsfunktion hat, kann der betriebliche Einsatz mitbestimmungspflichtige Aspekte enthalten.

Wer KI-Tools unternehmensbreit einführen will, sollte den Betriebsrat frühzeitig einbinden. Eine Betriebsvereinbarung, die den Einsatzrahmen, die zulässigen Daten und die Protokollierung regelt, schafft Rechtssicherheit auf beiden Seiten.

Wie kann ich Ihnen helfen?

Ich berate Unternehmen, Kanzleien und HR-Teams beim datenschutzkonformen Einsatz von KI-Tools. Das umfasst die Prüfung der vertraglichen Grundlagen mit Anbietern wie OpenAI, die Bewertung von Drittlandtransfers, die Erstellung interner KI-Richtlinien und – wenn nötig – die Begleitung von Datenschutz-Folgenabschätzungen. Ich unterstütze außerdem bei der Einbindung des Betriebsrats und bei der Formulierung praxistauglicher Nutzungsregelungen.

Was gehört in eine interne KI-Richtlinie?

Die häufigste Schwachstelle in Unternehmen ist nicht die Technik, sondern die fehlende interne Kommunikation darüber, was erlaubt ist und was nicht. Mitarbeiter nutzen ChatGPT, weil es ihnen die Arbeit erleichtert. Datenschutzrechtliche Grenzen kennen sie dabei oft nicht.

Eine praxistaugliche KI-Richtlinie muss nicht lang sein. Sie sollte aber mindestens folgende Punkte adressieren:

  • Welche KI-Tools sind im Unternehmen freigegeben?
  • Welche Daten dürfen eingegeben werden, welche nicht?
  • Gibt es für bestimmte Bereiche (HR, Buchhaltung, Rechtsabteilung) besondere Einschränkungen?
  • Welche Version des Tools ist zulässig – API mit AVV oder nur das Consumer-Frontend?
  • Wer ist intern Ansprechpartner für datenschutzrechtliche Fragen?

Wer diese Fragen nicht schriftlich klärt, überlässt die Entscheidung jedem einzelnen Mitarbeiter. Das ist in der Praxis keine Lösung, sondern ein Risiko.

Welche Konsequenzen drohen bei Verstößen?

DSGVO-Verstöße können teuer werden. Die Bußgelder nach Art. 83 DSGVO reichen bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes. In der Praxis sind die Bußgelder bei einzelnen Vorfällen deutlich niedriger – aber nicht null. Die deutschen Aufsichtsbehörden haben in den letzten Jahren zunehmend auch mittelständische Unternehmen mit spürbaren Bußgeldern belegt.

Daneben drohen zivilrechtliche Schadensersatzansprüche Betroffener nach Art. 82 DSGVO. Diese Ansprüche werden von Klagen betroffener Mitarbeiter oder Kunden immer häufiger geltend gemacht, auch wenn die Rechtslage zu materiellen Schäden noch nicht abschließend geklärt ist.

Für Kanzleien und Steuerberater kommt die berufsrechtliche Dimension hinzu. Die Verletzung der Verschwiegenheitspflicht kann zu berufsrechtlichen Konsequenzen führen, unabhängig davon, ob Datenschutzbehörden tätig werden.

Was sollten Unternehmen jetzt konkret tun?

Die Situation ist lösbar. Die meisten Unternehmen brauchen keinen vollständigen KI-Stopp, sondern eine strukturierte Bestandsaufnahme und ein paar organisatorische Maßnahmen.

  • Prüfen, welche KI-Tools im Unternehmen tatsächlich genutzt werden – oft mehr als bekannt.
  • Für die genutzten Tools klären, ob eine API-Anbindung mit AVV oder nur das Consumer-Frontend verwendet wird.
  • Einen AVV mit dem KI-Anbieter abschließen, sofern personenbezogene Daten verarbeitet werden.
  • Den Drittlandtransfer im Verzeichnis der Verarbeitungstätigkeiten nach Art. 30 DSGVO dokumentieren.
  • Eine interne KI-Richtlinie erstellen und kommunizieren.
  • Bei besonders risikoreichen Anwendungsfällen eine DSFA durchführen.
  • Den Betriebsrat frühzeitig einbinden, falls vorhanden.

Wer diese Punkte abarbeitet, ist nicht nur rechtlich besser aufgestellt. Er schafft auch intern Klarheit und verhindert, dass einzelne Mitarbeiter unwissentlich Fehler machen, die das Unternehmen treffen.

Häufige Fragen zu ChatGPT und DSGVO im Unternehmen

Darf ich ChatGPT beruflich nutzen?

Grundsätzlich ja – aber nicht ohne Weiteres. Sobald personenbezogene Daten verarbeitet werden, braucht es eine Rechtsgrundlage, einen Auftragsverarbeitungsvertrag mit OpenAI und eine interne Regelung, welche Daten eingegeben werden dürfen. Für die API-Nutzung bietet OpenAI entsprechende Vertragsgrundlagen an. Das kostenfreie oder kostenpflichtige Chat-Frontend über chat.openai.com eignet sich für den Unternehmenseinsatz mit Personenbezug in der Regel nicht ohne zusätzliche vertragliche Absicherung.

Was ist der Unterschied zwischen der ChatGPT-App und der API?

Bei der Consumer-Version von ChatGPT (chat.openai.com) handeln Nutzer als Endnutzer. OpenAI kann Eingaben unter Umständen für das Modelltraining nutzen. Für den Unternehmenseinsatz mit personenbezogenen Daten fehlt hier meist die vertragliche Grundlage nach Art. 28 DSGVO. Die API hingegen richtet sich an Unternehmen und Entwickler. OpenAI bietet hier Data-Processing-Agreements an, und Eingaben werden nicht standardmäßig für das Training genutzt. Diese Version ist für den datenschutzkonformen Unternehmenseinsatz die richtige Wahl.

Darf ich Mitarbeiterdaten in ChatGPT eingeben?

Nur unter sehr engen Voraussetzungen. Mitarbeiterdaten zählen oft zu sensiblen Kategorien oder sind besonders schutzwürdig, weil sie das Arbeitsverhältnis betreffen. Die Verarbeitung über externe KI-Systeme setzt eine belastbare Rechtsgrundlage voraus und erfordert in Betrieben mit Betriebsrat häufig dessen Mitbestimmung nach § 87 Abs. 1 Nr. 6 BetrVG. Personalgespräche, Leistungsbeurteilungen oder Krankmeldungen sollten nicht über externe Consumer-KI-Tools laufen.

Brauche ich einen AVV mit OpenAI?

Ja, wenn personenbezogene Daten über OpenAI verarbeitet werden. Art. 28 DSGVO verlangt einen schriftlichen Vertrag, der die Bedingungen der Auftragsverarbeitung regelt. OpenAI stellt für API-Kunden entsprechende Vertragsgrundlagen bereit. Wer die API nicht nutzt, sondern nur das Chat-Frontend, befindet sich in einem Graubereich, der für Unternehmenseinsätze mit Personenbezug nicht geeignet ist.

Ist der Datentransfer in die USA nach dem EU-US Data Privacy Framework sicher?

Das Framework ermöglicht den Transfer zu zertifizierten US-Unternehmen – OpenAI ist zertifiziert. Das löst das Problem des Drittlandtransfers aber nicht vollständig. Das Framework steht politisch unter Druck und könnte erneut vom EuGH oder durch politische Entwicklungen in Frage gestellt werden. Unternehmen sollten den Transfer dokumentieren, ergänzende Standardvertragsklauseln in Betracht ziehen und das Thema nicht als dauerhaft erledigt abhaken.

Wann brauche ich eine Datenschutz-Folgenabschätzung für KI?

Eine DSFA nach Art. 35 DSGVO ist erforderlich, wenn die Verarbeitung voraussichtlich ein hohes Risiko für Betroffene bedeutet. Für KI-Tools ist das relevant bei: automatisierten Entscheidungen mit erheblichen Auswirkungen, systematischer Verarbeitung besonderer Datenkategorien, umfangreicher Überwachung öffentlicher Bereiche und vergleichbaren Konstellationen. Datenschutzbehörden haben Musterlisten veröffentlicht. Wer KI für die Personalauswahl, Kreditbewertung oder Verhaltensanalyse einsetzt, kommt an einer DSFA in der Regel nicht vorbei.

Welche DSGVO-Bußgelder drohen bei unerlaubter KI-Nutzung?

Die Obergrenzen nach Art. 83 DSGVO liegen bei 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes. In der Praxis sind einzelne Vorfälle deutlich niedriger – aber nicht unbedeutend. Deutsche Aufsichtsbehörden haben in den letzten Jahren auch Mittelständler mit spürbaren Bußgeldern belegt. Daneben können Betroffene zivilrechtliche Schadensersatzansprüche geltend machen. Für Berufsträger wie Anwälte und Steuerberater kommt die berufsrechtliche Haftung hinzu.

Muss der Betriebsrat gefragt werden, bevor wir ChatGPT einführen?

Wenn der Einsatz von ChatGPT dazu geeignet ist, Verhalten oder Leistung von Mitarbeitern zu überwachen, greift das Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 6 BetrVG. Das kann der Fall sein, wenn Nutzungsdaten protokolliert oder ausgewertet werden. Auch wenn das Tool selbst keine Überwachungsfunktion hat, sollte der Betriebsrat frühzeitig eingebunden werden. Eine Betriebsvereinbarung schafft Rechtssicherheit und verhindert spätere Auseinandersetzungen.

Was folgt daraus?

KI-Tools wie ChatGPT lassen sich datenschutzkonform einsetzen. Der Schlüssel liegt nicht darin, sie zu verbieten, sondern darin, den Einsatz zu strukturieren. Wer die richtigen Vertragsgrundlagen hat, interne Leitlinien kommuniziert und den Betriebsrat einbindet, kann von den Produktivitätsgewinnen profitieren, ohne datenschutzrechtliche Risiken in Kauf zu nehmen.

Die meisten Unternehmen haben bei diesem Thema Nachholbedarf. Das liegt weniger an böser Absicht als daran, dass die Tools schneller eingeführt wurden als die datenschutzrechtliche Begleitung hinterherkam. Das lässt sich aber nachholen.