Wissen Sie, was mit Ihren Eingaben bei ChatGPT eigentlich passiert? Wer Zugriff darauf hat, wie diese verarbeitet werden und welche Folgen es haben kann, wenn versehentlich sensible Informationen preisgegeben werden? In diesem Artikel erfahren Sie, wie ChatGPT funktioniert, welche Datenschutzrisiken bestehen, was die DSGVO dazu sagt und welche Regeln Sie beachten müssen. Ein besonderer Fokus liegt zudem auf dem Umgang mit Gesundheitsdaten und darauf, wie Gesundheitsdienstleister ChatGPT datenschutzkonform einsetzen können.
Das Wichtigste in Kürze
- ChatGPT ist ein leistungsstarkes KI-Tool zur Textverarbeitung, das auch sensible Inhalte verarbeiten kann, aber nicht zwangsläufig datenschutzkonform ist.
- Ob die Nutzung datenschutzkonform ist hängt von der verwendeten Version, den Datenschutzeinstellungen und der Art der eingegebenen Daten ab.
- Personenbezogene und besonders schützenswerte Daten (z. B. Gesundheitsdaten) sollten grundsätzlich nicht ohne eine klare Rechtsgrundlage eingegeben werden.
- Die Datenschutz-Grundverordnung (DSGVO) regelt, wann und wie Daten verwendet werden dürfen, einschließlich Transparenz‑, Zweckbindungs- und Sicherheitsanforderungen.
- Gesundheitsdienstleister haben eine besondere Verantwortung beim Einsatz von KI-Tools wie ChatGPT.
- Wer ChatGPT nutzt, sollte klare interne Richtlinien, technische Vorkehrungen und ggf. eine datenschutzkonforme Lizenzlösung prüfen.

Was ist ChatGPT?
ChatGPT ist ein KI-gestützter Textgenerator von OpenAI, der Nutzereingaben analysiert und darauf basierend passende Antworten erzeugt. Die Einsatzgebiete reichen von der Erstellung von E‑Mails und Texten über Recherche bis hin zu ersten medizinischen oder juristischen Anwendungsfällen.
Wichtig zu wissen:
Nicht jede ChatGPT-Version bietet den gleichen Datenschutz. Eingegebene Daten werden pseudonymisiert, das heißt, sie können grundsätzlich noch einzelnen Benutzerkonten zugeordnet werden. Die frei zugängliche Web-Version kann die Daten zudem zur Verbesserung des Modells verwenden, sofern diese Option nicht in den Einstellungen deaktiviert wurde.
Warum ist Datenschutz bei ChatGPT besonders wichtig?
Die größte Stärke von ChatGPT ist gleichzeitig die größte Herausforderung: die Verarbeitung komplexer, oft persönlicher Inhalte. Wer Daten eingibt, die Rückschlüsse auf Personen oder geschützte Informationen zulassen, setzt sich datenschutzrechtlichen Risiken aus.
Beispiele für problematische Eingaben:
- Namen, Adressen oder Geburtsdaten
- Gesundheitsinformationen (Diagnosen, Therapien etc.)
- Interna aus Unternehmen oder Projekten
- Kunden‑, Mandanten- oder Patientendaten

ChatGPT im beruflichen Alltag – zwischen Effizienz und Risiko
ChatGPT kann im beruflichen Umfeld auf vielfältige Weise eingesetzt werden: Es unterstützt beim Verfassen von E‑Mails, bei der Recherche, bei der Entwicklung von Marketingtexten oder bei der Analyse komplexer Sachverhalte. Viele Unternehmen nutzen ChatGPT inzwischen als Ersatz für klassische Suchmaschinen oder als intelligenten Textassistenten.
Doch auch wenn die Verwendung Zeit spart, birgt sie erhebliche Datenschutzrisiken, wenn nicht klar geregelt ist, welche Informationen eingegeben werden dürfen und welche nicht. Oft fehlen interne Richtlinien, geschulte Mitarbeitende oder ein grundlegendes Verständnis dafür, wie ChatGPT mit sensiblen Daten umgeht.
Problematisch ist die Annahme, das Tool sei „privat“ oder „vertraulich“. Die eingegebenen Daten verlassen in der Regel den eigenen Verantwortungsbereich und werden auf externen Servern verarbeitet, häufig außerhalb der Europäischen Union. Bei Enterprise- und Teamversionen lässt sich der Speicherort der Daten konfigurieren und auf EU-Server beschränken.
Was passiert mit Ihren Daten bei OpenAI?
Eine zentrale Frage beim Datenschutz rund um ChatGPT ist: Was geschieht mit den eingegebenen Daten? OpenAI kommuniziert inzwischen transparenter als zu Beginn, dennoch bleiben viele Fragen offen oder schwer verständlich, vor allem für Personen ohne Datenschutz-Hintergrund.
Grundsätzlich werden bei der frei verfügbaren Version von ChatGPT (Free oder Plus) Nutzereingaben zur Verbesserung des Modells genutzt, also zum Training künftiger Versionen. Diese Nutzung kann zwar in den Einstellungen deaktiviert werden, doch viele Anwender sind sich dessen nicht bewusst. Nur bei speziell lizenzierten Versionen wie „ChatGPT Team“ oder „Enterprise“ wird zugesichert, dass keine Daten zu Trainingszwecken verwendet werden.
Für den Datenschutz problematisch ist auch, dass die Datenverarbeitung überwiegend in den USA stattfindet. Die USA gelten laut DSGVO als Drittland mit eingeschränktem Datenschutzniveau. Der Datentransfer basiert derzeit auf dem Trans-Atlantic Data Privacy Framework, das allerdings rechtlich als umstritten gilt.
Datenschutz: Welche Risiken bestehen bei der Nutzung von ChatGPT?
Die Datenschutzproblematik bei KI-Systemen wie ChatGPT ist komplex und aktuell. In Italien wurde 2023 die Verwendung temporär verboten, nachdem bekannt wurde, dass personenbezogene Informationen aus Nutzer-Chats unbeabsichtigt einsehbar waren. Auch in Deutschland beschäftigen sich die Aufsichtsbehörden intensiv mit dem Thema.
Verarbeitung personenbezogener Daten
Die DSGVO fordert Transparenz, Zweckbindung und Datensparsamkeit. Diese Anforderungen sind bei einem komplexen, intransparenten System wie ChatGPT jedoch kaum vollständig erfüllbar – insbesondere wenn Informationen verarbeitet werden, die Rückschlüsse auf Personen, Kundendaten oder interne Unternehmensprozesse zulassen.
Die DSGVO setzt klare Maßstäbe: Persönliche Daten dürfen nur verarbeitet werden, wenn eine rechtliche Grundlage besteht, beispielsweise eine Einwilligung oder ein berechtigtes Interesse. Beides ist bei ChatGPT schwer sicherzustellen, da Nutzer oft nicht wissen, welche Daten wohin übermittelt werden.
Für Unternehmen bedeutet das: Namen, Adressen, Geburtsdaten, Diagnosen oder Geschäftsgeheimnisse haben in einem Chatverlauf mit KI nichts zu suchen, auch nicht „aus Versehen“. Verstöße gegen die DSGVO können Bußgelder, Reputationsschäden und juristische Konsequenzen nach sich ziehen.

Spezialfall Gesundheitssektor:
Im medizinischen Bereich ist besondere Vorsicht geboten. Krankenhäuser, Arztpraxen, Apotheken oder Pflegeeinrichtungen arbeiten mit hochsensiblen Daten, darunter Gesundheitsinformationen, die laut DSGVO besonders geschützt sind.
Obwohl KI-Systeme wie ChatGPT potenzielle Effizienzvorteile bieten, beispielsweise bei der Dokumentation, Terminorganisation oder dem Entwurf von Patienteninformationen, ist ihre Nutzung rechtlich komplex. Ohne datenschutzkonforme Rahmenbedingungen riskieren Einrichtungen Verstöße gegen die ärztliche Schweigepflicht oder das Patientendatenschutzgesetz.

Expertentipp: Einschätzung von Michael Triesch zur Nutzung von ChatGPT im Unternehmenskontext
Risiken und Herausforderungen für Unternehmen
Die Integration von ChatGPT in Geschäftsprozesse bringt zweifellos Effizienzgewinne, birgt jedoch auch eine Reihe von datenschutzrechtlichen Risiken, die häufig unterschätzt werden. Besonders wenn Unternehmen ChatGPT ohne strukturierte Einführung oder technisches Hintergrundwissen einsetzen, steigt die Gefahr von Verstößen gegen die DSGVO erheblich.
Typische Risiken:
- Eingabe personenbezogener oder sensibler Daten: Kundennamen, Adressen, Projektinhalte oder andere identifizierbare Informationen werden ohne Prüfung in das System eingegeben.
- Verarbeitung von Gesundheitsdaten: Diagnosen, Therapieverläufe oder persönliche Patientendetails werden eingegeben, obwohl sie unter die besonders schützenswerten Daten nach DSGVO fallen.
- Unkontrollierte Datenweitergabe an Dritte: Eingaben werden ohne vertragliche Absicherung an externe Anbieter wie OpenAI oder Drittplattformen wie Microsoft Copilot übermittelt.
- Mangelnde Transparenz bei der Datenverarbeitung: Es ist unklar, wo und wie die Daten gespeichert, verarbeitet oder ggf. für Trainingszwecke genutzt werden.
- Fehlende rechtliche Absicherung: Die Nutzung erfolgt ohne Auftragsverarbeitungsvertrag (AVV) oder datenschutzkonforme Lizenzlösung, etwa über „ChatGPT Enterprise“.
- Urheberrechtliche Unsicherheit: Generierte Inhalte können unbeabsichtigt urheberrechtlich geschütztes Material enthalten und zu rechtlichen Problemen führen.
- Falsche oder irreführende Ergebnisse: ChatGPT liefert inhaltlich fehlerhafte Aussagen, die unbemerkt übernommen oder weiterverarbeitet werden.
- Fehlende interne Vorgaben und Schulungen: Ohne klare Richtlinien oder Sensibilisierung der Mitarbeitenden steigt das Risiko für Datenschutzverstöße erheblich.
Hinweis: Im Gesundheitswesen gelten neben der DSGVO zusätzlich noch strengere Regelungen zum Schutz von Gesundheitsdaten (Besondere Kategorien personenbezogener Daten gemäß Art. 9 DSGVO). Das macht die datenschutzkonforme Nutzung von ChatGPT hier besonders anspruchsvoll.
Wie können Unternehmen Datenschutzverletzungen vermeiden?
Der Schlüssel liegt in einer guten organisatorischen Vorbereitung und technischen Kontrolle. Bevor KI-Tools wie ChatGPT im Arbeitsalltag eingesetzt werden, müssen Unternehmen klare Prozesse und Regelwerke etablieren.
Empfehlungen:
- Vermeidung personenbezogener Daten in Eingaben (Prompts).
- Keine direkten Eingaben sensibler Gesundheitsdaten.
- Nutzung von ChatGPT über die API mit deaktivierter Datenspeicherung.
- Abschluss eines Auftragsverarbeitungsvertrags (AVV) mit OpenAI.
- Lösungen mit EU-Hosting, deaktiviertem Modelltraining sind zu bevorzugen.
- Schriftliche Nutzungsrichtlinien (z. B. Beschäftigungsleitfäden) für Mitarbeitende.
- Regelmäßige Datenschutzselbstinspektionen und KI-Checks.

Transparenz und Rechte der Nutzer
Bei der Nutzung von ChatGPT im Kundenkontakt – etwa im Chatbot, Support, Gesundheitswesen oder im Marketing – gelten besondere Anforderungen an die Transparenzpflichten nach DSGVO.
Pflichten:
- Nutzer müssen klar über die Verwendung von KI informiert werden – einschließlich des Zwecks, der Datenarten, des Speicherorts und des Verantwortlichen. (Art. 13 und 14 DSGVO)
- Das Unternehmen muss die Rechte der Betroffenen gewährleisten:
- Auskunft über gespeicherte Daten
- Berichtigung oder Löschung
- Widerspruch gegen automatisierte Entscheidungen
- Recht auf Datenübertragbarkeit
Microsoft Copilot vs. ChatGPT und die Bedeutung der EU AI-Verordnung
Microsoft Copilot wird als KI-Tool häufig eingesetzt, jedoch ist die vollständige Datenkontrolle oft eingeschränkt. ChatGPT bietet mehr Kontrollmöglichkeiten, etwa durch deaktivierte Datenspeicherung, ist jedoch keine uneingeschränkte Lösung.
Die kommende EU AI-Verordnung wird den Einsatz von KI-Systemen in sensiblen Bereichen wie dem Gesundheitswesen zusätzlich regulieren. Unternehmen und Gesundheitseinrichtungen sollten frühzeitig die Weichen für eine transparente, sichere und verantwortungsvolle KI-Nutzung stellen.
Appell an Unternehmen und Gesundheitsdienstleister
Der Einsatz von ChatGPT bietet große Chancen, jedoch nur bei verantwortungsvollem und datenschutzkonformem Umgang. Gerade im Gesundheitswesen, wo Vertraulichkeit essenziell ist, dürfen Datenschutz und Sicherheit niemals hinter dem Innovationsdruck zurückbleiben.
Mein Appell:
Entwickeln Sie eine klare KI-Strategie, schulen Sie Ihr Team, sorgen Sie für Transparenz und Kontrolle und nutzen Sie ChatGPT nur dann, wenn Sie die Datenverarbeitung vollständig verstehen und steuern können.
Unterstützung durch TRIESCHconsult, auch bei der Nutzung von ChatGPT
Der Einsatz von ChatGPT in Unternehmen bietet viele Chancen, bringt aber auch besondere datenschutzrechtliche Anforderungen mit sich. Datenschutz ist dabei keine einmalige Maßnahme, sondern ein fortlaufender Prozess. Um sicherzustellen, dass die Nutzung von ChatGPT und anderen KI-Systemen rechtskonform bleibt und Datenschutzrisiken minimiert werden, unterstützt Sie Datenschutzexperte Michael Triesch, mit einer umfassenden Beratung:
- Regelmäßige Datenschutzchecks: Gemeinsam überprüfen wir kontinuierlich, ob die Nutzung von ChatGPT den geltenden Datenschutzbestimmungen entspricht und ob Prozesse angepasst werden müssen, um Risiken zu minimieren.
- Management-Reporting: Wir helfen Ihnen dabei, aussagekräftige Berichte zu erstellen, die dokumentieren, wie der Datenschutz bei der Verwendung von ChatGPT umgesetzt wird und welche Verbesserungen möglich sind.
- Schulungen und Leitfäden: Damit Ihre Mitarbeitenden wissen, wie sie ChatGPT datenschutzgerecht einsetzen können, stellen wir verständliche Schulungsunterlagen und praxisnahe Leitfäden zur Verfügung.
- Datenschutz-Selbstauskunft: Mit praktischen Tools unterstützen wir Sie dabei, den Datenschutz bei ChatGPT eigenständig zu überprüfen und transparent darzustellen, für mehr Sicherheit und Nachvollziehbarkeit.
- Langfristige Begleitung: Auch nach der Einführung von ChatGPT bleiben wir Ihr Ansprechpartner, um die Datenschutzstandards dauerhaft zu gewährleisten und auf neue Anforderungen flexibel zu reagieren.
Warum TRIESCHconsult?
Als erfahrener Datenschutzexperte kennt Michael Triesch die speziellen Herausforderungen bei der Integration von KI-Systemen wie ChatGPT:
- Rechtskonforme Nutzung von KI: Wir sorgen dafür, dass Ihr Unternehmen ChatGPT sicher und gesetzeskonform einsetzt – unter Berücksichtigung aller Datenschutzvorgaben.
- Praxisorientierte Beratung: Unsere Empfehlungen sind genau auf Ihre individuelle Situation zugeschnitten und helfen, Datenschutz und Innovationskraft in Einklang zu bringen.
- Verlässlicher Partner: Mit Michael Triesch haben Sie einen Experten an Ihrer Seite, der Sie langfristig dabei unterstützt, Datenschutz bei ChatGPT transparent und sicher zu gestalten.

Fazit
ChatGPT bietet große Chancen, birgt aber auch erhebliche Datenschutzrisiken, vor allem besonders im Gesundheitswesen. Nur wer klare Regeln schafft, Mitarbeitende schult und technische Schutzmaßnahmen nutzt, kann KI sicher und DSGVO-konform einsetzen. Datenschutz ist keine Hürde, sondern Voraussetzung für Vertrauen und nachhaltigen Erfolg. Verantwortungsvolle Nutzung macht Innovation erst möglich.




