Dein Team hat ChatGPT im Einsatz. Produktiver denn je. Dann kommt der Datenschutzbeauftragte und fragt: “Welche Kundendaten werden da eigentlich verarbeitet?” — und plötzlich wird’s still im Raum.
Das ist kein Einzelfall. Für viele deutsche Unternehmen ist Datenschutz der Hauptgrund, warum KI-Projekte ins Stocken geraten oder gar nicht erst starten. Zu Recht — denn die Frage ist berechtigt. Aber oft endet die Diskussion zu früh, mit einem pauschalen “Finger weg von US-Tools”, ohne zu prüfen, was tatsächlich möglich ist.
Was “DSGVO-konform” bei KI-Tools überhaupt bedeutet
DSGVO-konform ist kein binäres Label, das ein Tool hat oder nicht hat. Es beschreibt, wie du ein Tool nutzt und unter welchen Bedingungen.
Die entscheidenden Fragen: Werden personenbezogene Daten in den Prompt eingegeben? Werden diese Daten zum Training des Modells genutzt? Wo werden die Daten gespeichert und verarbeitet? Gibt es einen Auftragsverarbeitungsvertrag (AVV)?
Ein US-amerikanisches Tool kann unter bestimmten Bedingungen DSGVO-konform eingesetzt werden — wenn zum Beispiel kein Personenbezug in den Eingaben enthalten ist. Und ein europäisches Tool kann trotzdem problematisch sein, wenn die vertraglichen Grundlagen fehlen.
Der Auftragsverarbeitungsvertrag — und was er bei KI leisten muss
Wer KI-Tools im Unternehmenskontext nutzt, verarbeitet häufig personenbezogene Daten. Damit brauchst du mit dem Anbieter einen AVV nach Art. 28 DSGVO.
Aber Vorsicht: Nicht jeder AVV ist gleich. Bei KI gibt es spezifische Punkte, die ein Standard-AVV oft nicht abdeckt.
Trainingsausschluss: Wird ausdrücklich ausgeschlossen, dass deine Eingaben zum Training des Modells genutzt werden? Manche Anbieter schließen das standardmäßig aus — aber nur für bestimmte Produkte (z. B. ChatGPT Enterprise, nicht die kostenlose Version).
Unterauftragnehmer: Welche weiteren Dienstleister werden eingebunden? Wo laufen diese? Ein europäischer KI-Anbieter, der auf AWS US-East hostet, hat ein anderes Profil als einer mit eigener Infrastruktur in Frankfurt.
Drittstaatentransfer: Wenn Daten in die USA oder andere Drittländer fließen, braucht es eine Rechtsgrundlage — heute meistens die EU-Standardvertragsklauseln (SCCs). Prüfe, ob diese im AVV verankert sind.
Löschfristen und Portabilität: Wie lange werden Eingabedaten gespeichert? Kannst du eine Löschung verlangen?
Europäische KI-Anbieter — was es gibt
Der europäische KI-Markt hat sich in den letzten Jahren deutlich entwickelt. Es gibt heute für die meisten Anwendungsfälle Alternativen, die von vornherein im europäischen Rechtsraum operieren.
Aleph Alpha (Deutschland): Das Heidelberger Unternehmen hat mit Luminous eine eigene Modellfamilie entwickelt und bietet Hosting ausschließlich in Deutschland an. Der Fokus liegt auf dem Unternehmenseinsatz mit starkem Datenschutzversprechen. Preislich deutlich über US-Wettbewerbern, dafür mit klaren vertraglichen Grundlagen.
Mistral AI (Frankreich): Mistral hat in kurzer Zeit Open-Source-Modelle veröffentlicht, die auf Standard-Benchmarks mit proprietären US-Modellen mithalten. Die Modelle laufen auf europäischer Infrastruktur, und Mistral bietet einen kommerziellen API-Dienst mit AVV. Der Vorteil: Die Open-Source-Modelle können auch selbst gehostet werden — maximale Kontrolle.
IONOS AI (Deutschland): Der deutsch-europäische Hoster bietet KI-Dienste an, die auf eigener europäischer Infrastruktur betrieben werden. Gut geeignet für Unternehmen, die bereits IONOS-Infrastruktur nutzen.
Selbst hosten mit Open-Source-Modellen: Wer Zugriff auf eigene Server oder eine deutsche/europäische Cloud (z. B. Hetzner, OVH, Deutsche Telekom Cloud) hat, kann Modelle wie Mistral, LLaMA oder Phi-3 selbst betreiben. Damit bleiben alle Daten unter eigener Kontrolle. Der Aufwand ist höher, aber bei sensiblen Daten oft die richtige Wahl.
US-Anbieter und der pragmatische Weg
OpenAI, Anthropic, Google und Microsoft sind nicht automatisch verboten. Alle vier haben inzwischen Enterprise-Angebote mit AVV, SCCs und der Option, Daten auf europäischen Servern zu verarbeiten.
Microsoft Azure OpenAI bietet zum Beispiel an, Modelle dediziert in EU-Rechenzentren zu betreiben, mit Trainingsausschluss und AVV nach deutschem Rechtsmuster. Viele größere Unternehmen fahren genau diesen Weg.
Anthropic Claude for Business und Google Vertex AI bieten ähnliche Optionen.
Der Haken: Diese Enterprise-Modelle kosten deutlich mehr als die Consumer-Varianten. Und selbst mit allem Papierkram bleibt ein Restrisiko durch den US-amerikanischen Cloud Act, der US-Behörden theoretisch Zugriff auf Daten geben kann — unabhängig davon, wo diese physisch liegen.
Das ist kein hypothetisches Szenario, aber für die meisten geschäftlichen Anwendungsfälle auch kein täglich relevantes Risiko. Eine gut beratene Einschätzung sollte hier pragmatisch sein, nicht paranoid.
Tool-Kategorien und wo europäische Optionen existieren
Textgenerierung & Assistenten: Aleph Alpha Luminous, Mistral Le Chat, selbst gehostete Open-Source-Modelle. Für einfachere Aufgaben auch Microsoft Copilot mit EU-Datenspeicherung.
Bildgenerierung: Schwächer besetzt. Stable Diffusion kann selbst gehostet werden. Kommerzielle europäische Anbieter sind rar. Wer Kundendaten im Prompt hat, sollte self-hosting prüfen.
Sprachverarbeitung / Transkription: Whisper von OpenAI ist Open Source und kann lokal betrieben werden — gute Option für Meetings mit sensiblen Inhalten, etwa für automatisierte Meeting-Protokolle. AssemblyAI und Deepgram bieten EU-Hosting an.
Dokumentenanalyse: Hier gibt es europäische Anbieter wie Mindee (Frankreich) für Belegverarbeitung — ein typischer Anwendungsfall ist die automatisierte Belegverarbeitung. Alternativ: Modelle selbst hosten und lokal betreiben.
Code-Assistenten: GitHub Copilot mit Enterprise-Vertrag, oder selbst gehostete Alternativen wie Continue.dev mit lokalem Modell.
Die wichtigsten Fragen an jeden KI-Anbieter
Bevor du ein KI-Tool im Unternehmen einführst, solltest du diese Antworten haben:
- Werden meine Eingaben zum Training des Modells genutzt — und kann ich das explizit ausschließen?
- Wo befinden sich die Server, auf denen meine Daten verarbeitet werden?
- Gibt es einen AVV, der Trainingsausschluss und Unterauftragnehmer explizit regelt?
- Welche Löschfristen gelten für meine Eingabedaten?
- Was passiert bei einem Datenschutzvorfall — wie werde ich informiert?
Anbieter, die auf diese Fragen ausweichen oder nur auf generische Datenschutzseiten verweisen, sind kein gutes Zeichen.
Was nicht funktioniert
Pauschale Verbote helfen wenig. “Wir nutzen keine US-KI” klingt sicher — aber wenn das Team dann auf Consumer-Tools ohne Unternehmensvertrag ausweicht, ist das schlimmer als eine reguläre Enterprise-Lizenz mit AVV.
Und selbst europäische Anbieter lösen nicht alle Probleme automatisch. Ein AVV mit einem deutschen KI-Anbieter, der keine sinnvollen Trainingsausschluss-Klauseln enthält, bietet weniger Schutz als ein solider Vertrag mit einem US-Anbieter.
Der EU AI Act legt obendrauf noch weitere Anforderungen, die unabhängig von der Herkunft des Anbieters gelten — besonders bei Hochrisiko-Anwendungen.
Der praktische Einstieg
Fang mit einer einfachen Bestandsaufnahme an: Welche KI-Tools nutzt dein Team heute — auch inoffiziell? Welche davon verarbeiten Kundendaten oder andere personenbezogene Informationen? Für welche gibt es bereits einen AVV? Für die Prüfung von AVV-Klauseln selbst kann KI übrigens auch unterstützen — wie das aussieht, zeigt der Use Case KI-gestützte Vertragsanalyse.
Aus dieser Übersicht ergibt sich schnell, wo Handlungsbedarf ist. Meistens ist es nicht das Toolset selbst, das das Problem ist — sondern fehlende Verträge und fehlende Sensibilisierung im Team, was in den Prompt eingegeben werden sollte und was nicht.
Mehr über den rechtlichen Rahmen findest du im Artikel KI und Recht: Was Unternehmen 2026 beachten müssen.
Wenn du regelmäßig praxisnahe Updates zu KI-Tools und Compliance bekommen möchtest, lohnt sich ein Blick auf unseren Newsletter — ohne Fachjargon, ohne Spam.
Hinweis: Dieser Artikel ersetzt keine Rechtsberatung. Für die konkrete Prüfung deiner KI-Einsätze empfehle ich, einen auf Datenschutzrecht spezialisierten Anwalt hinzuzuziehen.