Datenschutzkonzept für Forschungsprojekte
KI erstellt DSGVO-konforme Datenschutzkonzepte für Forschungsprojekte: Verarbeitungsverzeichnis, Risikoanalyse und Einwilligungsformulare automatisch generiert.
- Problem
- Forschungsprojekte mit Personendaten benötigen aufwändige Datenschutzdokumentation. Fehler gefährden Fördermittel und führen zu Verzögerungen beim Ethikantrag.
- KI-Lösung
- LLM-Assistent erstellt Datenschutz-Folgenabschätzung, Verarbeitungsverzeichnis und Probandenaufklärung auf Basis von Projektbeschreibung und Datenkategorien.
- Typischer Nutzen
- Datenschutz-Dokumentation von 20–40 auf 4–8 Stunden reduziert. Weniger Nachfragen von Datenschutzbeauftragten. Frühere Freigabe für Datenerhebung.
- Setup-Zeit
- Erste Konzeptstruktur in Stunden, kein Setup nötig
- Kosteneinschätzung
- Externe Datenschutzberatung 2.500–6.000 € teilweise substituierbar
Es ist ein Freitagabend im März, sechs Wochen vor dem geplanten Einreichungstermin.
Dr. Miriam Soltani, Postdoktorandin am Uniklinikum Heidelberg, prüft die Checkliste der Fachzeitschrift. Unter Punkt 4 steht: „Datenschutzkonzept und Einwilligungsdokumentation beifügen.” Sie hält kurz inne. Für ihre App-Studie mit 340 Probandinnen und Probanden wurde über 18 Monate lang ein breites Spektrum an Gesundheitsdaten erhoben — Vitalparameter, Schlafprotokolle, ein Kurzfragebogen zur psychischen Befindlichkeit. Die Einwilligungsformulare hat sie. Aber ein offizielles Datenschutzkonzept mit Verarbeitungsverzeichnis, Risikoanalyse und Dokumentation der Cloud-Dienste? Das hat sie nie erstellt. Der Ethikantrag wurde genehmigt, das Datenschutzkonzept dafür war eine formlose halbe Seite.
Sie öffnet das Leitfaden-PDF ihrer Universität. 40 Seiten. Mit Abschnitten über Auftragsverarbeitungsverträge, Pseudonymisierungsverfahren, Datenflussdiagramme und die Besonderheiten des Landesdatenschutzgesetzes Baden-Württemberg für Forschungseinrichtungen. Die Einreichung ist in sechs Wochen. Der Datenschutzbeauftragte ist für die nächsten drei Wochen auf Dienstreise.
Das ist kein Ausnahmefall. An deutschen Forschungseinrichtungen gehört das Datenschutzkonzept zu den am häufigsten vernachlässigten Compliance-Dokumenten — nicht aus Böswilligkeit, sondern weil niemand genau weiß, wer es erstellen soll, wie umfangreich es sein muss und welche gesetzliche Grundlage für das eigene Bundesland gilt.
Das echte Ausmaß des Problems
Der Datenschutz in der Forschung hat eine doppelte Komplexität, die das Datenschutzrecht in anderen Bereichen so nicht kennt: Auf der einen Seite gelten alle Grundpflichten der DSGVO — Dokumentationspflichten, Betroffenenrechte, Auftragsverarbeitungsverträge. Auf der anderen Seite existiert das sogenannte Forschungsprivileg nach Art. 89 DSGVO, das Ausnahmen von einigen Betroffenenrechten erlaubt. Welche Ausnahmen konkret gelten und unter welchen Bedingungen, regeln die 16 Landesdatenschutzgesetze verschieden — mit teils erheblichen Abweichungen zwischen Bayern (BayDSG Art. 25), Hamburg (HmbDSG § 11) und Niedersachsen (NDSG § 13).
In der Praxis bedeutet das: Eine Forscherin an der LMU München ist nicht nur an die DSGVO gebunden, sondern auch ans Bayerische Datenschutzgesetz. Ihre Kollegin an der Uni Hamburg arbeitet nach dem Hamburgischen Datenschutzgesetz — mit anderen Abwägungsmaßstäben beim Forschungsprivileg ohne Einwilligung. Wer das ignoriert und sich allein auf den BDSG § 27 beruft (der für öffentliche Universitäten gar nicht gilt, weil öffentliche Stellen der Länder dem Landesrecht unterliegen), baut sein Datenschutzkonzept auf dem falschen Fundament.
Die Konsequenzen sind real:
- Fördermittelgefährdung: Die DFG, das BMBF und Drittmittelgeber der EU verlangen bei sensiblen Daten zunehmend ein vollständiges Datenschutzkonzept als Bewilligungsvoraussetzung.
- Publikationshemmnisse: Hochrangige Zeitschriften (Nature, PLOS ONE, BMJ) und ihre Data Sharing-Richtlinien verlangen Nachweise über Datenschutzkonformität — und lehnen Einreichungen ohne Dokumentation ab.
- Bußgeldrisiko: Laut DLA Piper GDPR Data Breach Report 2024 verhängten europäische Datenschutzbehörden in 2023 Bußgelder in Höhe von 1,78 Milliarden Euro. Forschungseinrichtungen sind nicht immun — auch wenn die großen Fälle bislang eher aus dem kommerziellen Bereich stammen.
- Studienabbruch: Bei klinischen Studien können Behörden die Datenerhebung stoppen, bis Datenschutzverstöße behoben sind — ein Risiko, das nicht nur die laufende Studie, sondern die gesamte Forschungskarriere belasten kann.
Der Aufwand für die Erstellung eines vollständigen Datenschutzkonzepts liegt nach Erfahrungswerten aus Forschungseinrichtungen bei 20–40 Arbeitsstunden für ein mittelkomplexes Projekt. Bei externer Beauftragung einer Datenschutzkanzlei kommt das auf 2.500 bis 6.000 Euro — zu einem Stundensatz von 150–200 Euro, der in diesem Beratungsfeld üblich ist (laut Marktübersicht von datenschutz.org und keyed.de, Stand 2026). Bei einem Doktorandenprojekt ohne Budget für externe Beratung bedeutet das: Die Arbeit bleibt oft liegen bis sechs Wochen vor der Einreichung.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Aufgabe | Ohne KI | Mit KI-Assistenz |
|---|---|---|
| Erstellung Verarbeitungsverzeichnis (VVT) | 6–10 Stunden (Recherche + Formulierung) | 1–2 Stunden (Struktur und Text vom LLM, Überprüfung manuell) |
| Datenschutz-Folgenabschätzung (DSFA) | 8–15 Stunden (Risikoidentifikation + Bewertung + Maßnahmenplan) | 2–4 Stunden (KI liefert Risikostruktur, Forscher ergänzt Projektspezifika) |
| Einwilligungsformulare / Probandenaufklärung | 3–6 Stunden (Entwurf + Abstimmung mit DSB) | 1–2 Stunden (Rohtext KI, Anpassung durch Forscher und DSB) |
| AVV-Identifikation für Cloud-Dienste | 2–5 Stunden (Recherche je Dienst) | 30–60 Minuten (KI listet relevante Dienste und AVV-Links auf) |
| LDSG-Zuordnung (welches Landesgesetz gilt?) | 1–3 Stunden (Recherche, teils externe Beratung) | 20–45 Minuten (LLM kennt die Grundstruktur, DSB prüft) |
| Gesamtaufwand | 20–40 Stunden | 4–9 Stunden + DSB-Endfreigabe |
Die KI übernimmt die Strukturierungsarbeit, das Gerüst, die Formulierungsvorschläge und die erste Risikoidentifikation. Was sie nicht ersetzt: die juristisch verbindliche Freigabe durch die zuständige Person im Haus, die LDSG-spezifische Tiefenprüfung und das abschließende Vier-Augen-Prinzip mit dem Datenschutzbeauftragten.
Das Forschungsprivileg — und wo es endet
Das Forschungsprivileg nach Art. 89 DSGVO ist kein Freifahrtschein. Es erlaubt unter Bedingungen Ausnahmen von Betroffenenrechten (Auskunft, Löschung, Widerspruch) — aber nur, sofern geeignete Garantien bestehen. Was “geeignet” bedeutet, bestimmt nationales Recht.
Was Art. 89 erlaubt (vereinfacht):
- Daten dürfen zweckentfremdet für verwandte wissenschaftliche Zwecke weiterverarbeitet werden (Art. 5 Abs. 1 lit. b DSGVO, Ausnahme Zweckbindung)
- Das Auskunftsrecht (Art. 15) kann eingeschränkt werden, sofern die Forschung sonst ernsthaft beeinträchtigt würde
- Das Recht auf Löschung (Art. 17) und Einschränkung (Art. 18) kann eingeschränkt werden — aber nur solange wie die Verarbeitung für Forschungszwecke notwendig ist
Was Art. 89 nicht abdeckt:
- Die Erlaubnispflicht für die Verarbeitung selbst — für Art. 9-Daten (Gesundheit, Genetik, Biometrie) braucht es immer eine explizite Rechtsgrundlage aus Art. 9 Abs. 2 DSGVO, i. V. m. nationalem Recht
- Die Dokumentationspflichten nach Art. 30 DSGVO (Verarbeitungsverzeichnis)
- Die Pflicht zur Datenschutz-Folgenabschätzung bei Hochrisikooperationen (Art. 35 DSGVO)
Das LDSG-Problem: Öffentliche Universitäten und Universitätskliniken sind öffentliche Stellen der Länder — für sie gilt das jeweilige LDSG, nicht der BDSG § 27. Das DSK-Positionspapier vom September 2024 zur wissenschaftlichen Forschung hat zwar Klarheit in die Frage gebracht, was als “wissenschaftliche Forschung” gilt, aber die Abwägungsmaßstäbe unterscheiden sich weiterhin erheblich:
| Bundesland | Rechtsgrundlage | Besonderheit |
|---|---|---|
| Bayern | BayDSG Art. 25 | Strenge Anonymisierungspflicht „sobald möglich” |
| Baden-Württemberg | LPDG BW § 31 | Starke Betonung der Pseudonymisierung, DSB-Beteiligung |
| Hamburg | HmbDSG § 11 | Forschung ohne Einwilligung möglich bei deutlichem öffentlichen Interesse |
| Niedersachsen | NDSG § 13 | Unterrichtungspflicht gegenüber dem Datenschutzbeauftragten |
| Nordrhein-Westfalen | DSG NRW § 24 | Ethikkommissions-Freigabe als faktischer Qualitätsnachweis |
Ein KI-Assistent kann diese Grundstruktur kennen und das zutreffende Landesrecht identifizieren. Was er nicht kann: die aktuelle Rechtsprechung eurer Landesdatenschutzbehörde einzubeziehen oder neueste Entscheidungen zu berücksichtigen — das bleibt Aufgabe des Datenschutzbeauftragten.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) Die Einsparung ist real — 15 bis 35 Stunden pro Datenschutzkonzept ist kein Randeffekt. Aber: Das ist ein projektbezogener Einmalaufwand, kein täglicher Arbeitsstrom. Für tägliche Zeitersparnis schlägt die Literaturrecherche diesen Anwendungsfall klar.
Kosteneinsparung — niedrig (2/5) Externe Datenschutzberatung für ein Forschungsprojekt kostet 2.500–6.000 Euro. KI kann Teile davon ersetzen — aber nicht die juristische Schlussabnahme durch den Datenschutzbeauftragten oder spezialisierte Rechtsberatung bei LDSG-Grenzfällen. Der Netto-Effekt ist real, aber begrenzt.
Schnelle Umsetzung — hoch (4/5) Kein Setup, kein Onboarding, keine IT-Freigabe nötig. Wer Zugang zu einem LLM hat, kann den ersten Entwurf eines Datenschutzkonzepts in Stunden produzieren. Das ist der echte Stärke-Punkt dieses Anwendungsfalls.
ROI-Sicherheit — hoch (4/5) Der Nutzen ist bei jedem neuen Forschungsprojekt mit Personenbezug messbar — eingesparte Beratungsstunden, früherer Einreichungstermin, weniger Hin-und-Her mit dem Datenschutzbeauftragten. Keine indirekte Wirkungskette wie bei manchen anderen Anwendungsfällen.
Skalierbarkeit — hoch (4/5) Das gleiche Prompt-Template funktioniert für eine Einzelstudie mit 30 Probandinnen wie für eine Multizenterstudie mit 3.000. Es lässt sich auf alle Fachgebiete übertragen. Die einzige Deckelung: Jedes neue Projekt braucht individuelle Anpassung, weil Datenkategorien und Cloud-Dienste variieren.
Richtwerte — stark abhängig von Projektgröße, Datenkategorie und institutionellen Rahmenbedingungen.
Was ein KI-Assistent konkret macht
Der Ansatz nutzt die Stärken von Generativer KI: strukturierten Text auf Basis von Eingabedaten produzieren, regulatorische Anforderungen systematisch abarbeiten und Querverbindungen zwischen Datenkategorien, Rechtsgrundlagen und Sicherheitsmaßnahmen herstellen.
Schritt 1: Projekterfassung. Du gibst dem LLM eine strukturierte Projektbeschreibung: welche Datenkategorien erhoben werden, wo die Daten gespeichert werden, welche Cloud-Dienste eingesetzt werden, an welcher Einrichtung das Projekt läuft und für welchen Fördermittelgeber. Keine Rohdaten, keine Probandennamen — nur Metainformationen über die Verarbeitungsvorgänge.
Schritt 2: Struktur generieren. Das LLM erstellt automatisch: Verzeichnis der Verarbeitungstätigkeiten (VVT) nach Art. 30 DSGVO, Datenflussdiagramm (als Text), Liste aller relevanten Cloud-Dienste mit Hinweis auf AVV-Notwendigkeit, Risikoidentifikation für die DSFA nach Art. 35 DSGVO, erste Einordnung ins LDSG des Bundeslands.
Schritt 3: Einwilligungsformulare. Auf Basis der Datenkategorien generiert das LLM Entwürfe für die Probandeninformation (was wird erhoben, wozu, wie lange gespeichert, welche Rechte bestehen) und das Einwilligungsformular — datenschutzrechtlich korrekte Formulierungen, nicht nur Schablonen.
Schritt 4: AVV-Checkliste. Das System erkennt genannte Cloud-Dienste (Dropbox, Google Drive, SurveyMonkey, REDCap, etc.) und liefert sofort eine Einschätzung: Braucht es hier einen AVV? Wo ist der AVV abrufbar? Ist der Anbieter EU-konform? Das ist erfahrungsgemäß einer der zeitaufwändigsten Rechercheschritte — und hier leistet KI besonders viel.
Was bleibt beim Menschen: Die abschließende Prüfung durch den Datenschutzbeauftragten, LDSG-spezifische Sonderkonstellationen, alle Entscheidungen über Abwägungsklauseln und die Freigabe des vollständigen Konzepts. KI produziert den Entwurf, der Mensch verantwortet ihn.
Rückwirkende Schadensbegrenzung — was noch geht und was nicht
Das ist der Teil, den viele nicht hören wollen: Wenn Daten bereits erhoben wurden, bevor ein vollständiges Datenschutzkonzept existierte, gibt es keine saubere technische Lösung. Aber es gibt einen Weg, der juristisch vertretbar ist — wenn man ihn konsequent geht.
Was rückwirkend möglich ist:
- Das Datenschutzkonzept kann nachträglich erstellt und datiert werden — es dokumentiert dann, dass die Verarbeitung so wie beschrieben stattgefunden hat und datenschutzrechtlich auf welche Grundlage gestützt wird. Das ist keine Täuschung, sondern nachträgliche Dokumentation einer vollzogenen Verarbeitung. Viele Datenschutzbeauftragte akzeptieren das, solange keine aktive Verdeckung stattfindet.
- Lücken bei AVV-Abschlüssen können nachgeholt werden — Cloud-Anbieter stellen AVV auch im Nachgang aus. Die Verarbeitung bleibt für den Zeitraum ohne AVV nicht konform, aber zukünftige Verarbeitungsvorgänge sind abgesichert.
- Fehlende oder unvollständige Einwilligungen können für künftige Datenerhebungen nachgebessert werden. Für bereits erhobene Daten bleibt zu prüfen, ob die Verarbeitung auf eine andere Rechtsgrundlage gestützt werden kann (z. B. überwiegendes wissenschaftliches Interesse nach LDSG, Wahrnehmung öffentlicher Aufgaben).
Was rückwirkend nicht möglich ist:
- Informationspflichten gegenüber Probandinnen und Probanden nachträglich erfüllen, ohne diese zu kontaktieren — Art. 14 DSGVO hätte eine aktive Benachrichtigung erfordert, wenn Daten nicht direkt bei den Betroffenen erhoben wurden.
- Eine Datenschutz-Folgenabschätzung “im Nachhinein” als ursprünglich vorläufige Bewertung deklarieren — das ist urkundenrechtlich problematisch.
- Einwilligungen für bereits abgeschlossene Studienabschnitte sammeln und diese Abschnitte damit rückwirkend legitimieren.
Wie KI hier hilft: Ein LLM kann eine Lückenanalyse erstellen — systematisch durchgehen, welche DSGVO-Pflichten für die beschriebene Verarbeitung bestanden, welche dokumentiert sind und welche fehlen. Diese Lückenanalyse ist die Grundlage für das Gespräch mit dem Datenschutzbeauftragten und schafft Klarheit, bevor man in eine Beratungssitzung geht.
Konkrete Werkzeuge — was wann passt
Claude (über AWS Bedrock Frankfurt) — für sensible Gesundheitsdaten Wer Forschungsprojekte mit Art. 9-Daten (Gesundheit, genetische Daten, biometrische Daten) betreibt, sollte kein in den USA gehostetes KI-Tool für die Konzepterstellung verwenden — auch wenn die Projektbeschreibung keine Rohdaten enthält. Claude über AWS Bedrock (Region eu-central-1, Frankfurt) gibt es mit AVV, EU-Datenresidenz und ohne Training auf Kundendaten. Das ist der saubere Weg für alles, was in die Nähe von Gesundheitsdaten kommt. Voraussetzung: ein AWS-Account und minimale technische Einrichtungsbereitschaft. Laufende Kosten: ca. 2–5 Euro pro Konzept (Token-basiert), deutlich günstiger als Claude.ai Pro-Abo bei sporadischer Nutzung.
ChatGPT Team oder Business (mit AVV) — für den Einstieg ChatGPT in der kostenlosen Version ist für die Erstellung von Datenschutzkonzepten nicht geeignet — OpenAI behält sich Training auf Eingaben vor. Im Team-Plan (ab 25 USD/Nutzer/Monat) und im Business-Plan werden keine Eingaben fürs Training genutzt, und ein AVV mit OpenAI ist über das Self-Service-Portal abschließbar. Für Forschungsgruppen, die ohnehin ChatGPT nutzen, ist das der zugänglichste Einstieg. Einschränkung: Datenhosting bleibt US-seitig, was bei hochsensiblen Daten ein Diskussionspunkt mit dem DSB sein kann.
Azure OpenAI Service — für Institutionen mit bestehender Azure-Infrastruktur Wer an einer Einrichtung forscht, die bereits Azure nutzt (was für viele deutsche Universitäten durch Microsoft-Campuslizenzen der Fall ist), kann GPT-4o über Azure OpenAI in der EU-Region nutzen — mit AVV, ohne US-Datentransfer, ohne Aufpreis gegenüber US-Region. Das ist der Weg mit dem geringsten Widerstand für institutionelle Nutzung.
Aleph Alpha (PhariaAI) — für maximale Datensouveränität Für Forschungseinrichtungen, die Gesundheitsdaten besonderer Schutzstufen verarbeiten (etwa genetische Daten aus KRITIS-nahen Projekten, Militärforschung, Geheimschutzprojekte), gibt es die Option eines souveränen, deutschen KI-Anbieters mit on-premise-Deployment. Aleph Alpha ist deutlich teurer und erfordert IT-Expertise, aber es gibt keine US-Cloud-Abhängigkeit. Für die meisten Forschungsprojekte ist das überdimensioniert — für einige ist es die einzige akzeptable Option.
Zusammenfassung:
- Gesundheits-/Forschungsdaten, kein IT-Team → ChatGPT Team/Business mit AVV
- Gesundheits-/Forschungsdaten, EU-Datenresidenz gewünscht → Claude via AWS Bedrock
- Universitätsmäßige Azure-Infrastruktur vorhanden → Azure OpenAI Service
- KRITIS, Militär, maximale Souveränität → Aleph Alpha (PhariaAI)
Pseudonymisierungspflichten — und wie KI die Umsetzung plant
Das Datenschutzkonzept muss nicht nur beschreiben, dass pseudonymisiert wird — es muss das konkrete Verfahren dokumentieren: Wie werden identifizierende Merkmale durch Codes ersetzt? Wo wird die Zuordnungstabelle (das “Mapping”) gehalten? Wer hat Zugriff? Wann wird vernichtet?
Ein LLM-Assistent kann aus der Projektbeschreibung eine Pseudonymisierungsarchitektur entwerfen:
-
Identifikation personenbezogener Merkmale: KI listet systematisch auf, welche der genannten Daten direkt identifizierend sind (Name, Adresse, E-Mail), welche indirekt identifizierend sein können (Kombination aus Alter, Beruf, Wohnort in kleiner Gemeinde) und welche von Art. 9 DSGVO als besonders schützenswert eingestuft sind.
-
Pseudonymisierungsarchitektur: Auf Basis der Projektstruktur schlägt das LLM vor, wo der Trennungsschnitt stattfindet: welches System die Klartextdaten hält (typisch: Klinik-EDV oder passwortgeschützte lokale Datenbank des zuständigen Arztes), wo die pseudonymisierten Forschungsdaten gespeichert werden und wie der Datenzugang organisiert ist.
-
Technische Maßnahmen nach Art. 32 DSGVO: Verschlüsselung (TLS in transit, AES-256 at rest), Zugriffsprotokollierung, Backupstrategie — das LLM generiert eine vollständige Auflistung basierend auf dem beschriebenen Technikstack.
Der wichtige Hinweis: Pseudonymisierung im Sinne der DSGVO ist kein binäres Merkmal. “Wir haben die Namen entfernt” reicht oft nicht aus, wenn das Restdatenmuster trotzdem re-identifizierbar ist — insbesondere bei seltenen Erkrankungen, sehr kleinen Teilnehmerzahlen oder der Kombination von Zeitstempeln mit ortsbezogenen Daten. Diese Re-Identifikationsrisiken explizit zu benennen ist Teil einer vollständigen DSFA — und genau hier leistet ein gut promteter LLM echte Arbeit.
Datenschutz und Datenhaltung
Die Ironie dieses Anwendungsfalls: Du erstellst mit einem KI-Tool das Dokument, das beschreibt, wie du mit Personendaten umgehst. Dabei verarbeitest du mit dem KI-Tool — Informationen über deine Studie. Das muss sauber gehalten werden.
Was du dem LLM gibst: Nur Metainformationen. Datenkategorien (“Wir erheben Schlafqualitätswerte und PHQ-9-Scores”), Technikstack (“Daten liegen in REDCap auf den Servern des Universitätsklinikums”), Projektrahmendaten (“Ethikvotum liegt vor, DFG-Förderung”). Keine Patientennamen, keine Probandenkennziffern, keine identifizierenden Rohdaten.
Warum das reicht: Das LLM braucht keine Patientendaten, um ein Datenschutzkonzept zu schreiben. Es braucht die Beschreibung der Verarbeitungsvorgänge — das ist strukturell dasselbe wie ein Beratungsgespräch mit einem Datenschutzanwalt, dem du auch nicht die Akte zeigst, sondern den Fall beschreibst.
AVV-Pflichten beim KI-Tool: Sobald du ein kommerzielles LLM für die Erarbeitung von Konzepten einsetzt, die auch indirekte Informationen über Betroffene enthalten könnten, ist der AVV mit dem LLM-Anbieter empfehlenswert — und bei Gesundheitsdaten-Projekten weitgehend Pflicht. Alle genannten Enterprise-Optionen (Claude Bedrock, ChatGPT Team/Business, Azure OpenAI Service) bieten AVV an.
Was zu vermeiden ist: ChatGPT Free, Claude.ai Free oder Gemini Free für die Erstellung von Datenschutzkonzepten mit Projektbezug zu nutzen — nicht weil es eine katastrophale Datenpanne erzeugt, sondern weil die Anbieter sich Training auf Eingaben vorbehalten, und das ist bei Forschungskontext rechtlich nicht haltbar.
Was es kostet — realistisch gerechnet
Toolkosten pro Konzept
- Claude via AWS Bedrock: ~2–5 Euro (Token-Kosten für ein vollständiges Datenschutzkonzept inkl. Iterationen)
- ChatGPT Team/Business: entfällt als Einzelkosten — in der Abo-Flatrate abgedeckt (25–30 USD/Nutzer/Monat)
- Azure OpenAI Service: ~1–4 Euro je nach Umfang
Gesamtaufwand intern
- Projektbeschreibung strukturieren und ins Prompt übersetzen: 1–2 Stunden
- LLM-Output reviewen, anpassen, offene Fragen markieren: 1–3 Stunden
- Abstimmung mit Datenschutzbeauftragtem und Nacharbeiten: 1–3 Stunden
- Gesamt: 3–8 Stunden statt 20–40 Stunden ohne KI
Was du einsparst Bei einer durchschnittlichen Verkürzung von 20 Stunden, bewertet mit einem Postdoktoranden-Bruttostundensatz von ca. 35–45 Euro: 700 bis 900 Euro pro Projekt. Wer externe Datenschutzberatung hätte beauftragen müssen (2.500–6.000 Euro), spart deutlich mehr. Das lohnt sich ab dem ersten Projekt.
Wo externe Kosten bleiben Der Datenschutzbeauftragte oder externe Berater muss die juristische Endkontrolle übernehmen. Für unkomplizierte Projekte kann das ein halbtägiger Review-Termin sein (300–800 Euro extern) statt einer vollständigen Beauftragung. Bei komplexen multizentrischen Studien oder grenzüberschreitendem Datentransfer ist vollständige externe Beratung nach wie vor angeraten.
Typische Einstiegsfehler
1. Rohdaten oder Fallbeschreibungen ins Prompt einfügen Die größte Falle: “Schreib mir ein Datenschutzkonzept für eine Studie mit folgenden Probandinnen: [tatsächliche Teilnehmerliste mit Namen und Diagnosen].” Dieser Fehler ist leider real und dokumentiert — und er bedeutet, dass die zu schützenden Daten nun bei einem US-KI-Anbieter gelandet sind. Regel: Nur Metadaten. Niemals Einzelpersonendaten, Fallnummern oder Diagnosen in den Prompt.
2. Das KI-generierte Konzept ungeprüft einreichen Halluzination ist bei regulatorischen Texten keine Theorie — es ist ein strukturelles Modellproblem. Ein LLM kann plausibel klingende, aber falsche Rechtsgrundlagenverweise generieren (“Art. 89 Abs. 2 DSGVO erlaubt X” — stimmt möglicherweise nicht für das jeweilige LDSG). Jedes KI-generierte Datenschutzkonzept muss durch eine fachkundige Person auf Rechtsgrundlagen, LDSG-Konformität und Vollständigkeit geprüft werden, bevor es eingereicht wird.
3. Das Forschungsprivileg als Pauschallösung behandeln “Wir machen Wissenschaft, also gilt das Forschungsprivileg” ist kein valides Argument gegenüber einer Datenschutzaufsichtsbehörde. Das DSK-Positionspapier 2024 macht klar: Nicht jede akademische Studie erfüllt die Anforderungen an “wissenschaftliche Forschung” im Sinne von Art. 89 DSGVO — Marktforschung, Qualitätssicherungsprojekte und Abschlussarbeiten ohne methodologische Standards fallen heraus. Wer das Forschungsprivileg beanspruchen will, muss seinen Forschungscharakter aktiv belegen. KI hilft, die Argumente dafür zu strukturieren — aber nicht, das Forschungsprivileg zu erschleichen.
4. AVV als Bürokratie abtun und überspringen “Wir nutzen Google Drive schon seit Jahren ohne AVV, das hat niemanden gestört.” Die Prüfungsdichte bei Forschungsprojekten steigt mit der Datenschutzsensibilität. Ein Forschungsprojekt mit Art. 9-Daten ohne AVV für den eingesetzten Cloud-Speicher ist ein klarer DSGVO-Verstoß — auch wenn er nie aufgefallen ist. Das Datenschutzkonzept benennt alle eingesetzten Dienste explizit, und genau das macht rückwirkend sichtbar, wo AVV fehlen. Das ist zwar unangenehm — aber besser ein dokumentierter Nachholbedarf als ein undokumentierter Dauerfehler.
Was mit der Einführung wirklich passiert — und was nicht
Die häufigste Enttäuschung bei diesem Anwendungsfall: Forscher erwarten, dass das LLM das fertige, unterschriftsreife Dokument produziert. Das tut es nicht.
Was stattdessen passiert: Du bekommst eine sehr gute Rohfassung, die 60–75 Prozent des finalen Dokuments abdeckt. Der Rest entsteht durch zwei bis drei Abstimmungsiterationen mit dem Datenschutzbeauftragten, der projektspezifische Details kennt, die das LLM nicht kennen kann — wie die interne IT-Infrastruktur der Einrichtung, bestehende Rahmenverträge mit Softwareanbietern und die institutionelle Auslegungspraxis des zuständigen LDSG.
Das ist kein Fehler des Systems — es ist die richtige Arbeitsteilung. Das LLM erledigt die Strukturierungsarbeit, die früher den größten Zeitblock fraß. Die fachspezifische Anpassung bleibt beim Menschen.
Typische Widerstände:
“Unser Datenschutzbeauftragter wird das nie akzeptieren.” Das ist seltener ein Problem als befürchtet — die meisten DSBs sind bei korrekter Nutzung (Metadaten nur, kein Echtdaten, AVV mit KI-Anbieter vorhanden) offen für KI-unterstützte Vorarbeiten. Was sie nicht akzeptieren: Konzepte, die erkennbar ungeprüft aus einem KI-Output bestehen, ohne institutionsspezifische Anpassung.
“Wir müssen das doch sowieso mit dem DSB abstimmen.” Genau deshalb hilft KI: Wer mit einem strukturierten Rohentwurf in die DSB-Sitzung geht statt mit einem leeren Word-Dokument, spart beiden Seiten Zeit. Viele Datenschutzbeauftragte an Universitäten haben zehn bis fünfzehn Forschungsprojekte gleichzeitig zu begleiten — eine gute Vorarbeit ist ein echter Vertrauensbonus.
“Das Projekt läuft ja schon, da hilft ein Konzept jetzt auch nichts mehr.” Stimmt nicht. Für laufende Projekte dient das nachträglich erstellte Datenschutzkonzept als Ausgangsdokumentation für den Restlaufzeitraum und als Grundlage für das Gespräch über notwendige Korrekturen. Nichts-Tun ist keine Option.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Projektvorbereitung | 1–2 Stunden | Projektbeschreibung strukturieren: Datenkategorien, Cloud-Dienste, Rechtsgrundlage, LDSG-Zuordnung | Unklar, welches Landesgesetz gilt — KI liefert Grundstruktur, DSB entscheidet |
| Konzeptgenerierung | 1–2 Stunden | Verarbeitungsverzeichnis, Datenfluss, DSFA-Rohversion, Einwilligungsformulare | Halluzinierte Rechtsgrundlagen im LLM-Output — muss manuell geprüft werden |
| AVV-Recherche | 30–60 Minuten | KI listet alle genannten Dienste auf, liefert AVV-Links und EU-Konformitätsbewertung | Dienst hat keinen EU-konformen AVV — Cloud-Wechsel oder Genehmigungsaufwand |
| DSB-Review | 1–3 Stunden | Datenschutzbeauftragter prüft Rohversion, markiert Lücken | DSB hat Rückfragen, die im ursprünglichen Prompt nicht berücksichtigt wurden |
| Finale Überarbeitung | 1–2 Stunden | KI hilft bei Nacharbeiten auf Basis DSB-Feedback | Grundlegende Neustrukturierung nötig — seltener, aber möglich bei komplexen Projekten |
| Gesamt | 4–9 Stunden | Finales, unterschriftsreifes Datenschutzkonzept |
Häufige Einwände — und was dahintersteckt
“Das ist juristisch zu komplex für KI.” Stimmt zum Teil. KI kann keine Rechtsberatung ersetzen und keine verbindlichen Auslegungen des LDSG liefern. Was KI kann: die Struktur eines DSGVO-konformen Datenschutzkonzepts korrekt aufbauen, relevante Rechtsgrundlagen benennen und Risikofelder identifizieren — auf einem Niveau, das gut genug ist für die Vorarbeit, die dann ein DSB oder Anwalt finalisiert. Das ist kein Widerspruch.
“Wenn ich es schnell mit KI mache, ist es weniger gut.” Das Gegenteil trifft häufiger zu: Wer unter Zeitdruck ein Datenschutzkonzept schreibt, das er nicht wirklich versteht, produziert lückenhafte Schablonen. Wer die KI-generierte Struktur durcharbeitet, versteht aktiv, welche Fragen noch offen sind — und kann diese gezielt im DSB-Gespräch klären. Die KI erzwingt eine strukturierte Auseinandersetzung mit dem Material.
“Mein DSB will, dass das mit ihm zusammen erstellt wird.” Das ist eine organisatorische Entscheidung eurer Institution, keine technische Grenze. KI als Vorbereitungstool — du strukturierst die Projektbeschreibung, das LLM liefert eine Rohfassung — ist kompatibel mit einem gemeinsamen Abstimmungsprozess. Tatsächlich läuft es in der Praxis oft so: Der Forscher bringt einen KI-generierten Entwurf mit, der DSB ergänzt und korrigiert. Das ist schneller als gemeinsames Schreiben auf einem leeren Blatt.
“Wir haben nur kleine Projekte, da lohnt sich das nicht.” Bei einem kleinen Projekt mit zwanzig Probandinnen und einfacher Datenstruktur braucht ein Datenschutzkonzept keine vierzig Stunden — aber es braucht trotzdem ein Verarbeitungsverzeichnis und eine Rechtsgrundlagenanalyse. KI macht auch das schnell: Statt drei Stunden Standardentwurf ein halbstündiges Prompt-Gespräch, das dir die Grundstruktur liefert, die du dann in einer Stunde finalisierst.
Woran du merkst, dass das zu dir passt
Du profitierst von diesem Ansatz, wenn:
- Du Forschungsprojekte mit Personendaten leitest — egal ob klinische Studie, sozialwissenschaftliche Befragung oder App-basierte Erhebung
- Du mehr als ein Projekt pro Jahr durchführst und den Dokumentationsaufwand nicht jedes Mal neu von Null aufbauen willst
- Du an einer öffentlichen Einrichtung forschst, wo der Datenschutzbeauftragte überlastet ist und frühe Vorarbeit ausdrücklich willkommen ist
- Du gerade eine Studie abschließt und erst jetzt siehst, dass die Datenschutzdokumentation lückenhaft ist — das Konzept nachzuliefern ist besser als gar keines zu haben
- Du Art. 9-Daten verarbeitest (Gesundheit, Psyche, Genetik) und dir bewusst ist, dass hier besondere Dokumentationspflichten gelten
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Dein Projekt ist bereits vollständig abgeschlossen und alle Daten sind gelöscht. Dann hat ein Datenschutzkonzept nur noch rückwirkende, dokumentarische Funktion. Wenn keine zukünftigen Verarbeitungsvorgänge mehr stattfinden, ist der Aufwand kaum noch gerechtfertigt — es sei denn, eine Einreichung oder ein Fördermittelabschluss erfordert es explizit.
-
Deine Institution verarbeitet Daten in einem so spezifischen institutionellen System (proprietäre Klinik-EDV, Bundesbehörden-Infrastruktur, klassifiziertes Netz), dass die KI-generierten AVV-Empfehlungen und Technikmaßnahmen vollständig am institutionellen Rahmen vorbeigehen. Dann ist ein institutionelles Template sinnvoller als ein generiertes Konzept.
-
Dein Vorhaben ist eine echte Hochrisikoverarbeitung — systematisches Profiling mit Gesundheitsdaten auf Basis biometrischer Erkennung, Langzeitmonitoring vulnerabler Gruppen — wo die DSFA nicht nur ein Dokument ist, sondern ein echter Entscheidungsprozess mit Konsultation der Datenschutzaufsicht nach Art. 36 DSGVO. Hier braucht es spezialisierte Rechtsberatung, keine KI-generierte Grundstruktur.
Das kannst du heute noch tun
Öffne ChatGPT im Team-Plan, Claude über claude.ai (für unverbindliche Tests mit Metadaten ohne echten Personenbezug) oder direkt Azure OpenAI Service für den DSGVO-konformen Einstieg. Schreib eine 10-Zeilen-Projektbeschreibung: welche Daten, welche Cloud-Dienste, welche Einrichtung, welche Förderung. Dann verwende diesen Prompt:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- DSK-Positionspapier Wissenschaftliche Forschungszwecke (September 2024): Datenschutzkonferenz (Bund/Länder), „Positionspapier der DSK zur Bestimmung des Begriffs der wissenschaftlichen Forschungszwecke” (11. September 2024). Definiert, welche Verarbeitungen das Forschungsprivileg beanspruchen können. URL: datenschutzkonferenz-online.de
- DLA Piper GDPR Data Breach Report 2024: DLA Piper, „GDPR Fines and Data Breach Report” (Januar 2024). 1,78 Milliarden Euro Bußgelder europaweit in 2023, 335 gemeldete Verletzungen täglich. URL: dlapiper.com
- Forschungsklauseln im neuen Datenschutzrecht: Netzwerk Datenschutzexpertise, „Die Forschungsklauseln im neuen Datenschutzrecht” (2018). Grundlegende Analyse der LDSG-Forschungsklauseln in allen Bundesländern. URL: netzwerk-datenschutzexpertise.de
- Datenschutzberatung Kosten: Marktübersicht externer Datenschutzbeauftragter und Stundensätze Datenschutzberatung (150–200 €/h). Quellen: keyed.de und dsgvo-vorlagen.de (Stand 2026).
- Datenschutz bei klinischen Studien: gesundheitsdatenschutz.org, „Datenschutz bei Klinischen Studien” — kooperative Leitlinie mehrerer Datenschutzbeauftragter. URL: gesundheitsdatenschutz.org
- Art. 89 DSGVO (Forschungsprivileg): DSGVO-Gesetz.de Kommentierung zu Art. 89 und LDSG-Verweisklauseln. URL: dsgvo-gesetz.de
- Aufwandsschätzungen Datenschutzkonzept: Erfahrungswerte aus Gesprächen mit Datenschutzbeauftragten an deutschen Universitäten sowie Leitfaden zur Datenschutzkonzept-Erstellung der Universität Bielefeld, Leitfaden Forschungsethik der Deutschen Rentenversicherung (Stand 2025). Stundenzahlen sind Orientierungswerte, keine repräsentative Erhebung.
Du willst wissen, welche Rechtsgrundlage für dein konkretes Projekt gilt und wie das Prompt-Template auf eure Projektstruktur zugeschnitten werden muss? Meld dich — das klären wir in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Literaturrecherche automatisieren
KI durchsucht Datenbanken wie PubMed, Scopus und Semantic Scholar und liefert relevante Paper mit Zusammenfassungen. Spart Wochen manueller Recherche.
Mehr erfahrenGrant-Antrag Schreibassistent
KI unterstützt beim Verfassen von Drittmittelanträgen: strukturiert Projektbeschreibungen, passt Sprache an Fördergeber an und prüft Vollständigkeit.
Mehr erfahrenForschungsdaten-Auswertung mit KI
KI analysiert große Mengen Messdaten, Umfrageergebnisse oder Textkorpora und identifiziert Muster, Ausreißer und Zusammenhänge, die manuell nicht erkennbar wären.
Mehr erfahren