Zum Inhalt springen
Pharmaindustrie zulassungbfarmema

Zulassungsanträge für BfArM und EMA vorbereiten

KI unterstützt die Erstellung von CTD-Modulen für nationale und europäische Zulassungsanträge — durch automatische Formatprüfung, Lückenanalyse und Konsistenzcheck.

Worum geht's?

Es ist ein Freitagnachmittag im November.

Thomas leitet Regulatory Affairs bei einem mittelständischen Pharmaunternehmen, sechs Wochen vor der geplanten Einreichung des Zulassungsantrags beim BfArM. Das CTD-Dossier für ein neues Generikum ist seit Monaten in Arbeit. Fünf Regulatory-Experten haben Module 2 bis 5 befüllt, drei externe Medical Writer haben an Modul 2.7 gearbeitet, der eCTD-Publisher ist konfiguriert.

Dann kommt das E-Mail: Der BfArM hat zum 1. Dezember 2025 neue Validierungskriterien (eCTD v8.2) verpflichtend eingeführt. Manche Hyperlinks im Modul 1 müssen neu gesetzt werden, ein Anhang fehlt für das neue M1-Schema.

Thomas verbringt das Wochenende damit, mit dem eCTD-Publisher-Support zu klären, welche der 400 Dateien im Dossier betroffen sind. Die Einreichung wird um drei Wochen verschoben. Nicht weil der Inhalt falsch ist — sondern wegen eines Formatproblems, das automatisierbar gewesen wäre.

Das echte Ausmaß des Problems

Ein Zulassungsantrag im CTD-Format (Common Technical Document) ist eines der komplexesten Dokumente, die ein Pharmaunternehmen produziert. Module 1 bis 5 umfassen je nach Antrag 2.000 bis 10.000 Seiten, aufgeteilt in hunderte Einzeldokumente mit strengen Strukturvorgaben. Jedes Dokument muss mit korrekt formatierten Lesezeichen versehen, verlinkbar und in einer validen eCTD-Sequenz verpackt sein.

Die zwei Hauptkostentreiber:

Erstens: Formale Qualitätsmängel. Das BfArM prüft eCTD-Submissions zunächst auf formale Validität, bevor eine inhaltliche Beurteilung beginnt. Strukturfehler, fehlende Pflichtdokumente oder inkonsistente Querbezüge zwischen Modulen lösen einen Mängelbrief aus — mit einer Frist zur Nachbesserung von typisch 3 Monaten. Jede solche Runde kostet Zeit und blockiert die Ressourcen des Teams.

Zweitens: Konsistenz zwischen Modulen. CTD-Module referenzieren sich gegenseitig: Modul 2.7 (Clinical Overview) fasst die klinischen Daten aus Modul 5 zusammen, Modul 2.4 (Nonclinical Overview) basiert auf Modul 4. Wer in Modul 5 eine Studie ergänzt, aber Modul 2.7 nicht aktualisiert, produziert eine Inkonsistenz — die beim Reviewer auffällt und eine Frage auslöst.

Was das BfArM statistisch zeigt:

Das BfArM hat seit Dezember 2025 eCTD v8.2-Validierungskriterien verpflichtend eingeführt. Für bereits laufende Antragsteller bedeutet das: Alle neuen Sequenzen müssen dem neuen Schema entsprechen. Fehler beim Übergang auf neue Validierungsregeln sind eine der häufigsten Ursachen für verzögerte Einreichungen — nicht wegen inhaltlicher Qualitätsprobleme, sondern wegen Formatfehler.

Bei der FDA werden laut FDA-Daten weniger als ein Drittel aller generischen Arzneimittelanträge (ANDAs) im ersten Review-Zyklus genehmigt. Ein wesentlicher Anteil der Rückweisungen betrifft formale und strukturelle Mängel, die durch konsequente Vorprüfung vermeidbar wären.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-gestützter CTD-Vorbereitung
Manuelle Konsistenzprüfung Modul 2 vs. 4 und 55–10 Arbeitstage1–2 Tage (automatisiert + Review)
Formale Mängelrunden vor Einreichung1–3 Runden typischZiel: max. 1 Runde
Erkennung fehlender PflichtdokumenteAd-hoc durch ReviewerSystematisch vor Einreichung
Anpassungsaufwand bei neuen BehördenspezifikationenManual, fehleranfälligAutomatisch gegen aktuelle Validierungsregeln
Zeit von finalem Content bis Einreichung3–6 Wochen Publishing + QC1–2 Wochen ¹

¹ Schätzwert basierend auf Pilotprojekten; stark abhängig von Dossier-Komplexität und Team-Erfahrung.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) KI reduziert den Prüfaufwand erheblich — aber der Gesamtzeitplan einer Zulassung wird von inhaltlicher Qualität, Behördenbearbeitungszeiten und klinischen Daten dominiert, nicht vom Publishing. Deshalb 3 statt 4: Der Zeitgewinn ist real, aber nicht der dominante Hebel im gesamten Zulassungsprozess.

Kosteneinsparung — sehr hoch (5/5) Das ist der stärkste Wert in dieser Kategorie. Eine eingesparte Behördenrückfrage bedeutet 3–6 Monate kürzere Zulassungszeit. Für ein Produkt mit auch nur 1 Million Euro monatlichem Marktpotenzial entspricht das 3–6 Millionen Euro entgangenen Umsatzes. Der ROI eines Systems, das auch nur eine solche Rückfrage verhindert, übersteigt seine gesamten Implementierungskosten um ein Vielfaches. Kein anderer Use Case in dieser Kategorie hat ein vergleichbar asymmetrisches Nutzenprofil.

Schnelle Umsetzung — sehr niedrig (1/5) Das ist der schwierigste Use Case in dieser Kategorie. Ein Regulatory-Submission-System, das in den Einreichungsprozess integriert ist, unterliegt zwingend der GxP-Validierungspflicht nach GAMP5. Realistische Implementierungszeit: 8–14 Monate. Wer schnellere Wege verspricht, ignoriert entweder die Validierungsanforderungen oder setzt ein System ein, das rechtlich nicht standhält.

ROI-Sicherheit — mittel (3/5) Der potenzielle ROI ist enorm — aber er ist variabel. Er hängt davon ab, ob eine Rückfrage tatsächlich verhindert wird, und das ist ex ante ungewiss. Ein System, das formale Fehler erkennt, liefert keinen garantierten Schutz vor inhaltlichen Fragen der Behörde. ROI tritt ein, wenn formale Fehler verhindert werden — und das lässt sich erst nach mehreren Einreichungen belegen.

Skalierbarkeit — niedrig (2/5) Jeder neue Wirkstoff, jede neue Indikation bringt ein neues Dossier-Profil mit. KI-Prüfmodule, die auf einem Wirkstoff kalibriert wurden, müssen für den nächsten angepasst werden. Das System skaliert nicht ohne Pflegeaufwand — ein spürbarer Unterschied zur klinischen Studiendokumentation, wo dasselbe Prüfsystem für verschiedene Studien desselben Typs wiederverwendbar ist.

Richtwerte — stark abhängig von Produktportfolio, Behörden-Target und Dossier-Komplexität.

Was das System konkret macht

Ein KI-gestütztes CTD-Prüfsystem arbeitet auf zwei Ebenen.

Ebene 1: Formale Strukturprüfung

Das System kennt die aktuellen eCTD-Validierungsregeln (BfArM, EMA, Modul-1-Spezifikationen) und prüft die Dossierstruktur automatisch: Sind alle Pflichtdokumente für das jeweilige Verfahren vorhanden? Sind die Hyperlinks korrekt gesetzt? Stimmt die Lesezeichen-Hierarchie? Sind Dateinamen konform? Diese Prüfungen führt heute Lorenz eCTD Publisher durch — KI fügt die Schicht hinzu, die inhaltliche Inkonsistenzen zwischen Modulen aufdeckt, nicht nur Formatfehler.

Ebene 2: Inhaltliche Konsistenzprüfung zwischen Modulen

Modul 2 ist eine Zusammenfassung von Modulen 3, 4 und 5. Wenn im Modul-5-CSR eine Studienzahl aktualisiert wird, aber die entsprechende Summary in Modul 2.7 nicht, entsteht eine Inkonsistenz. KI-gestützte Querprüfung erkennt solche Abweichungen — und zeigt an, wo Modul-2-Texte mit den Quelldaten aus Modulen 4 und 5 nicht mehr übereinstimmen.

Was bleibt Aufgabe des Regulatory-Affairs-Teams

KI prüft Struktur und Konsistenz — sie beurteilt keine regulatorische Strategie, keine wissenschaftliche Argumentation, kein Risk-Benefit-Assessment. Die inhaltliche Qualität des Dossiers, die Auswahl der richtigen Verfahrensart und die Kommunikation mit der Behörde bleiben menschliche Aufgaben. KI ist hier der Vorab-Qualitätssicherungsschritt — der Qualitätsprüfer, nicht der Autor.

Rechtliche Besonderheiten

CTD-Dossiers gehören zu den sensibelsten Dokumenten, die ein Pharmaunternehmen verwaltet: Sie enthalten Betriebs- und Geschäftsgeheimnisse, klinische Daten, Herstellungsverfahren und Formulierungsdetails. Für die KI-gestützte Verarbeitung dieser Daten gelten:

GxP-Validierungspflicht

Jedes System, das in den Einreichungsprozess eingebunden ist und dessen Output direkt in das Dossier einfließt, muss nach GAMP5 validiert sein — oder nach FDA CSA-Guidance für eine Computer Software Assurance bescheinigt werden. Das ist nicht verhandelbar: Bei einem Behördenaudit wird gefragt, wie das System validiert wurde, welche Testdokumentation vorliegt und wer den Systemzustand überwacht.

Datenschutz und Vertraulichkeit

CTD-Module enthalten in der Regel keine personenbezogenen Probandendaten (diese sind pseudonymisiert oder aggregiert) — aber sie enthalten vertrauliche Unternehmens- und Produktinformationen. Der Einsatz von Cloud-KI-Services erfordert einen AVV nach Art. 28 DSGVO und eine Prüfung, ob Geschäftsgeheimnisse an US-amerikanische Cloud-Anbieter übertragen werden dürfen. Empfehlung: Für produktive Einreichungsdossiers EU-gehostete Lösung mit klarer Datenisolierung nutzen.

BfArM-spezifisch: eCTD v8.2 seit Dezember 2025 verpflichtend

Seit 1. Dezember 2025 verlangt das BfArM für alle neuen Einreichungssequenzen die Einhaltung der eCTD-Validierungskriterien v8.2 und EU eCTD M1-Spezifikation v3.1.1. Ein automatisches Validierungs-Tool muss gegen diese aktuellen Regelwerke geprüft sein — ältere Versionen reichen nicht mehr.

Konkrete Werkzeuge — was wann passt

Lorenz eCTD Publisher — Der Marktstandard für europäische eCTD-Submissions. Lorenz prüft automatisch gegen aktuelle Validierungsregeln (inkl. eCTD v8.2), erstellt valide eCTD-Sequenzen und unterstützt alle europäischen Verfahrenstypen. Für Regulatory-Affairs-Teams mit regelmäßigem BfArM/EMA-Einreichungsbedarf ist das der unverzichtbare Einstieg — vor jeder KI-Schicht. Kosten: 10.000–30.000 €/Jahr typisch für Mid-Size-Pharma.

Veeva Vault RIM (Regulatory Information Management) — Wenn Veeva ohnehin als Dokumentenplattform genutzt wird: Vault RIM integriert Submission-Tracking, eCTD-Versionierung und Content-Management in einer Plattform. Mit dem Vault AI-Layer lassen sich Konsistenzprüfungen zwischen CTD-Modulen automatisieren. Kosten: Unternehmensindividuell, Jahresvertrag.

Claude AI für Modul-2-Texterstellung — Als Schreibassistent für Clinical Overview und Summary-Dokumente in Modul 2: Medical Writers nutzen Claude für Erstdrafts von Standardabschnitten, die dann gegen Quell-Daten aus Modulen 4 und 5 überprüft werden. Außerhalb des GxP-Systems, kein Validierungsaufwand für das KI-Tool. Kosten: 20–30 €/Nutzer/Monat.

Azure OpenAI Service mit EU-Region — Für Teams, die eine valide, API-basierte Lösung für automatische Querprüfungen zwischen Modulen aufbauen wollen. Azure OpenAI in EU-Region bietet Datenresidenz und einen Microsoft-AVV. Als Basis für eine eigene RAG-Lösung über das Dossier-Archiv. Kosten: nutzungsabhängig.

Zusammenfassung:

  • Einreichungsvorbereitung grundsätzlich → Lorenz eCTD Publisher (Pflicht, nicht optional)
  • Veeva-Nutzer → Vault RIM mit KI-Features erweitern
  • Modul-2-Texterstellung → Claude/ChatGPT als externes Schreibwerkzeug
  • Vollintegrierte Konsistenzprüfung → eigene RAG-Lösung auf Azure EU

Datenschutz und Datenhaltung

CTD-Dossiers enthalten hochvertrauliche Informationen: Synthesewege, Formulierungsrezepturen, klinische Evidenz, Wirkstoffprofile. Diese Inhalte sind meist keine personenbezogenen Daten im DSGVO-Sinne — aber sie sind Betriebs- und Geschäftsgeheimnisse, die nicht ungeschützt in Cloud-Dienste geladen werden sollten.

Empfohlenes Vorgehen nach Schutzbedarfsstufe:

  • Modul-1-Dokumente (administrative Anlagen): Geringes Risiko, Standard-Cloud-Dienste mit AVV zulässig
  • Module 2–3 (Qualität, Synthesis, Manufacturing): Hohe Vertraulichkeit — EU-Hosting mit nachgewiesener Datenisolierung wählen
  • Module 4–5 (Nonclinical/Clinical): Je nach Pseudonymisierungsgrad unterschiedlich; bei aggregierten Daten weniger sensitiv; bei Rohdaten aus Studien strenge Datenschutzregeln

Für alle Ebenen gilt: AVV nach Art. 28 DSGVO abschließen, bevor irgendein Dossierinhalt in Cloud-Dienste geladen wird. Das gilt auch für generische KI-Assistenten wie Claude oder ChatGPT — beide bieten Business-Verträge mit AVV an, aber keine echte EU-Datenresidenz im Enterprise-Sinne.

Was es kostet — realistisch gerechnet

Einmalige Einrichtungskosten

  • Lorenz eCTD Publisher (falls nicht vorhanden): 10.000–30.000 €/Jahr Lizenz + Implementierung
  • KI-Layer für Modulkonsistenzprüfung (eigene RAG-Lösung): 30.000–80.000 € Entwicklung + GAMP5-Validierungsdokumentation
  • Veeva Vault RIM-Erweiterung mit KI: projektspezifisch, typisch 50.000–200.000 € Implementierung

Laufende Kosten (monatlich)

  • Lorenz eCTD Publisher: entsprechend Jahresvertrag
  • Claude/ChatGPT als Schreibwerkzeug: 20–30 €/Person/Monat
  • Azure OpenAI API: ca. 1.000–5.000 €/Monat für Regulatory-Affairs-Team je nach Volumen

Wie du den ROI misst Die sauberste Metrik: Zahl der Mängelschreiben (Deficiency Letters) vor und nach Einführung. Ein Mängelschreiben, das vermieden wird, spart typisch 3–6 Monate Verzögerung — plus die Personalkosten für die Antwortaufbereitung (typisch 2–4 Wochen Vollzeiteinsatz eines Senior Regulatory Affairs Managers).

Bei einem Produkt mit 2 Mio. Euro Jahresumsatz im ersten Jahr entspricht eine vermiedene 3-Monats-Verzögerung 500.000 Euro entgangenem Umsatz. Selbst konservativ gerechnet ist das Nutzenpotenzial erheblich — wenn eine Rückfrage verhindert wird. Das Wenn ist die Unsicherheit, die den ROI-Score auf 3 begrenzt.

Typische Einstiegsfehler

1. KI als Ersatz für Lorenz eCTD Publisher sehen. KI und eCTD-Publishing-Tools lösen unterschiedliche Probleme. Lorenz erstellt valide eCTD-Sequenzen und prüft formale Struktur — das ist nicht ersetzbar durch ein allgemeines Sprachmodell. KI kommt auf die Ebene darüber: Inhaltliche Konsistenz zwischen Modulen. Wer Lorenz zugunsten eines KI-Tools umgeht, baut auf instabilem Fundament.

2. Validierungsaufwand unterschätzen. „Das Tool macht nur Prüfungen, keine Änderungen — muss das wirklich validiert werden?” Ja. Wenn das Prüfergebnis Entscheidungen für die Einreichung beeinflusst, ist es GxP-relevant. Validierung bedeutet nicht unbedingt monatelange IQ/OQ/PQ-Tests — aber User Requirements, Risikoanalyse und Testdokumentation sind Minimum. Ohne das: Risiko eines FDA/EMA-Befunds.

3. Tool auf einer Wirkstoffklasse trainieren — und für andere erwarten, dass es passt. CTD-Anforderungen variieren je nach Arzneimitteltyp (Generikum, Biologikum, neuer Wirkstoff), Verfahrenstyp (national, MRP, DCP, zentrales Verfahren) und Indikation. Ein System, das für ein Generikum im nationalen Verfahren kalibriert wurde, übersieht Anforderungen für ein Biologikum im zentralen Verfahren. Scope-Klarheit vor Implementierungsbeginn ist entscheidend.

Was mit der Einführung wirklich passiert

Regulatory Affairs ist ein Bereich, in dem Erfahrung extrem wertvoll ist — und in dem erfahrene Fachleute aus gutem Grund vorsichtig gegenüber Tools sind, die behaupten, Behördenanforderungen „automatisch” zu prüfen. Die Skepsis ist berechtigt.

Was gut funktioniert: KI als Qualitätsprüfschicht präsentieren, nicht als Entscheidungsautomatismus. Der Regulatory-Affairs-Manager entscheidet weiterhin über die Einreichungsstrategie — das Tool hilft, formale Fehler zu finden, bevor sie die Behörde findet.

Widerstände entstehen vor allem in zwei Situationen:

  • Das Tool flaggt etwas als Fehler, was aus Erfahrung des Reviewers kein Problem ist (False Positive) — und dann wird das Tool als störend erlebt
  • Das Tool übersieht einen Fehler, der zu einer Rückfrage führt — und dann ist das Vertrauen weg

Beides ist unvermeidlich in der Einführungsphase. Entscheidend ist, wie damit umgegangen wird: Jeder False Positive verbessert das System, wenn er dokumentiert und ausgewertet wird. Jeder Miss ist ein Lernfall für den nächsten Kalibrierungszyklus.

Was konkret hilft:

  • Senior Regulatory Affairs Manager frühzeitig zum System-Co-Autor machen — nicht Endnutzer, sondern Kalibrierungs-Partner
  • Erste drei Einreichungen mit parallelem manuellem Review — kein blindes Vertrauen in das System, aber systematischer Vergleich der Findings
  • Feedback-Log einführen — jeder False Positive und jeder Miss wird protokolliert und ausgewertet

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
AnforderungsanalyseMonat 1–2Scope definieren (welche Verfahrenstypen, welche Behörden), Validierungspflicht klärenScope zu breit — besser mit einem Verfahrenstyp starten
Tool-Auswahl und BeschaffungMonat 2–3Lorenz evaluieren/beschaffen, KI-Schicht entscheiden (eigene RAG vs. Plattformfeature)Veeva-Nutzer vs. Lorenz-Nutzer haben unterschiedliche Ausgangssituationen
Validierungsplanung und -durchführungMonat 3–8URS, Risikoanalyse, IQ/OQ/PQ-Tests, GAMP5-DokumentationValidierung blockiert durch fehlende IT-Ressourcen — externe Unterstützung einplanen
Pilotbetrieb mit einem AntragMonat 8–11Paralleler manueller Review und KI-Review für ein reales DossierZu wenige Findings durch das System — Kalibrier-Runde erforderlich
ProduktivbetriebAb Monat 12Routineeinsatz bei allen NeueinreichungenKein Prozess für Updates bei neuen Behördenanforderungen (z.B. neue eCTD-Validierungsregeln)

Häufige Einwände — und was dahintersteckt

„Jeder Antrag ist individuell — KI kann das nicht generisch abdecken.” Stimmt für die inhaltliche Strategie. Stimmt nicht für die formale Strukturprüfung: eCTD-Validierungsregeln sind für alle Anträge eines Verfahrenstyps identisch. Formale Fehler sind generisch erkennbar — inhaltliche Lücken nicht. Diesen Unterschied klar halten vermeidet falsche Erwartungen in beide Richtungen.

„Wenn das System einen Fehler übersieht, haben wir ein Problem.” Das ist die richtige Sorge — und der Grund, warum das System die menschliche Prüfung nicht ersetzt, sondern ergänzt. Kein Reviewer-Tool ist fehlerfrei. Aber ein System, das 90 Prozent der formalen Fehler findet, ist besser als manuelles Review, das 60–70 Prozent findet — sofern das Restrisiko bewusst gemanagt wird.

„Das dauert 12 Monate — bis dahin läuft unser Antrag schon.” Korrekt für den nächsten Antrag. Aber: Pharmaunternehmen reichen typisch mehrere Male pro Jahr ein — Variationen, neue Indikationen, Post-Approval Changes, Verlängerungen. Wer heute beginnt, profitiert beim übernächsten Antrag. Wer wartet, schiebt das Problem nur nach hinten.

Woran du merkst, dass das zu dir passt

  • Dein Unternehmen reicht mindestens zweimal pro Jahr beim BfArM oder EMA ein — Variationen, neue Indikationen, Verlängerungen oder Neuanträge
  • Du hattest in den letzten drei Jahren mindestens einen Mängelbrief, der auf formale oder strukturelle Mängel im Dossier zurückzuführen war
  • CTD-Erstellung bindet drei oder mehr Regulatory-Experten für mehrere Monate je Antrag
  • Dein Regulatory-Affairs-Team wechselt häufig — und erfahrenes Wissen über eCTD-Konventionen geht bei jedem Abgang verloren
  • Du hast bereits Lorenz eCTD Publisher im Einsatz und willst die nächste Ebene (inhaltliche Konsistenz, automatisches Lückenscreening) ergänzen

Wann es sich noch nicht lohnt — drei harte Ausschlusskriterien:

  1. Weniger als zwei Einreichungen pro Jahr. Der Validierungsaufwand (8–14 Monate) amortisiert sich bei seltenen Einreichungen nicht. Eine gut strukturierte Checkliste und erfahrene Regulatory Affairs Consultants sind das bessere Mittel.

  2. Kein etabliertes eCTD-Publishing-System vorhanden. KI-gestützte Modulprüfung setzt voraus, dass das Dossier bereits in einem strukturierten eCTD-Format vorliegt. Wer noch mit nicht-strukturierten PDF-Konvoluten arbeitet, muss zuerst den Publishing-Prozess standardisieren.

  3. Regulatory Affairs Team unter drei Personen oder ohne validierten Systemlandschaft. Ein KI-System für regulatorische Einreichungen braucht einen validierten Betrieb — dafür braucht es Personen, die Validierungsprojekte managen können. In Teams ohne diese Kapazität ist das Kosten-Nutzen-Verhältnis ungünstig.

Das kannst du heute noch tun

Lade das Modul 2.7 (Clinical Summary) und die zugehörigen Clinical Study Reports aus einem früheren Antrag in Claude AI oder ChatGPT. Stell die Frage: „Welche Zahlen und Befunde in Modul 2.7 lassen sich nicht direkt in einem der CSR-Dokumente verifizieren?”

Das ist kein valider Systemcheck — aber ein schneller Test, ob KI überhaupt in der Lage ist, solche Querprüfungen sinnvoll durchzuführen. Keine echten Probandendaten verwenden; für den Test sind anonymisierte oder ältere abgeschlossene Daten geeignet.

Für die strukturierte Qualitätssicherung vor einer Einreichung:

Konsistenzprüfung CTD Modul 2.7 vs. Modul 5
Du bist ein Regulatory Affairs Assistent für Zulassungsanträge beim BfArM und bei der EMA. Ich gebe dir folgende Dokumente eines CTD-Antrags: - Modul 2.7 Clinical Summary (Abschnitte [ABSCHNITTE]) - Referenz-CSR(s) aus Modul 5: [STUDIENKENNZEICHEN] - Protokoll der Referenzstudie: [PROTOKOLLVERSION] Aufgabe: 1. Identifiziere alle quantitativen Angaben in Modul 2.7 (Patientenzahlen, Wirksamkeitsdaten, Sicherheitsdaten, p-Werte), die aus Modul-5-Dokumenten stammen müssen. 2. Überprüfe für jeden Wert: Findet sich ein übereinstimmender Wert in den bereitgestellten Modul-5-Dokumenten? 3. Liste alle Abweichungen mit Fundort (Modul, Abschnitt, Seite). 4. Markiere Stellen, bei denen die Quelle unklar oder nicht verifizierbar ist, explizit als "QUELLE PRÜFEN". Wichtig: Beurteile keine klinische Relevanz, keine Wirksamkeitsaussagen und keine regulatorische Strategie. Nur Konsistenzprüfung. Quellenangabe bei jedem Finding.
Funktioniert mit Claude AI, ChatGPT (für de-pseudonymisierte Dokumente; kein valider Systemeinsatz)
Beispiel-Ausgabe

Mitarbeiter:in

Modul 2.7 sagt: 'In Study XYZ-001, 73% of patients achieved the primary endpoint (HbA1c reduction ≥1% at Week 24; n=87/119).' Bereitgestellter CSR Study XYZ-001, Section 11.4 sagt: n=87/120, 72.5%.

KI-Assistent

Konsistenzfinding — Abweichung gefunden: **Modul 2.7, Abschnitt 2.7.3.2 — Primärer Endpunkt Study XYZ-001** - Modul 2.7: 73%, n=87/119 - CSR XYZ-001, Section 11.4: 72.5%, n=87/120 **Abweichung:** Nenner der Responder-Analyse unterschiedlich (119 vs. 120). Mögliche Ursache: Unterschied durch ein nachträglich ausgeschlossenes Subject nach Datenbankfreigabe? Oder Rundungsdifferenz bei der Prozentangabe? **Handlungsempfehlung:** QUELLE PRÜFEN — Statistiker befragen: Welcher Nenner ist der per Protokoll definierte ITT/PP-Datensatz? Modul 2.7 entsprechend anpassen oder Diskrepanz erklären. Alle anderen geprüften Werte in Abschnitt 2.7.3.2: konsistent mit CSR.

Quellen & Methodik

  • BfArM eCTD v8.2 Pflicht ab 1. Dezember 2025: BfArM, „e-Submission — Neue eCTD-Validierungskriterien v8.2 ab 01.12.2025 verpflichtend” (bfarm.de, 2025).
  • EMA eCTD v4.0 optionale Akzeptanz ab Dezember 2025: EMA-Guidance zur eCTD v4.0, Stand Dezember 2025.
  • FDA ANDA First-Cycle-Approval-Rate unter einem Drittel: FDA Center for Drug Evaluation and Research (CDER), „Generic Drug Program: Fiscal Year 2023 Annual Report”; bestätigt durch IntuitionLabs, „Pharma Regulatory Submissions: Challenges & Digital Solutions” (2024).
  • Zeitverlust durch Mängelschreiben: Erfahrungswerte aus Regulatory-Affairs-Beratungsprojekten; IntuitionLabs, „Regulatory Submission QC Checklist” (2024).
  • GAMP5 (2. Auflage 2022): ISPE Good Automated Manufacturing Practice Guide. De-facto-Standard für GxP-Systemvalidierung in Europa.
  • FDA Computer Software Assurance Guidance (2022): FDA, „Computer Software Assurance for Production and Quality System Software.” Ergänzt GAMP5 um risikobasierten Assurance-Ansatz.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar