Pharmakovigilanz-Berichte (PSUR/PBRER) erstellen
KI unterstützt die Erstellung periodischer Sicherheitsberichte durch automatische Aggregation von Fallberichten, Literaturdaten und behördlichen Signalen.
Es ist Mittwoch, 10:15 Uhr.
Jana ist Pharmakovigilanz-Managerin bei einem mittelständischen Hersteller von Entzündungsmedikamenten. Auf ihren drei Bildschirmen liegt der Stoff für die nächste PSUR-Einreichung in drei Wochen: 462 Fallberichte aus der Adverse-Event-Datenbank seit der letzten Periode, 1.200 Literaturtreffer aus dem Medline-Scan, dazu Tabellen aus der Vorjahres-PSUR, die sie gegen die neuen Zahlen legen muss.
Sie findet eine Diskrepanz. Die Fallberichte zählen 27 schwerwiegende Leberreaktionen, die Literatursuche ergänzt zwei Fälle aus einer italienischen Klinik. Abschnitt 2.3 der letzten PSUR spricht aber von 24. Irgendwo sind drei Fälle doppelt gezählt — oder drei Fälle fehlen in der Vorlage. Jana weiß, was als Nächstes passiert: zwei Tage Abgleich zwischen Datenbankversionen, Exportdateien und Nachträgen. Schreiben an der eigentlichen PSUR? Kommt später.
Das ist keine Dateneingabe. Das ist der strukturelle Aufwand, den niemand offen ausspricht, weil er zu tief in der Praxis sitzt — und genau deshalb auch niemand optimiert.
Das echte Ausmaß des Problems
Ein Periodic Safety Update Report (PSUR) — im EMA-Jargon auch Periodic Benefit-Risk Evaluation Report (PBRER) — ist keine Datensammlung, sondern ein regulatorisches Dokument. Es fasst den aktuellen Stand der Nutzen-Risiko-Abwägung eines Arzneimittels zusammen und geht an die Behörden (BfArM, EMA, FDA).
Das Problem sitzt nicht im Schreiben, sondern im Zusammentragen. Zu einer PSUR gehören nicht drei Datenquellen, sondern typischerweise acht bis zwölf:
- Individual Case Safety Reports (ICSRs) aus der PV-Datenbank
- Spontanmeldungen von Patientinnen, Patienten, Ärztinnen und Ärzten
- Literaturtreffer aus Medline, Google Scholar und spezialisierten Datenbanken
- Ergebnisse aus eigenen klinischen Studien
- Post-Marketing-Surveillance-Daten
- Fallberichte aus der Behördenkorrespondenz (FDA, EMA, nationale Behörden)
- Daten aus Patientenregistern und -programmen
- Signale aus externen Pharmakovigilanz-Tools
Jede dieser Quellen spricht eine andere Sprache, nutzt andere ID-Schemata, und viele sind nur halbautomatisiert angebunden. Der zentrale Aufwand liegt nicht im Schreiben, sondern in der Aggregation und Konsistenzprüfung.
Nach Daten des International Council for Harmonisation (ICH) und aus Branchenberichten verbringen Pharmakovigilanz-Teams 50 bis 60 Prozent der PSUR-Erstellungszeit mit Datensammlung, Validierung und Abgleich. Das sind bei einer 8-Wochen-PSUR 20 bis 25 Arbeitstage pro Person — in einem fünfköpfigen Team 100 bis 125 Personentage, bevor die eigentliche Analyse beginnt.
Wann wird es kritisch?
- Bei parallelen Produkten. Vier gleichzeitig laufende PSURs bedeuten vier Teams, die um Datenbankzugriff, Validierungsressourcen und Regulatory-Freigaben konkurrieren.
- Bei schnellen Signalen. Wird eine sicherheitsrelevante Auffälligkeit entdeckt, muss die PSUR vorgezogen werden — und die Datenbasis ist dann unvollständig oder unvalidiert.
- Nach Behördenfragen. Mängelschreiben von FDA oder EMA, die Nacharbeit verlangen, kosten drei bis sechs Monate — weil man aus 462 Fallberichten die fünfzehn spezifischen herauspflücken muss, die die Behörde wissen wollte.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI-Unterstützung | Mit KI-gestützter Aggregation |
|---|---|---|
| Datensammlung und Validierung | 20–30 Arbeitstage je PSUR | 8–15 Arbeitstage (Reduktion 40–50 %) |
| Konsistenzprüfung und Konfliktauflösung | 3–5 Arbeitstage manuell | 0,5–1 Arbeitstag plus KI-Vorschläge |
| Literaturscan (Vollständigkeit) | 60–70 % der relevanten Publikationen | über 90 % durch strukturierte Suche |
| Fehler bei Einreichung | 15–25 % der PSURs enthalten Konsistenzfehler | unter 5 % (über Validierungsregeln) |
| Fehlererkennung | erst nach Behördenrückmeldung (3–6 Monate) | vor Einreichung (Wochen) |
Die 40 bis 50 Prozent Reduktion der Datensammlungszeit stützen sich auf Herstellerangaben (Oracle Argus, Veeva Vault) und Fallstudien im Journal of Pharmaceutical and Biomedical Analysis (2023–2024). Die Fehlerquoten sind Schätzwerte aus Inspektionsberichten und Branchenumfragen — keine repräsentativen Daten, aber über mehrere Quellen konsistent.
Wichtig zum Einordnen: KI verkürzt nicht die Schreibzeit um 50 Prozent — das wäre Marketing. Sie verkürzt die Datenarbeit um 40 bis 50 Prozent. Damit bleibt Kopfraum frei für die eigentlich anspruchsvolle Aufgabe: die Nutzen-Risiko-Abwägung.
Einschätzung auf einen Blick
Zeitersparnis — hoch (4/5)
Die automatische Aggregation der Individual Case Safety Reports und die strukturierte Literatursuche sparen 20 bis 30 Prozent der Projektdauer pro PSUR. Das ist nicht spektakulär, aber real und messbar. Nicht voll bewertet, weil der anspruchsvollste Teil — das Regulatory Writing und die Nutzen-Risiko-Abwägung — weiter in menschlicher Hand bleibt. KI hilft bei der Aggregation, nicht beim Urteil.
Kosteneinsparung — mittel (3/5)
Die direkte Einsparung entsteht dadurch, dass pro PSUR ein statt zwei Vollzeitäquivalente in der Datenarbeit nötig sind. Für ein Unternehmen mit vier PSURs pro Jahr ergibt das rund 10 bis 15 Personentage — real, aber bei kleineren Teams unter der Schwelle, um tatsächlich eine Stelle einzusparen. Der indirekte Nutzen (schnellere Reaktion auf Sicherheitssignale, weniger Mängelschreiben) ist größer, lässt sich aber schwer in Euro ausdrücken.
Schnelle Umsetzung — niedrig (2/5)
Der kritische Haken. Jedes System, das Sicherheitsdaten automatisiert aggregiert und klassifiziert, muss selbst validiert werden. Eine Validierung nach GxP-Standards (GAMP5, FDA 21 CFR Part 11) dauert fünf bis acht Monate — egal wie einfach das Tool marketingseitig wirkt. Wer diese Phase abkürzt, riskiert im Audit den Satz: „Ihr KI-System war nicht validiert, die PSUR ist nicht konform.”
ROI-Sicherheit — mittel (3/5)
Die Zeitersparnis lässt sich zählen. Die Signal-Qualität lässt sich nicht sauber isolieren: Hat die KI ein echtes Sicherheitssignal übersehen? War es ein falscher Alarm? Das zeigt sich oft erst rückblickend — und genau deshalb rutscht die ROI-Sicherheit in die Mitte.
Skalierbarkeit — hoch (4/5)
Das System skaliert gut: mehr Produkte, mehr Fallberichte, mehr Literaturquellen — ohne dass der Validierungsaufwand proportional mitwächst. Aber: Bei neuen Indikationen oder strukturellen Datenbankänderungen ist eine Neuvalidierung fällig.
Richtwerte — stark abhängig von Portfolio-Größe, Reifegrad der PV-Datenbank und regulatorischem Inspektionsrisiko.
Was das System konkret macht
Ein KI-System für Pharmakovigilanz arbeitet auf drei Ebenen.
1. Datenintegration und Normalisierung. Die PV-Datenbank speichert Fallberichte in sehr unterschiedlichen Formaten — manche vollständig strukturiert (Alter, Gewicht, Dosis), manche halbstrukturiert mit wichtigen Details in Freitextfeldern. Ein Modul auf Basis von Natural Language Processing (NLP) extrahiert die relevanten Attribute aus den Freitexten, ergänzt fehlende Strukturfelder und normalisiert Begriffe (zum Beispiel „Leberschaden” → „Hepatotoxizität” gemäß MedDRA-Klassifikation). Das spart den größten Teil der manuellen Datenbereinigung.
2. Strukturierte Literatursuche mit Relevanzbewertung. Ein klassischer Literatur-Screen für eine PSUR bedeutet: in Medline nach „Wirkstoff + Nebenwirkung” suchen und dann Hunderte Treffer manuell durchsehen, um zu filtern, welche neu und welche relevant für die aktuelle Berichtsperiode sind. KI übernimmt diesen Filter. Sie bewertet, welche Publikationen neu sind, welche bereits in früheren PSURs zitiert wurden und welche tatsächlich Fallberichte enthalten statt nur Kommentare. Das reduziert die Leselast um 60 bis 70 Prozent.
3. Anomalieerkennung in den Fallzahlen. Ein weiterer Baustein vergleicht die Fallzahlen der neuen Berichtsperiode mit der vorherigen und markiert Kategorien, in denen eine Nebenwirkung sprunghaft zu- oder abnimmt. Das hilft, neue Sicherheitssignale zu entdecken, bevor sie in der Literatur sichtbar werden.
Was KI hier nicht leistet
KI stellt keine Kausalität fest. Wenn 27 schwerwiegende Leberreaktionen gemeldet sind, kann sie nicht sagen: „Das ist ursächlich mit dem Medikament verbunden.” Diese Entscheidung trifft eine Ärztin oder ein Arzt mit Zugriff auf die Fallgeschichten und klinischer Kenntnis des Präparats. KI übernimmt die Vorarbeit; die medizinisch-regulatorische Bewertung bleibt beim Menschen.
Rechtliche Besonderheiten
In Europa ist die PSUR/PBRER nicht explizit als GxP-Dokument klassifiziert — sie wird aber wie eines behandelt. Die EMA erwartet, dass die Daten konsistent, nachvollziehbar und im Audit nachprüfbar sind.
Die Konsequenz für den KI-Einsatz:
- Ein KI-Modul, das Daten aggregiert, deren Output aber vor dem Einfließen in die PSUR von einem Menschen geprüft wird → keine formale Validierungspflicht des KI-Tools selbst.
- Ein KI-Modul, das Daten aggregiert und direkt ohne manuelle Freigabe in den Report einfließt → Validierungspflicht nach GAMP5.
Der pragmatische Einstieg liegt in der ersten Variante: KI-Assistenz mit menschlicher Freigabe als Kontrollschritt. Jeder KI-generierte Abschnitt geht durch eine qualifizierte Pharmakovigilanz-Person, bevor er Teil der PSUR wird. Das vermeidet die aufwendige Tool-Validierung — und bewahrt die regulatorische Sicherheit.
Konkrete Werkzeuge — was wann passt
Veeva Vault Safety mit KI-Modulen — wenn dein Unternehmen bereits Vault nutzt oder den Umstieg plant Vault Safety integriert PV-Datenbank, eTMF und Regulatory Affairs auf einer Plattform. Neuere Module ergänzen KI-Funktionen für die PSUR-Aggregation. Die Kosten hängen stark von der Lizenzanzahl ab, starten aber typisch bei 50.000 Euro pro Jahr.
Oracle Argus Safety — das klassische System für große Pharmakonzerne Argus ist spezifisch für Fallberichtdatenbanken gebaut — anders als der generalistischere Vault-Ansatz — und bringt PSUR-Vorlagen sowie Signal Detection nativ mit. Neuere Versionen ergänzen KI-Funktionen für die Anomalieerkennung. Enterprise-Lizenzierung, Jahresverträge typisch ab 75.000 Euro.
ArisGlobal eTMF & Safety — die mittelgroße Alternative Eine spezialisierte Plattform für Sicherheitsdokumentation. Niedrigere Gesamtkosten als Veeva, dafür kleinerer Kundenstamm und weniger Drittanbieter-Integrationen. Für mittelständische Pharmaunternehmen, die schneller einführen wollen, passt das Profil gut. Ab etwa 30.000 bis 50.000 Euro pro Jahr.
Claude oder ChatGPT in einer RAG-Konfiguration — für kleine Teams oder den Proof-of-Concept Du lädst die Fallberichtstabellen und die letzte PSUR als Kontext in Claude oder ChatGPT (über einen sicheren Kanal) und lässt daraus strukturierte Entwürfe einzelner PSUR-Abschnitte erzeugen. Keine teure Lizenz, aber auch keine formale GxP-Validierung — jeder Output muss manuell freigegeben werden. Kosten: 20 bis 30 Euro pro Nutzer und Monat.
Kurze Entscheidungshilfe:
- Großunternehmen mit existierender Vault- oder Argus-Installation → bestehenden Stack um KI-Module erweitern
- Mittlere Pharmaunternehmen ohne System → ArisGlobal oder Vault Essential
- Kleine Teams oder Pilotprojekt → Claude oder ChatGPT mit RAG, menschliches Review als Gate
Datenschutz und Datenhaltung
PSUR-Rohdaten enthalten Patientendaten — auch dann, wenn sie pseudonymisiert sind — und vertrauliche Geschäftsdaten. Diese Daten fallen unter besondere Schutzkategorien nach DSGVO Art. 9 (Gesundheitsdaten).
Was das konkret heißt:
- Cloud-Systeme brauchen einen belastbaren Auftragsverarbeitungsvertrag (AVV), nicht nur eine Datenschutzerklärung.
- EU-Datenhaltung ist für deutsche Pharmaunternehmen faktisch Pflicht — auch wenn das Gesetz das nicht ausdrücklich so formuliert, erwarten es die Behörden.
- Alle genannten Enterprise-Systeme (Veeva, Oracle, ArisGlobal) bieten EU-Regionen und vertragliche AVVs an.
- Generische LLMs (Claude, ChatGPT) solltest du nicht mit echten Fallberichten füttern — höchstens mit anonymisierten Beispieldaten für einen Proof-of-Concept. Für den produktiven Einsatz braucht es Enterprise-Verträge mit expliziten Zusagen zur Datenverwendung und -löschung.
Was es kostet — realistisch gerechnet
Drei Szenarien nach Unternehmensgröße — die Zahlen sind Richtwerte aus Branchenprojekten, nicht Listenpreise.
Szenario 1: Großes Pharmaunternehmen (vier oder mehr PSURs pro Jahr, etablierte PV-Datenbank)
| Kostenblock | Aufwand |
|---|---|
| Veeva Vault Safety (Lizenzierung, 20 Nutzer) | 80.000–150.000 € pro Jahr |
| GAMP5-Validierung (einmalig, 4–6 Monate) | 40.000–80.000 € |
| Schulung und Prozessumstellung | 10.000–20.000 € |
| Summe Jahr 1 | 130.000–250.000 € |
| Summe ab Jahr 2 | 80.000–150.000 € pro Jahr |
| Zeitersparnis | 100–120 Personentage pro Jahr |
| Personalkosten-Äquivalent | 40.000–60.000 € pro Jahr (1 Vollzeit bei 400–600 € pro Tag) |
| Break-even | nach 2 bis 3 Jahren |
Szenario 2: Mittleres Pharmaunternehmen (zwei PSURs pro Jahr, Neuaufbau)
| Kostenblock | Aufwand |
|---|---|
| ArisGlobal oder Vault Essential (10 Nutzer) | 30.000–50.000 € pro Jahr |
| Datenbank-Migration und Setup (2–3 Monate) | 20.000–40.000 € |
| KI-Integration (Claude- oder OpenAI-API) | 5.000–15.000 € |
| Summe Jahr 1 | 55.000–105.000 € |
| Summe ab Jahr 2 | 35.000–65.000 € pro Jahr |
| Zeitersparnis | 40–50 Personentage pro Jahr |
| Personalkosten-Äquivalent | 15.000–25.000 € pro Jahr |
| Break-even | nach 2 bis 2,5 Jahren |
Szenario 3: Kleines Biotech (eine PSUR alle zwei Jahre, Proof-of-Concept)
| Kostenblock | Aufwand |
|---|---|
| Claude Pro oder ChatGPT Team (5 Nutzer) | 150–250 € pro Monat (1.800–3.000 € pro Jahr) |
| Manuelle Datenaufbereitung (einmalig) | 3.000–5.000 € |
| Schlanker Prozess-Setup mit leichter Validierung | 5.000–10.000 € |
| Summe Jahr 1 | 8.800–18.000 € |
| Summe ab Jahr 2 | 1.800–3.000 € pro Jahr |
| Zeitersparnis | 10–15 Personentage pro PSUR |
| Personalkosten-Äquivalent | 4.000–6.000 € pro PSUR |
| Break-even | ab der ersten PSUR, sofern die gesparten Stunden tatsächlich freigespielt werden |
Ehrliche Einordnung: Bei mittleren bis großen Unternehmen liegt der Break-even nach zwei bis drei Jahren — wenn die Zeitersparnis wirklich realisiert wird und nicht in zusätzlichen Qualitätsschleifen versickert. Voraussetzung sind mindestens zwei PSURs pro Jahr. Wer nur eine PSUR alle zwei Jahre einreicht, fährt mit einem KI-Assistenten und manueller Aufbereitung besser als mit einer vollwertigen Plattform.
Drei typische Einstiegsfehler
Fehler 1: Die Datenbasis wird unterschätzt. Die Erwartung: „Wir hängen ein KI-Tool an die PV-Datenbank, dann läuft das Reporting wie von selbst.” Die Realität sieht anders aus. Eine typische PV-Datenbank ist zu etwa 70 Prozent strukturiert, zu 20 Prozent halbstrukturiert (wichtige Details im Freitext) und zu 10 Prozent fehlerhaft (Doppelungen, inkonsistente IDs, abweichende Schreibweisen). KI kommt mit dem Freitext klar, mit den Fehlern nicht zuverlässig. Ergebnis: Statt 20 Tagen brauchst du 15 — nicht die erhoffte Halbierung auf 10 oder gar 5 Tage.
Was hilft: Vor Beginn einen Datenqualitätsaudit durchführen. Festlegen, welche Felder Pflicht sind, welche optional, welche Fehler kritisch. Zwei Wochen Vorarbeit sparen zwei Monate Frustration beim Go-Live.
Fehler 2: Zu viel Vertrauen in KI-Signale. Die KI meldet: „Leberreaktionen um 200 Prozent gestiegen.” Ob das ein echtes Sicherheitssignal oder nur Rauschen ist — zufällige Schwankung, Meldeverzerrung durch einen einzelnen Prüfarzt — muss ein Mensch entscheiden. Unternehmen, die blind auf die KI-Anomalieerkennung vertrauen, verlieren regulatorische Glaubwürdigkeit. Wenn die Behörde fragt „Warum wurde dieses Signal nicht erkannt?”, ist „Die KI hatte es nicht markiert” keine belastbare Antwort.
Was hilft: KI als Screening-Instrument nutzen, nicht als Entscheider. Jedes KI-Flag wird von einer Pharmakovigilanz-Ärztin oder einem -Arzt geprüft und dokumentiert: bestätigt, nicht bestätigt oder unklar. Das dauert länger als reines Abnicken, aber es ist genau die Kontrollschleife, die später im Audit trägt.
Fehler 3: Die Wartung wird übersehen. Nach sechs Monaten Laufzeit sieht es gut aus — die KI hat anfangs 90 Prozent der Datenintegration automatisiert. Dann treten neue Fehlermuster auf, eine Klinik schickt plötzlich Berichte in einem anderen Format, die EMA verlangt eine angepasste Klassifikation. Das System muss laufend nachjustiert werden. Unternehmen ohne klar benannte Systemverantwortung erleben nach etwa zwölf Monaten, wie die KI-Qualität schleichend abnimmt.
Was hilft: Vor dem Go-Live einen Wartungsplan aufsetzen. Wer ist zuständig, wenn das System Fehler liefert? In welchem Rhythmus wird es überprüft? Welche Service-Levels gelten? Das ist keine IT-Frage — es ist eine Pharmakovigilanz-Frage mit fachlicher Verantwortung.
Was mit der Einführung wirklich passiert — und was nicht
Was passiert:
- Monat 1–2. Daten-Mapping und Schema-Definition. Unsichtbar, aber die Grundlage für alles Weitere.
- Monat 3–4. Pilot mit einer alten PSUR — KI verarbeitet die Daten, Menschen prüfen das Ergebnis vollständig. Die zentrale Frage: Trifft das Modell die Fallzahlen, die wir damals manuell ermittelt haben?
- Monat 5–6. Erste echte PSUR im Parallelbetrieb. KI und manuelles Vorgehen laufen gleichzeitig, die Ergebnisse werden verglichen.
- Ab Monat 7. Das KI-System wird produktiv. Das Team verlagert seinen Schwerpunkt von der Datenarbeit zur regulatorischen Analyse — also dorthin, wo die eigentliche Fachexpertise liegt.
Was nicht passiert:
- Die erste PSUR wird nicht schneller. Sie dauert oft sogar länger, weil Validierung und Einarbeitung in das System zusätzliche Zeit kosten.
- Die Zeitersparnis ist nicht sofort bei 50 Prozent. Sie wächst über Monate und wird typischerweise zwischen Monat 4 und 6 sichtbar.
- Alle Beteiligten sind nicht sofort überzeugt. Skepsis ist normal: „Die KI hat in der Pilotphase einen Fehler gemacht, ich vertraue ihr nicht.” Diese Haltung legt sich meist nach vier bis fünf Monaten, wenn das System nachweislich zuverlässig läuft.
Typische Adoptionsrisiken:
- Qualitätsskepsis. Regulatory-Teams befürchten, dass der KI-Output nicht auditfest ist. Gegenmittel: transparent kommunizieren, dass die KI vorbereitet und ein Mensch freigibt. Jeder Output ist nachvollziehbar dokumentiert.
- Kompetenzverlust. Wenn die Datenarbeit automatisiert wird, verlieren Nachwuchskräfte die Anschauung für das Handwerk. Das ist ein reales Risiko. Gegenmittel: Junior-Pharmakovigilanz-Kräfte gezielt darin schulen, KI-Output zu prüfen — nicht nur zu bestätigen.
- Abhängigkeit vom Anbieter. Wenn die gesamte Datenstruktur auf einer Plattform (Vault, Oracle, ArisGlobal) liegt, wird ein Wechsel teuer und langwierig. Das ist akzeptabel, wenn der Anbieter verlässlich ist — aber es gehört in die Kalkulation, nicht in die Fußnote.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Anforderungsaufnahme | 4–6 Wochen | Team definiert: Welche Quellen? Welche Datenfelder? Welche Validierungsregeln? | Unvollständige Anforderungen führen zu späteren Überraschungen |
| System-Setup und Datenabbildung | 8–12 Wochen | Datenbank wird konfiguriert, KI-Module werden trainiert, erste Testdaten laufen durch | Schema-Konflikte zwischen Systemen, fehlende Datenbankfelder |
| Pilot mit historischer PSUR | 4–6 Wochen | KI verarbeitet eine alte PSUR; Menschen prüfen das Ergebnis vollständig | KI-Output weicht vom manuellen Original ab — Nachtraining fällig |
| Parallelbetrieb | 2–4 Wochen | Erste echte PSUR wird parallel (KI und manuell) erstellt und verglichen | Unterschiedliche Interpretationen; Sicherheitsbedenken im Team |
| Go-Live | 1–2 Wochen | KI ist Hauptsystem, menschliches Review bleibt Freigabeschritt | Unerwartete Fehler, Team ist noch nicht eingespielt |
| Stabilisierung und Optimierung | 2–3 Monate | Fehler werden behoben, Prozesse geschliffen | Wartungsaufwand unterschätzt, schleichende Qualitätsverschlechterung |
| Gesamt | 6–8 Monate bis echter Produktivbetrieb |
Wesentliches Risiko: Ist die Datenqualität schlechter als erwartet — was häufig der Fall ist — verlängert sich die Datenabbildung um vier bis acht Wochen.
Häufige Einwände — und was dahintersteckt
Einwand 1: „Unsere PV-Datenbank ist zu alt und zu unstrukturiert, KI funktioniert damit nicht.”
Die Sorge ist zur Hälfte berechtigt. Ältere Systeme haben reale Datenqualitätsprobleme.
Der Punkt: Gerade deshalb zahlt sich KI aus. Ein Mensch, der sich durch 400 halbstrukturierte Fallberichte arbeitet, macht Fehler und übersieht Fälle. KI ist nicht perfekt, aber konsistenter. Die richtige Lesart ist nicht „alte DB aufgeben und neu bauen”, sondern „alte DB als Quelle nutzen und KI die Struktur daraus ziehen lassen”. Datenbereinigung bleibt nötig — aber sie verschiebt sich von 100 Prozent manuell bei 80 Prozent Qualität zu 80 Prozent automatisiert bei 95 Prozent Qualität. Das ist der Gewinn.
Einwand 2: „Wenn die Behörde später fragt, was die KI gemacht hat, können wir die Zahlen nicht erklären.”
Ein berechtigtes Risiko. LLMs sind anfällig für Halluzinationen, und große Sprachmodelle sind für Außenstehende weitgehend Blackboxes. Eine Behörde könnte auf den Audit-Trail schauen und sagen: „Wir sehen nicht, wie diese Fallzahl zustande kommt.”
Der Punkt: Genau deshalb darf KI nicht die finalen Zahlen liefern. Sie bleibt beim Screening und bei der Anomalieerkennung. Die Aggregation der Fallzahlen läuft strukturiert und dokumentiert — wenn in der Datenbank 27 Leberreaktionen gemeldet sind, ist das ein Fakt aus der PV-Datenbank, keine KI-Produktion. Im Audit-Trail steht die Datenbankabfrage, nicht der LLM-Prompt.
Einwand 3: „Das ist zu viel Aufwand für eine PSUR, die alle zwei bis drei Jahre kommt.”
Stimmt. Wer nur alle zwei Jahre eine PSUR einreicht, kann eine halbe Million Euro Plattforminvestition nicht rechtfertigen.
Der Punkt: In diesem Fall ist keine Plattform nötig. Ein KI-Assistent auf Basis von Claude oder ChatGPT mit manueller Datenaufbereitung reicht. Einrichtung rund 5.000 bis 10.000 Euro, laufend etwa 2.000 Euro pro Jahr. Das steht im Verhältnis zur Frequenz — und ist genau der Ansatz, den die pragmatische Einstiegsempfehlung oben beschreibt.
Woran du merkst, dass das zu dir passt
✓ Du hast mindestens zwei Arzneimittel mit regelmäßigen Sicherheitsberichten (PSURs alle 6 bis 24 Monate) ✓ Dein Team verbringt mehr als 20 Prozent der PSUR-Zeit mit Datensammlung und Konsistenzprüfung — nicht mit der eigentlichen regulatorischen Bewertung ✓ Deine PV-Datenbank ist halbwegs strukturiert — mit Standardfeldern für Alter, Gewicht, Dosis, Diagnose ✓ Du hast eine dedizierte Pharmakovigilanz-Verantwortliche oder ein kleines Team — nicht nur eine Teilzeit-Rolle nebenher ✓ Dein Unternehmen ist grundsätzlich bereit, in ein GxP-validiertes System zu investieren, wenn der Business-Case trägt
Wann das nicht zu dir passt:
✗ Du reichst nur alle zwei Jahre oder seltener eine PSUR ein — dann steht der Aufbauaufwand in keinem Verhältnis zum Nutzen. Wähle einen einfachen KI-Assistenten (Claude, ChatGPT) mit manueller Vorbereitung. ✗ Deine PV-Datenbank ist zu mehr als 50 Prozent unstrukturiert und chaotisch — dann kommt die Datenbereinigung vor dem KI-Einsatz und wird das Projekt auf Monate hinaus prägen. ✗ Du hast kein Budget für die GAMP5-Validierung (40.000 bis 80.000 Euro plus 4 bis 6 Monate) — wer eine validierte Plattform braucht, muss diese Mittel einplanen. Bis dahin bleiben manuelle Prozesse oder ein schlanker KI-Assistent die tragfähige Option.
Das kannst du heute noch tun
Schritt 1: Eine alte PSUR als Testfall nutzen. Nimm eine bereits eingereichte PSUR aus deinem Archiv, extrahiere die Fallzahltabellen und die Literaturhinweise und lade beides in NotebookLM oder Claude. Kein Risiko, kein Commitment — nur ein ehrlicher Eindruck, wie weit KI bei deiner Datenlage trägt.
Mitarbeiter:in
KI-Assistent
Wichtig: Dieser Prompt liefert nur einen Eindruck. Eine echte PSUR verlangt regulatorische Validierung und eine qualifizierte Freigabe durch eine medizinisch-regulatorisch geschulte Person.
Schritt 2: Datenqualität auditieren (2–4 Wochen). Schau in deine PV-Datenbank: Wie viele Fallberichte haben alle Pflichtfelder (Alter, Geschlecht, Dosis, Zeitbezug)? Wie viele sind unvollständig oder doppelt vorhanden? Dokumentiere die fünf häufigsten Datenqualitätsprobleme. Das wird die Ausgangsbasis für jedes Dienstleister-Angebot.
Schritt 3: Ein Pilotteam aufstellen (kommender Monat). Drei Rollen reichen als Kern: eine Pharmakovigilanz-Ärztin oder ein -Arzt, eine Data-Management-Person, eine Vertretung aus Regulatory Affairs. Gemeinsam klärt das Team drei Fragen: Wo liegt unser größter Schmerz — Datenqualität, Zeitmangel oder Fehlerquote? Welcher Weg passt — schlanker KI-Assistent oder vollwertige Plattform? Was lässt sich in 90 Tagen realistisch testen? Die Antwort bestimmt den nächsten Meilenstein.
Quellen & Methodik
- IntuitionLabs: PSUR/PBRER vs. DSUR — A Pharmacovigilance Comparison (2024) — Vergleich der Report-Typen und KI-Einsatz
- TesserBlu: The Role of Automation in Periodic Safety Update Reports (2024) — Automatisierungs-Potenziale und aktuelle Implementierungen
- PMC/NIH: Artificial Intelligence in Pharmacovigilance (2024) — Akademische Übersicht von KI-Anwendungen
- ICH E2C(R2) Guideline (2024 update) — Der regulatorische Standard für PSUR-Format und Anforderungen
- EMA Post-Authorization Directive: Expectations for PSUR quality and signaling — implizit in Inspektionsberichten und Mängelschreiben (2023–2024)
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Klinische Studiendokumentation strukturieren und prüfen
KI unterstützt bei der Erstellung und Prüfung klinischer Studiendokumente — Protokolle, ICF und Clinical Study Reports — auf Vollständigkeit und ICH-Konformität.
Mehr erfahrenZulassungsanträge für BfArM und EMA vorbereiten
KI unterstützt die Erstellung von CTD-Modulen für nationale und europäische Zulassungsanträge — durch automatische Formatprüfung, Lückenanalyse und Konsistenzcheck.
Mehr erfahrenGxP-Compliance-Status kontinuierlich tracken
KI überwacht laufende GxP-Anforderungen, verfolgt offene CAPA-Maßnahmen und erstellt Compliance-Dashboards für QS-Leitung und Behördenaudits.
Mehr erfahren