Zum Inhalt springen
Forschung & Entwicklung drittmittelfoerderungcontrolling

Drittmittel-Monitoring und Berichtswesen

KI überwacht Mittelabrufe, Ausgaben und Berichtspflichten für laufende Drittmittelprojekte und erstellt automatisch Zwischenberichte für Fördergeber.

Worum geht's?

Es ist Dienstag, 10:12 Uhr.

Stefan Ballweg sitzt in der Drittmittelabteilung einer großen Volluniversität. SAP zeigt ihm: Diese Woche haben drei Projekte Berichtstermine. Das erste ist eine DFG-GRK (Graduiertenkolleg) — Zwischenbericht fällig 30.11. Das ist in 9 Tagen.

Die Vorlage: 40 Seiten Word, 12 Anhänge, davon 4 sind Finanztabellen. Er muss die Finanzabschlüsse aus SAP ziehen (dauert 90 Minuten, wenn das System nicht hängt). Er muss die Publikationsliste der Sprecherin zusammenstellen — aktuell sind es 34 Paper in Scopus, aber 2 sind falsch zugeordnet, 3 fehlen. Dann die Milestones: Wer hat welche erreicht? Sachstandsberichte aus Confluence zusammentragen. Ein Projektcontroller-Kollege bereitete die Daten vor — der ist heute krank.

Stefan rechnet: Das ist 6 Stunden für diesen einen Bericht. Bei 5 parallel laufenden Berichten diese Woche: 30 Stunden in 4 Tagen, die sind nicht da.

Das ist kein Einzelfall. Das ist jeden Tag, bei jeder Volluniversität mit 40+ laufenden Drittmittelprojekten.

Das echte Ausmaß des Problems

Forschungsadministration ist in deutschen Universitäten eine massive, oft unsichtbare Kostenlast. Aktuelle Auswertungen zeigen: Ein Drittmittelprojekt bindet durchschnittlich 10–20 % der Projektzeit für Verwaltung — nicht für Forschung, sondern für Berichterstellung, Mittelüberwachung und Dokumentation. Bei fünf parallelen Projekten bedeutet das: mindestens ein halber Arbeitstag einer Projektleiterin oder eines Projektcontrollers — pro Woche.

Die konkreten Aufgaben, die Zeit kosten:

  • Mittelüberwachung (Controlling): Alle 1–4 Wochen müssen die Ausgaben jedes laufenden Projekts überprüft werden gegen die Fördervertrag-Obergrenzen. Ist das Projekt noch im Budget? Droht Mittelverfall? Bei 40–90 parallel laufenden Projekten: 4–6 Stunden wöchentlich, manuell, in Excel-Listen, die nicht real-time sind.
  • Zwischenberichte schreiben: DFG, BMBF und Horizon-Europe-Projekte erfordern Zwischenberichte alle 12–24 Monate. Eine Zwischenbericht-Vorlage hat 30–60 Seiten, mit Finanzkapitel, Sachstandsbericht (mit Publikationen, Milestones), und Anhängen. Das Zusammenstellen dauert realistisch 4–8 Stunden pro Bericht. Bei 40 Projekten mit versetzten Deadlines: Das bedeutet durchschnittlich 1–2 Berichte pro Woche.
  • Publikationslisten aktualisieren: Jeder Bericht braucht eine aktuelle Publikationsliste des Projektteams. Das wird manuell aus Scopus oder Web of Science zusammengestellt, abgeglichen mit dem Projektteam (sind alle Autoren richtig? gibt es falsch zugeordnete Paper?). Bei aktuellen Veröffentlichungsraten sind das 1–3 Stunden pro Bericht.
  • Fristüberwachung: Berichtstermine, Mittelabruffristen, Verlängerungsanträge — wenn eine Frist überschritten wird, kann das Mittelsperre oder Rückzahlungspflichten bedeuten. Das Tracking erfolgt oft über Outlook-Reminders und Papier-Checklisten. Bei 90 Projekten: Das ist ein Vollzeitjob nur zur Fristkontrolle.

Die Folge: Viele Universitäten verzichten auf gründliche Mittelüberwachung, um Kosten zu sparen. Das führt zu echten Problemen — Mittelverfall (EU-Gelder müssen rückgängig gemacht werden), zu späte Zwischen-Abrechnungen (Projekte werden verzögert), und Berichte, die eingereicht werden, ohne dass die Zahlen korrekt überprüft wurden. Im schlimmsten Fall: ein Audit durch den Fördergeber, mit Rückzahlungsforderungen von 50.000–500.000 Euro.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-SystemMit Drittmittel-KI-System
Zeit für wöchentliche Mittelüberwachung (40 Projekte)4–6 Stunden, manuell, eine Person15–30 min, automatisiert, Dashboard
Zeit für Zwischenbericht (Durchschnitt)5–8 Stunden (Entwurf, Finanzkapitel, Publikationen)1,5–2,5 Stunden (KI-Entwurf überprüfen + editieren)
Fristüberschreitungen (pro Jahr)2–4 verpasste Fristen bei 40 Projekten0 (automatische Alerts)
Mittelverwendungs-AccuracySnapshot, manuell (Fehler möglich)Real-time, automatisch validiert
Publikationslisten aktuellManuell, fehleranfällig (30–40% falsch kategorisiert)Automatisch ORCID/Scopus-abgerufen, dedupliziert
Sach-/Finanz-Bericht-QualitätAbhängig vom Schreiber, inkonsistentStandardisiert nach Fördergeber-Vorlage

¹ Basis: Erfahrungswerte aus Drittmittel-Abteilungen an Volluniversitäten mit 40–100 laufenden Projekten; keine repräsentative Studie, aber konsistent über mehrere Institutionen berichtet.

Einschätzung auf einen Blick

Zeitersparnis — hoch (4/5)
5–8 Stunden pro Projekt und Monat sind durchaus realistisch einsparbar — wenn Controlling und Berichterstellung automatisiert sind. Das ist nicht die größte Zeitersparnis im Vergleich zur Literaturrecherche (die spart 3–4 Wochen auf 2–3 Tage), aber es ist stetig und zuverlässig. Nicht ganz 5/5, weil die finale Qualitätskontrolle und Genehmigung weiterhin von Menschen erfolgen muss.

Kosteneinsparung — mittel (3/5)
Die direkten Kosteneinsparungen sind indirekt: weniger Personentage für Verwaltung (500–800 Euro pro Tag bei E13/E14-Gehältern), aber die Technologie kostet auch etwas (800–2.500 Euro/Monat). Der Net-Effekt ist positiv für Universitäten mit 40+ Projekten, aber nicht dramatisch — die große Einsparung entsteht durch weniger Verzögerungen und verhinderte Audits.

Schnelle Umsetzung — mittel (3/5)
8–12 Wochen ist realistisch, aber nicht kurz. Der Engpass ist nicht die KI oder das Workflow-System, sondern die SAP-Anbindung: API-Freigaben durch das Rechenzentrum dauern oft 4–8 Wochen. Template-Mapping für jeden Fördergeber (DFG, BMBF, Horizon) dauert 2–4 Wochen zusätzlich. Das ist deutlich komplexer als z.B. die Kundenkorrespondenz, aber einfacher als Rechnungsverarbeitung mit ERP-Integration.

ROI-Sicherheit — hoch (4/5)
Der Nutzen ist sehr messbar: weniger verpasste Fristen, weniger manuelle Fehler, klar dokumentierte Zeitersparnis pro Projekt. Der finanzielle Nutzen ist indirekt (verhinderte Audits kosten 50–200k Euro), aber die Zeit-ROI ist solid. Nicht 5/5, weil die größten finanziellen Gewinne nur sichtbar werden, wenn Audits vermieden werden — und die sind selten genug, dass die Kausalität schwer zu zeigen ist.

Skalierbarkeit — hoch (4/5)
Wenn die Infrastruktur erst einmal läuft, skaliert das System linear: 10 weitere Projekte bedeuten 10% mehr Daten, aber keinen zusätzlichen Betriebsaufwand. Allerdings: Jeder neue Fördergeber mit neuer Berichtvorlage erfordert 1–2 Wochen Template-Anpassung. Das ist nicht kostenlos.

Richtwerte — stark abhängig von Universitätsgröße, existierender SAP-Infrastruktur und Anzahl unterschiedlicher Fördergeber.

Was das System konkret macht

Das Drittmittel-Monitoring-System besteht aus drei funktionalen Bausteinen:

1. Datenextraktion und -aggregation

Das System zieht stündlich (oder täglich) Finanzdaten aus SAP über eine API. Es aggregiert Informationen pro Projekt:

  • Gesamtbudget vs. bisherige Ausgaben (Ist-Stand)
  • Personalmittel, Sachausgaben, Reisekosten (nach Kostenart)
  • Bindungsquote (wie viel Prozent des Budgets ist schon verpflichtet/ausgegeben?)

Parallel werden Publikationsdaten automatisch aus ORCID und Scopus abgerufen, dedupliziert (sodass die gleiche Publikation nicht mehrfach vorkommt) und dem Projekt zugeordnet.

Sachstandsinformationen — Milestones erreicht? Besonderheiten? Verzögerungen? — werden aus Confluence (oder SharePoint) per API oder manuell eingepflegt.

Alle diese Daten landen in einer zentralen Datenbank (z.B. Google Sheets für sehr kleine Setups, oder eine dedizierte Datenbank für größere).

2. Compliance-Monitor und Berichtstermine

Das System führt eine Masterliste aller Förderverträge mit:

  • Projekt-ID, Titel, Fördergebier (DFG, BMBF, Horizon Europe, etc.)
  • Berichtstermine (Zwischenberichte, Abschlussbericht)
  • Mitteldeckelung und Verwendungsverpflichtungen (z.B. „Mindestens 20% des Budgets muss für Doktoranden aufgewendet werden”)
  • Mittelverfall-Fristen (bei EU-Projekten oft sehr eng: Mittel müssen bis 30.4. des Jahres abgerufen sein)

Jeden Tag um 8 Uhr wird die IST-Mittelverwendung (aus SAP) gegen diese Verpflichtungen abgeglichen. Power BI oder Tableau zeigt:

  • Grün: Projekt im Plan, keine Probleme absehbar
  • Gelb: Warnung (z.B. „85% Budget aufgebraucht, aber nur 50% Projektlaufzeit vorbei” oder „Berichtsfrist in 3 Wochen”)
  • Rot: Kritisch (z.B. „Mittelverfall-Frist überschritten” oder „Berichtstermin überfällig”)

Das Dashboard ist live und wird der Projektleitung täglich gezeigt, oder kann per Make.com / n8n als tägliche Mail/Slack-Nachricht versendet werden.

3. KI-gestützter Bericht-Entwurf und Validierung

Wenn ein Berichtstermin naht (z.B. 2 Wochen vorher), triggert das System automatisch einen Workflow:

  • Das SAP-Finanzkapitel wird exportiert (Tabellen: Gesamtbudget, Ausgaben pro Kostenart, noch verfügbare Mittel)
  • Die Publikationsliste wird aus ORCID/Scopus zusammengestellt
  • Das Projekt-Milestone-Dokument wird aus Confluence gezogen
  • Alles wird als strukturiertes Datenpaket an Claude oder eine ähnliche KI gesendet, zusammen mit:
    • Der Fördervertrag-Template (z.B. die DFG-Vorlage für Zwischenberichte)
    • Der Vorgänger-Bericht (damit der KI-Entwurf konsistent bleibt)
    • Einem Prompt, der instruiert: „Schreib den Sachstandsbericht auf Basis dieser Daten, in Stil und Länge der Vorlage”

Die KI generiert dann einen Entwurf — nicht das ganze Dokument (das ist zu riskant), sondern den Sachstands-Teil (Seiten 3–8 von 40). Der Bericht wird dann an die Projektleitung geschickt mit dem Label: „ENTWURF — MUSS ÜBERPRÜFT WERDEN, BEVOR ER RAUSGEHT”

Die Projektleitung/der Forschungsreferent liest den Entwurf durch (dauert 30–45 Minuten statt 2–3 Stunden), korrigiert, ergänzt, gibt frei.

Danach wird das fertige Dokument eingereicht.

Das ganze System ist orchestriert durch Make.com oder n8n, die die Workflows, Trigger und Benachrichtigungen organisieren.

Konkrete Werkzeuge — was wann passt

Finanz-Datenquelle und ERP-Integration

SAP Financials ist der Standard an deutschen Universitäten mit größerem Drittmittelvolumen. Wenn vorhanden, Anfrage zum Rechenzentrum stellen wegen FI-API-Freigabe (kann 4–8 Wochen dauern). Wenn SAP nicht im Haus ist: Epicor ist eine Alternative in mittelständischen Organisationen, oder Workday bei sehr großen Institutionen. Für sehr kleine Setups kann auch ein manueller SAP-Export (CSV, täglich) reichen.

Dashboard und Visualisierung

Power BI und Tableau sind beide hervorragend für Echtzeit-Compliance-Dashboards. Power BI hat Vorteil: einfacher mit SAP zu koppeln, wenn SAP schon im Haus ist; direktere Datenanbindung. Tableau ist plattformunabhängiger. Beide kosten 200–800 Euro/Monat für ein kleines Team.

Publikationsdaten automatisieren

ORCID ist kostenlos und zum Standard für deutsche Wissenschaftler geworden. Scopus ist kommerziell (ca. 20.000 € / Jahr), aber viele Universitäten haben Lizenzen. Google Scholar ist frei, aber weniger strukturiert. Der beste Setup: ORCID-IDs aller Projektmitglieder erfassen, dann ORCID über API abfragen (kostenlos). Crossref kann als Backup verwendet werden zur Validierung von DOIs.

Workflow-Orchestrierung

Make.com und n8n sind die Standard-Plattformen, um SAP-Export, Datenbank-Update, Dashboard-Refresh und KI-Trigger zu orchestrieren. Make ist GUI-basiert, einsteigerfreundlicher (200–500 €/Monat). n8n ist selbstgehostet, kostenlos wenn lokal, bietet mehr Flexibilität (empfohlen wenn IT die Infrastruktur stellen kann). Make ist schneller.

KI für Berichterstellung

Claude von Anthropic und ChatGPT sind die besten LLMs für strukturierte Textgenerierung. Claude ist etwas besser bei Konsistenz und längeren Dokumenten. Die API-Kosten sind niedrig (0,01–0,05 € pro Bericht mit API-Zugang). Für Budget-bewusste Universitäten: Gemini oder Open-Source-Modelle wie Mistral sind Alternativen.

Datenspeicher für Zwischenstände

Google Sheets ist sehr praktisch für kleine bis mittlere Setups (bis ~100 Projekte). Kostenlos, API-Zugang einfach, jeder kann im Browser arbeiten. Für größere Datenmengen: eine dedizierte Datenbank (Postgres, MySQL) oder Cloud-Data-Warehouse (BigQuery, Snowflake). Kostet mehr, aber sauberer.

Datenschutz und Datenhaltung

Drittmittelprojekt-Daten sind nicht automatisch sensibel, aber sie sind institutionell relevant — Verlust oder Missbrauch kann Audit-Probleme bedeuten.

DSGVO-Perspektive: Finanzbeamte und Projektleitungen haben ein berechtigtes Interesse, Mittelstände zu sehen. Sofern die Daten nicht Einzelpersonen offenbaren (z.B. „Doktorand X bekommt X Euro”), ist es unproblematisch. Die Publikationslisten aus ORCID/Scopus sind öffentlich, daher auch kein DSGVO-Problem. Die Publikationsdaten sind Forschungsdaten, und unterliegen dem Datenschutzkonzept der Universität — nicht zusätzlich DSGVO-konform.

AVV (Auftragsverarbeitungs-Verträge): Wenn externe Tools (Power BI, Make.com, SAP Cloud) Zugriff auf Finanz- oder Projektdaten bekommen, müssen AVVs abgeschlossen werden. Das ist standard bei größeren Universitäten — diese haben bereits AVVs mit SAP, Microsoft, und den Cloud-Anbietern. Wenn nicht: vor Vertragsabschluss mit dem Datenschutzbeauftragten klären.

Hosting und Datenlokation: SAP Financials läuft meist On-Premise oder in SAP-Cloud (mit EU-Datenspeicherung). Power BI und Tableau bieten EU-Datenspeicher. Make hat EU-Server. Google Sheets kann mit Google-Cloud-EU-Datenspeicher konfiguriert werden (Anfrage beim Rechenzentrum). Claude API speichert keine Trainingsdaten von API-Aufrufen. Das sollte allen deutschen Datenschutzvorgaben genügen.

Besonderheit bei Horizon-Europe-Projekten: Die EU-Förderverträge verlangen oft explizit EU-Datenspeicherung und No-USA-Datentransfer. Das muss vor Tool-Auswahl geklärt werden — Google, Microsoft und SAP können das erfüllen, aber es muss explizit konfiguriert sein.

Was es kostet — realistisch gerechnet

Einrichtung (einmalig):

  • SAP FI-API-Freigabe + Mapping: 0 € intern (Rechenzentrum-Stunden) oder 5.000–15.000 € Consulting (wenn extern beauftragt)
  • Dashboard-Setup (Power BI oder Tableau): 3.000–8.000 € (abhängig von Komplexität)
  • Workflow-Orchestrierung (Make oder n8n Setup): 2.000–5.000 €
  • Template-Mapping für Fördergeber (DFG, BMBF, Horizon): 3.000–8.000 € (pro 3 Fördergeber ca. 1 Woche Arbeit)
  • Test und Schulung: 2.000–4.000 €

Gesamtbudget Einrichtung: 15.000–40.000 € (abhängig davon, wieviel intern geleistet wird).

Laufend (monatlich):

  • SAP Financials API: 0 € (wenn lokal, nur Infrastruktur) oder 200–400 € (SAP Cloud)
  • Power BI oder Tableau: 200–600 € (1–3 Nutzer)
  • Make oder n8n: 200–400 € (Make) oder 0 € (n8n selbstgehostet)
  • Claude API oder ChatGPT API: 50–200 € (abhängig von Bericht-Volumen: 10–50 Berichte/Monat)
  • Datenbank/Cloud-Storage: 100–300 € (wenn > 100 Projekte)
  • Support und Wartung: 500–1.500 € (falls externe Firma, intern oft kostenlos)

Gesamtbudget monatlich: 800–2.500 € (abhängig von Deployment, Projektanzahl, gewählten Tools).

ROI-Szenario (konservativ):

Universität mit 80 Drittmittelprojekten, durchschnittlich 3 Berichte pro Projekt pro Jahr = 240 Berichte/Jahr.

Zeitersparnis: ohne KI-System 5 Stunden/Bericht (Finanzkapitel, Publikationen, Sachstand), mit System 1,5 Stunden/Bericht. Das sind 3,5 Stunden Ersparnis pro Bericht × 240 = 840 Stunden/Jahr.

Bei einem Gehalt von 45 €/Stunde (E13-Durchschnitt für Projektcontroller): 840 × 45 = 37.800 €/Jahr Personalkosteneinsparung.

Systemkosten: 12 Monate × 1.500 € = 18.000 €/Jahr.

Net-Einsparung im Jahr 1 (unter Berücksichtigung von Einrichtungskosten 30.000 €): 37.800 - 18.000 - 30.000 = −10.200 € im Jahr 1 (noch nicht amortisiert).

Net-Einsparung Jahr 2+: 37.800 - 18.000 = 19.800 €/Jahr.

Break-Even: ca. 20 Monate — für mittlere bis große Universitäten akzeptabel.

Zusätzlicher indirekter Nutzen (nicht monetarisiert):

  • 0 verpasste Fristüberschreitungen = keine Audit-Rückzahlungen (50–500k €)
  • Bessere Dokumentation für Reviewer und Auditoren
  • Weniger Stress im Drittmittelmanagement-Team

Drei typische Einstiegsfehler

1. „Wir kaufen ein Standard-Förderbericht-Tool” — und es passt nicht.

Anbieter wie Research Fish oder Fluxx bieten vorgefertigte Templates für UKRI, NIH und NSF. Aber die deutschen Fördergeber haben andere Vorlagen. Eine DFG-GRK hat andere Anforderungen als eine BMBF-Nachwuchsgruppe oder ein Horizon-Europe-Projekt. Jeder Fördergeber hat sein eigenes Template mit unterschiedlichen Gliederungen, Feldlängen, Anhang-Anforderungen. Ein Standard-Tool, das „alle” abdeckt, passt zu keinem wirklich. Die Folge: Das Tool wird gelehrt, weil die Vorlage nicht stimmt, oder es werden Workarounds gebaut, die teuer werden.

Lösung: Template-Mapping für jeden relevanten Fördergeber separat planen und budgetieren (2–4 Wochen pro Fördergeber).

2. Finanzsystem wird nicht eingebunden — nur der Entwurf kommt aus der KI.

Das System hat Dashboards, aber die Finanzkapitel werden nicht aus SAP gefüllt, sondern manuell eingegeben oder aus einem alten Export. Dann stimmen die Zahlen nie — der Bericht zeigt Mittelstände von letzter Woche, aber real wurden gestern noch 50.000 Euro abgerufen. Der Forschungsreferent erhält den Entwurf, sieht unterschiedliche Zahlen (Bericht sagt „noch 200k offen”, aber SAP zeigt „noch 100k”), und vertraut dem System nicht. Das Tool wird ignoriert.

Lösung: API-Freigabe für SAP FI von Woche 1 an einplanen, nicht am Ende. Das dauert oft 4–8 Wochen. Sonst wird das ganze Projekt verzögert.

3. KI-generierter Bericht wird ohne Überprüfung eingereicht.

Forschungsreferent erhält Bericht-Entwurf von der KI, korrekturliest kurz (10 Minuten), und sendet ihn an den Fördergeber. Eine Woche später: Anruf vom Reviewer — es gibt drei Fehler. Im Milestones-Kapitel nennt der Bericht ein Projekt „FinCat-2024”, obwohl das Projekt „Katalysator-Entwicklung 2024” heißt. Eine Publikation in der Liste ist aktuell noch „in press” und nicht veröffentlicht, aber der Bericht nennt die Ausgabe. Im Sach-Kapitel wird ein Meilenstein genannt, der gar nicht im Originalplan stand — erfunden von der KI. Das Vertrauen zur KI ist zerstört.

Lösung: Jeder KI-generierte Bericht ist ein ENTWURF, nicht die finale Fassung. Forschungsreferent MUSS lesen, vor Versand. Mit Stift oder Track-Changes die Korrektionen markieren. Erst dann raus. Das kostet 30–45 Minuten statt 2–3 Stunden vorher, aber nicht null.

Was mit der Einführung wirklich passiert — und was nicht

Die Einführung läuft typischerweise in vier Phasen:

Phase 1: Honeymoon (Wochen 1–4)
Das System wird aufgesetzt, erste Dashboards sind live. Das Team ist begeistert — endlich real-time Überblick! Die Berichtstermine erscheinen nicht mehr plötzlich wie aus dem Nichts. Auch nervige Mails an die Projektleitungen („Bericht fällig?”) können automatisiert werden.

Phase 2: Reality (Wochen 5–12)
Dann merkst du: Die Daten aus SAP sind nicht immer sauber. Ein Projekt ist mit zwei verschiedenen Kostenstellennummern in SAP eingegeben (historischer Fehler von vor 3 Jahren). Die Publikationsliste aus Scopus hat Duplikate. Der API-Export läuft nicht immer pünktlich — manchmal sind die Daten 2 Tage alt. Die ersten KI-generierten Berichte haben kleinere Fehler, die Überprüfung dauert länger als erwartet, weil man jedes Zahlenwort überprüfen muss.

Einige Teams geben jetzt auf. Der Aufwand für Datenbereinigung ist höher als gedacht. Sie gehen zurück zu manuellen Prozessen.

Phase 3: Calibration (Wochen 13–24)
Die Institute, die durchhalten, machen jetzt den wichtigen Schritt: Sie planen Datenbereinigung bewusst ein. SAP-Fehler werden korrigiert. ORCID-Profile aller Projektleiter werden gepflegt. Die KI-Prompts werden verfeinert — „Schreib den Sachstandsbericht, nutze NUR diese Daten, keine erfundenen Milestones.” Der API-Export wird robuster gestaltet (Fehlerbehandlung, Retry-Logik).

Nach 3–4 Monaten läuft das System zuverlässig.

Phase 4: Routine (ab Monat 6)
Das System ist nun ein transparenter Prozess. Dashboard wird täglich geschaut (oder per Make-Mail), Berichtstermine sind Routine, KI-Entwürfe sind nützlich und erfordern nur kleine Korrektionen. Zeitersparnis ist messbar.

Was nicht passiert:

  • Das System ersetzt nicht die Forschungsreferenten. Es entlastet sie, aber Urteilsfähigkeit, Compliance-Wissen und Gespräche mit Projektleadern sind weiter menschliche Aufgaben.
  • Das System behebt nicht grundsätzliche organisatorische Probleme. Wenn ein Institut chaotisch ist (keine Kommunikation zwischen Projekten, schlechte Datenqualität generell), dann wird das System auch nur chaotisch automatisieren.
  • Die Einführung ist kein Marketing-Event. Es ist stumme Infrastruktur-Arbeit, die den Stress reduziert, aber nicht sichtbar wird.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Scoping & Anforderungen2–3 WochenTreffen mit Drittmittelreferat und IT: Welche Fördergeber, wie viele Projekte, welche Daten sind in SAP verfügbar? Template-Auswahl.Anforderungen sind vager als gedacht; IT sagt „das können wir nicht”
SAP FI-API-Freigabe4–8 WochenAnfrage beim Rechenzentrum, technische Vorbereitung, Tests. (Kritischer Pfad — muss parallel zu anderen starten!)Rechenzentrum sagt nein oder Anfrage wird übersehen
Dashboard-Prototyp2–3 WochenPower BI oder Tableau wird mit Test-Daten aufgesetzt, erste Compliance-Regeln kodiert.Datenmodell ist komplexer als erwartet
Template-Mapping (DFG, BMBF, Horizon)3–4 WochenFür jeden Fördergeber: Analyse der Vorlage, Zuordnung zu Datenquellen, KI-Prompts schreiben.Horizon-Anforderungen ändern sich; DFG hat neue Vorlage
Pilot mit 5–10 Projekten2–3 WochenLive-Test mit echten Projekten, Datenbereinigung, KI-Entwürfe überprüfen.Daten sind messier als erwartet; KI-Ausgaben brauchen mehr Überprüfung
Roll-out auf alle Projekte2 WochenAlle Projekte ins Dashboard, erste automatische Berichte.Adoption-Widerstand (Teams vertrauen dem System nicht)
Stabilisierung & Schulung4–6 WochenBugs fixen, Team trainieren, Dokumentation schreiben.Support-Aufwand ist höher als budgetiert

Gesamtdauer: 8–12 Wochen, wenn alles parallel läuft und IT-Freigaben schnell gehen. Bei schlechteren Bedingungen (langsames Rechenzentrum, komplexe SAP-Struktur) 12–16 Wochen.

Häufige Einwände — und was dahintersteckt

„Unsere Projekte sind zu unterschiedlich. Ein Standard-System passt nicht.”

Das ist ein echtes Problem in manchen Instituten. Ein SFB hat andere Anforderungen als eine Nachwuchsgruppe. Aber: 80 Prozent der administrativen Aufgaben sind gleich (Mittelüberwachung, Berichtstermine). Die verbleibenden 20 Prozent Spezifika können in Feldnotizen erfasst werden — z.B. ein Custom-Feld „Besonderheiten” für jedes Projekt. Das System funktioniert mit 80 % Standardisierung.

„Unser SAP ist zu alt / zu kompliziert. Wir kriegen keine API raus.”

Das ist ein echtes Risiko. Sehr alte SAP-Systeme (vor 2008) haben begrenzte API-Möglichkeiten. Lösung: Manueller täglicher CSV-Export als Übergangslösung (dauert 30 Minuten, kann automatisiert werden mit *.bat-Skripten). Das ist nicht ideal, aber machbar und kostet wenig. Parallel: Modernisierungs-Roadmap mit IT einleiten.

„KI halluziniert. Ich traue keinem von der KI generierten Bericht.”

Das ist ein legitimer Punkt. Aber die Lösung ist nicht „KI nicht nutzen”, sondern „KI-Entwürfe immer überprüfen”. Das reduziert die Berichtszeit von 5 Stunden auf 1 Stunde, nicht auf null. Und die KI-Ausgaben sind oft überraschend akkurat, wenn die Daten sauber sind — du merkst nur die Fehler bei fehlerhaften Eingabedaten.

Woran du merkst, dass das zu dir passt

Passt zu dir, wenn:

  • Du mindestens 5 parallele Drittmittelprojekte gleichzeitig verwaltest (unter 5 lohnt sich die Automatisierung nicht)
  • Dein Team verbringt >10 Stunden pro Woche mit Drittmittel-Reporting und Mittelüberwachung
  • Du mindestens 3 verschiedene Fördergeber hast (DFG, BMBF, Horizon, etc.) mit unterschiedlichen Anforderungen
  • Dein IT-Team hat SAP Financials oder ein ähnliches ERP im Einsatz
  • Berichtsfristüberschreitungen sind in der Vergangenheit vorgekommen oder Mittelverfall war ein Problem
  • Die Datenqualität in deinem SAP ist „mittelmäßig bis gut” (nicht katastrophal)

Passt NICHT zu dir, wenn:

  • Du weniger als 5 Projekte gleichzeitig verwandest — der Setup-Aufwand ist dann nicht gerechtfertigt
  • Dein Finanzamt oder Controlling arbeitet komplett dezentral und ohne ERP-System (z.B. alles Excel) — dann ist die API-Anbindung unmöglich
  • Du nur eine sehr kleine Anzahl Fördergeber hast und deren Vorlagen ändern sich häufig — dann ist Template-Maintenance zu teuer
  • Dein IT-Team hat keine Kapazität für API-Freigaben und Integration — und du kannst es nicht extern bezahlen
  • Du brauchst eine Eins-zu-eins-Compliance mit hyper-spezifischen Funding-Anforderungen, die keine Standard-Software abbildet (sehr seltener Fall)

Das kannst du heute noch tun

Schritt 1: Datenqualität überprüfen (kostenlos, 2–3 Stunden)

Zieh einen SAP Financials-Export all deiner Drittmittelprojekte (kostet dein Rechenzentrum 15 Minuten). Schau dir die Kostenstellenstruktur an. Sind alle Projekte eindeutig identifizierbar? Gibt es Duplikate oder verwaiste Kostenstellen? Sind die Projekt-IDs im SAP-Format dokumentiert?

Diese Information brauchst du später für das Template-Mapping.

Schritt 2: Förderer-Templates sammeln (kostenlos, 1–2 Stunden)

Sammle die offiziellen Berichts-Templates von deinen Top-3-Fördergebern (DFG, BMBF, EU). Speicher sie ab. Diese brauchst du, um den KI-Prompts zu sagen, wie die Berichte aussehen sollen.

Schritt 3: ORCID-Initiative starten (kostenlos, verläuft über Wochen)

Schreib eine Abteilungs-Mail an alle Projektleiter und Doktoranden: „Bitte registriert euch auf orcid.org und gebt die ID meinem Team durch.” ORCID ist kostenlos und wird zum Standard. Ein ORCID-Profil braucht 5 Minuten. Das ist die Grundlage für automatisierte Publikationslisten.

Schritt 4: Einen KI-Prompt schreiben (kostenlos, 30 min)

Nimm ein altes Berichtsdokument von einem ähnlichen Projekt. Schreib in ChatGPT:

Prompt für Forschungsbericht-Entwurf
Du bist ein Assistent für Forschungsprojekt-Berichte. Hier ist die Berichts-Vorlage und die verfügbaren Daten für ein Drittmittelprojekt: [HIER VORLAGE EINFÜGEN] [HIER PROJEKT-DATEN EINFÜGEN: Budget, Ausgaben, Milestones, Publikationen] Schreib den Sachstands-Bericht (Kapitel 2–4 der Vorlage, ca. 1.500–2.000 Wörter). Regeln: - Nutze NUR die Daten, die oben stehen. Keine erfundenen Meilensteine. - Verwende das Präteritum für abgeschlossene Meilenstones. - Zitiere die Publikationsliste exakt wie vorgegeben. - Am Ende: kurze Zusammenfassung der Risiken und des Zeitplans.
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Vorlage: DFG-GRK Zwischenbericht Projekt: GRK 2842 "Katalytische Prozesse" Budget: 750.000 €, bisherige Ausgaben: 420.000 € Milestones (abgeschlossen): Publikation 2023 (2 Paper), Equipment gekauft, 3 Doktoranden angestellt Milestones (offen): Publikation Q4 2024 (1 Paper geplant) Schreib den Bericht.

KI-Assistent

Im Berichtszeitraum konnten folgende Ziele erreicht werden: Personelle Ausstattung: Das Graduiertenkolleg konnte drei Doktorandinnen und einen Postdoc anstellen. Sie führten Experimente zu katalytischen Prozessen durch. Sachliche Ergebnisse: Zwei Publikationen wurden eingereicht und angenommen (siehe Anhang). Die notwendige Laborausstattung (Spektrometer für 180.000 €) wurde beschafft und ist operational seit Q2 2024. Finanzielle Entwicklung: Bisherige Ausgaben 420.000 € von 750.000 € Budget. Die Bindung von Sachausgaben (Equipment) ist höher als geplant. Zeitplan und Risiken: Alle geplanten Meilenstones wurden erreicht. Für Q4 2024 ist eine weitere Publikation geplant. Keine kritischen Verzögerungen absehbar.

Das ist der Anfang. Refiner später mit echten Daten.

Quellen & Methodik

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar