Dissertation-Betreuungsassistent
KI unterstützt Betreuer bei der Begleitung von Doktoranden: Fortschritts-Tracking, automatische Protokollierung von Besprechungen, Meilenstein-Überwachung.
Es ist Dienstag, 17:38 Uhr. Prof. Anja Vorberg sitzt in ihrem Büro an der Uni Leipzig, Lehrstuhl für Klinische Psychologie. Hinter ihr: drei Betreuungsgespräche, hintereinander, insgesamt vier Stunden. Niklas, im dritten Jahr, hat über seine Studie 2 berichtet — Stichprobengröße war kleiner als geplant, aber die Effektstärke überraschend stark. Lisa, Erste Jahr, hat ihr Exposé mitgebracht und drei Korrekturwünsche bekommen: stärker auf den Forschungsstand eingehen, die Hypothese präzisieren, die Methode-Sektion umstrukturieren. Maryam, im fünften Jahr, hat nicht viel geredet — typische Schreibblockade-Symptomatik, “ich weiß nicht, wie ich Kapitel 3 anfange.” Anja hat ihr zugehört, zwei Ideen skizziert, und versprochen, ihr den Entwurf aus einem anderen Projekt zu schicken.
Jetzt: “Notizen verschriftlichen” steht in ihrem Kalender. Diese Aufgabe rutscht seit 14 Tagen. Sie hat keine präzisen Notizen gemacht — nur Stichpunkte auf Zetteln, die jetzt irgendwo im Papierstapel sind. Was hat Lisa fragen sollen zu Studie 3? Welche Deadlines hat sie vereinbart? Und Maryam — welcher Entwurf war es, den sie schicken wollte?
Im Februar kommt Lisa zu ihr zurück und fragt: “Was hatten wir beim letzten Mal zur Studie 3 besprochen?” Prof. Vorberg sagt: “Gute Frage. Lass mich kurz suchen…” Sie findet nichts. Die Betreuung wird zum Zufallsmosaik.
Zwei ihrer Doktoranden hat sie in den letzten fünf Jahren verloren. Die Abbruchquoten von 30–40 Prozent sind nicht nur Statistik — sie sind persönliche Niederlagen.
Das echte Ausmaß des Problems
Die Zahlen sind deutlich: Bundesweit sind aktuell etwa 212.400 Personen in Promotionsprogrammen an deutschen Hochschulen eingeschrieben. Der Wissenschaftsrat schätzt, dass 30 bis 46 Prozent der Promovierenden ihre Promotion abbrechen — wobei fast die Hälfte dieser Entscheidungen in den ersten zwei Jahren fällt. Eine Befragung von über 1.000 Doktorandinnen und Doktoranden zeigte: 63 Prozent sind zufrieden oder sehr zufrieden mit ihrer Betreuung — aber diese Zufriedenheit sinkt deutlich mit der Dauer der Promotion.
Die Struktur ist problematisch: Ein Professor mit 10–15 Doktoranden unter Dach, dazu noch Lehre, Gremienarbeit und Drittmittelanträge. In der Realität berichten Doktoranden oft von zwei bis vier Betreuungsgesprächen pro Semester — manche gar nicht mehr als zwei pro Jahr. Wenn dann aber weder Betreuer noch Doktorand präzise notiert hat, was besprochen wurde, verlieren sich vereinbarte Deadlines. Offene Forschungsfragen werden nicht systematisch verfolgt. Der Fortschritt wird nicht gemessen.
Das führt zu drei feststellbaren Konsequenzen:
- Unklare Erwartungen: Betreuer und Doktorand haben unterschiedliche Verständigungen darüber, was der nächste Schritt ist, welche Qualität erwartet wird, bis wann es fertig sein muss. Das generiert Enttäuschung auf beiden Seiten.
- Zu späte Früherkennung von Problemen: Ein Doktorand sitzt seit vier Monaten an der gleichen Frage fest, hat aber nur zwei Gespräche mit dem Betreuer in diesem Zeitraum. Der Betreuer kennt das Problem nicht und kann nicht intervenieren.
- Verlorene Wissensbruchstücke: Wenn nach sechs Monaten ein Doktorand fragt, “Was hast du mir damals zur Statistik geraten?”, gibt es keine Antwort — nur ein verschwommenes Gefühl. Das Wissen des Betreuers, das während des Gesprächs weitergegeben wurde, ist verloren.
Eine andere Perspektive: Jeder verhinderter Promotionsabbruch spart einer Universität etwa 30.000 Euro — Förderung, Arbeitsplatz, administrative Kosten für den Abbruchprozess.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne Betreuungs-KI | Mit KI-gestütztem System |
|---|---|---|
| Zeitaufwand für Nachbearbeitung pro Gespräch | 30–60 Minuten (Notizen nachschreiben) | 5–10 Minuten (Protokoll checken + freigeben) |
| Dokumentations-Genauigkeit bei Deadlines | Variabel (oft unvollständig) | Konsistent (automatisch extrahiert) |
| Früherkennung von Stagnations-Signalen | Nicht möglich (kein Tracking) | Möglich über Fortschritts-Dashboard |
| Doktorand hat Zugriff auf Gespräch-Protokoll | Selten/nie (Betreuer vergisst) | Immer (beide erhalten Entwurf) |
| Systematisches Meilenstein-Tracking | Nicht vorhanden | Vorhanden (monatlich pro Doktorand) |
| Dauer bis zur Diss-Fertigstellung (Erhebungen) | 4–6 Jahre durchschnittlich | 3,5–5 Jahre (wenn gut begleitet) ¹ |
¹ Der Unterschied ist nicht kausal nur dem Tracking zuzuordnen — bessere Begleitung insgesamt führt zu kürzeren Zeiten. Der KI-Assistent ersetzt nicht die menschliche Aufmerksamkeit, aber er schärft sie.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5)
Das System spart etwa 2 Stunden pro Betreuer und Woche — aber das sind Administrationsaufgaben (Nachnotizen, Notiz-Archivierung), nicht die eigentliche Betreuungsarbeit. Die Gespräche selbst werden nicht kürzer, und die Nachbereitung der Inhalte braucht immer noch Aufmerksamkeit. Andere Use Cases wie Meeting-Protokolle sparen direkt im Kernprozess; hier ist es eher peripher. Dafür: Die Zeit, die man später mit dem Durchsuchen alter Notizen verbringt, sinkt merklich.
Kosteneinsparung — sehr niedrig (1/5)
Direkter monetärer Nutzen ist minimal. Hochschulen sparen nicht durch bessere Dokumentation — der Wert liegt in vermiedenen Abbrüchen. Ein verhinderter Abbruch spart ca. 30.000 Euro indirekten Schaden (Förderung, Personal), aber das ist schwer zuzuordnen. Für eine Hochschule mit 200 Promovierenden und 10-prozentiger Abbruchquote könnten theoretisch 20 Abbrüche verhindert werden — Wert circa 600.000 Euro. Aber: Das ist spekulativ. Die KI-Lösung kostet real 3.000–5.000 Euro pro Jahr und Lehrstuhl, mit messbar direkter Einsparung von null Euro. Der ROI entsteht in weniger Personalleid und besseren Doctoral Outcomes, nicht in Geldfluss.
Schnelle Umsetzung — mittel (3/5)
4 bis 8 Wochen bis zum produktiven Einsatz. Hürden sind: Auswahl und Konfiguration von Meeting-Transkriptions-Tool (Otter AI oder Fireflies), Integration mit Notion/Claude-Dashboard für Doktoranden-Tracking, Schulung der Betreuer auf den Workflow, rechtliche Klärung (Einverständnis aller Gesprächsteilnehmer — kritisch für Datenschutz). Die technische Einrichtung ist schnell; die organisatorische und rechtliche Vorbereitung braucht Zeit.
ROI-Sicherheit — niedrig (2/5)
Wirkung auf Abbruchquoten ist über 2–3 Jahre messbar, aber nicht eindeutig kausal auf das KI-Tool zurückführbar. Besser ist: Betreuungsqualität steigt (messbarer: Häufigkeit dokumentierter Gespräche, Doktoranden-Feedback zu Klarheit der nächsten Schritte). Aber den großen Durchbruch „Mit KI-Assistent sinkt die Abbruchquote um 30 Prozent” kann niemand versprechen — zu viele Faktoren spielen mit (Motivation des Doktoranden, Forschungsfreiheit, Gesamtmotivation des Betreuers). Der KI-Assistent hilft, aber er ist kein Garant.
Skalierbarkeit — mittel (3/5)
Das System skaliert gut von 1 Lehrstuhl auf 5 Lehrstühle, von 10 Doktoranden auf 50 — die Cloud-Infrastruktur (Otter, Notion, Claude API) skaliert mit. Nicht maximal bewertet, weil die menschliche Komponente (Betreuer, der auf die Benachrichtigungen reagiert) nicht skaliert — man kann nicht einfach doppelt so viele Doktoranden mit gleicher Betreuungsqualität verwalten, nur weil die Dokumentation automatisiert ist.
Richtwerte — stark abhängig davon, wie konsequent die Betreuer das System nutzen und wie motiviert sie sind, auf die generierten Hinweise zu reagieren.
Was der KI-Assistent konkret macht
Das System funktioniert in zwei Phasen:
Phase 1: Automatische Gesprächs-Dokumentation
-
Transkription mit Einverständnis: Vor dem Gespräch fragt der Betreuer (oder eine Assistentin): “Darf ich das Gespräch aufzeichnen und transkribieren lassen? Beide Seiten erhalten dann ein Protokoll, du kannst es bearbeiten.” Der Doktorand muss zustimmen — keine Aufzeichnung ohne Einwilligung (§ 201 StGB ist ernst gemeint).
-
Live-Transkription: Ein KI-Modell (z.B. Otter AI oder Fireflies AI) hört live mit, transkribiert die Rede in Echtzeit in Text. Die Qualität ist bei deutschen Gesprächen mittelmäßig bis gut — Whisper (OpenAI-Modell) ist präziser, Otter ist benutzerfreundlicher.
-
Automatische Extraktion: Nach dem Gespräch nutzt eine Claude-Instanz die Transkription und extrahiert drei Dinge:
- Vereinbarte nächste Schritte mit Deadlines: “Niklas schreibt die Methoden-Sektion bis 15. April und sendet sie dem Betreuer zu.”
- Offene Forschungsfragen: “Unklar bleibt, wie die Kontrollgruppe definiert wird — Niklas recherchiert aktuelle Studien dazu.”
- Stimmungs- und Fortschritts-Indikator: “Niklas wirkt motiviert, die Größe der Stichprobe ist ein echter Knackpunkt, Lösung bis Mai erforderlich.”
-
Protokoll-Entwurf an beide: Betreuer und Doktorand erhalten per E-Mail einen Entwurf des Protokolls, der Betreuer bestätigt/korrigiert (30 Sekunden), der Doktorand kann Ergänzungen schreiben (2 Minuten), dann ist es archiviert und durchsuchbar.
Phase 2: Fortschritts-Tracking und Warnsignale
Ein monatliches Dashboard pro Doktorand zeigt:
- Exposé-Meilensteine: In welcher Phase befindet sich der Doktorand? (Literatur → Methode → Datenerhebung → Auswertung → Schreiben → Finale Überarbeitungen) — mit prozentualem Fortschritt.
- Letzte Gesprächs-Daten: Wann war das letzte Gespräch? Welche offenen Punkte gibt es noch?
- Warnsignale:
- Rot: 3+ Gespräche in den letzten 3 Monaten, alle zum gleichen Thema → deutet auf Stagnation hin, Betreuer sollte reagieren
- Orange: Letzte Deadline überschritten, kein neuer Gesprächstermin vereinbart
- Grün: Plan läuft, Meilensteine werden erreicht
Das Dashboard ist kein Überwachungs-Tool, sondern ein Struktur-Werkzeug für den Betreuer: “Aha, Maryam sitzt seit fünf Wochen bei ‘Schreiben Kapitel 3’ fest und wir haben kein Gespräch seit zwei Monaten — ich sollte mal nachfragen.”
Konkrete Werkzeuge — was wann passt
Stufe 1: Meeting-Transkription
Otter.ai (kostenlos bis 300 Min/Monat, dann 8,49 USD/Monat) — einsteigerfreundlich, automatischer Bot. Problem: Deutsch-Qualität ist mittelmäßig.
Fireflies.ai (kostenlos bis 800 Min/Monat, dann ~12 USD/Monat) — etwas besser bei Deutsch. Empfehlung: Startet damit — freemium, keine externe IT nötig.
Alternative: Whisper (kostenlos) — höhere Qualität, aber Setup-Aufwand größer.
Stufe 2: Textverarbeitung
Claude (via API, ~0,01 USD pro Transkription) — extrahiert automatisch Schritte, Fragen, Stimmung.
Stufe 3: Dashboard und Notizen
Notion (kostenlos bis 10 Seiten, dann 8 USD/Monat) — Doktoranden-Tracking-Datenbank mit Meilesteine, Gesprächs-Daten, Status.
Obsidian (kostenlos) — Notizbuch-System für Doktoranden (Betreuungs-Notizen, Literatur, Methode).
Citavi (ab ~100 € oder kostenlos via Hochschule) — Literaturverwaltung.
Workflow:
- Monatliche Gespräche mit Fireflies-Aufzeichnung (mit Zustimmung)
- Claude generiert automatisch Protokoll aus Transkript
- Betreuer checkt (5 Min), sendet an Doktorand
- Doktorand notiert Fortschritt in Notion-Dashboard
- Monatlich: Betreuer sieht Dashboard — wer sitzt fest, wer läuft rund
Gesamtkosten pro Jahr (8 Doktoranden, 1 Lehrstuhl):
- Fireflies: ~120 € (ca. 960 Min/Monat)
- Claude API: ~30 €
- Notion: ~96 €
- Obsidian/Citavi: 0 € (kostenlos)
- Summe: ca. 300–400 € pro Lehrstuhl
Für 100+ Doktoranden (10–15 Lehrstühle mit Mengenlizenzen): ~3.600–5.000 €/Jahr.
Datenschutz und Datenhaltung
Das Thema ist kritisch — es geht um aufgezeichnete akademische Gespräche mit persönlichen Inhalten.
Einwilligung (§ 201 StGB und DSGVO)
Die aufzeichnungsgesetze in Deutschland sind strenger als anderswo. Nach § 201 StGB ist das unerlaubte Aufzeichnen einer Unterhaltung grundsätzlich strafbar. Das bedeutet: Ohne ausdrückliche vorherige Einwilligung beider Gesprächspartner ist die Transkription rechtlich fragwürdig. Keine „Opt-Out”-Lösung — echte Opt-In.
Praktisch: Der Betreuer schreibt im Einladungstext zur Betreuungssitzung explizit: “Dieses Gespräch wird aufgezeichnet und transkribiert. Beide Seiten erhalten ein Protokoll. Du kannst der Aufzeichnung widersprechen, dann findet sie nicht statt.” Der Doktorand antwortet mit “OK” oder “Nein”.
Datenhaltung und Cloud
- Transkript-Datei: Bleibt lokal auf dem Rechner des Betreuers, nicht in der Cloud von Fireflies/Otter (außer du synchronisierst aktiv)
- Claude-API: Die Transkription wird an Claude gesendet, dann verarbeitet und wieder gelöscht (Anthropic hat eine 30-Tage-Retention, dann Auto-Delete)
- Notion/Obsidian: Deine Instanz. Notion lädt die Daten auf deutsche Server (EU-Standard), Obsidian speichert alles lokal
- Aufbewahrung: Protokolle sollten mindestens für die Dauer der Promotion aufbewahrt werden (ca. 5 Jahre), dann gelöscht, es sei denn der Doktorand möchte sie behalten
Datenverarbeitung und AVV
Wenn deine Hochschule den Betreuer als „Verantwortlichen” für die Datenverarbeitung sieht und externe Tools nutzt, braucht es möglicherweise Auftragsverarbeitungsverträge (AVV) mit Fireflies/Claude/Notion. Praktisch: Die meisten großen Tools haben EU-/deutsche Datenschutz-Zertifikate. Prüfe mit deinem Datenschutzbeauftragten — das ist 1–2 Gespräche, keine Blockers.
Sicherheit in der Praxis
- Passwords für Notion/Obsidian sollten nicht mit Doktoranden geteilt werden (nur Links mit Lese-Rechten)
- Archivierte Protokolle sollten nicht öffentlich im Uni-Sharepoint liegen (Rollen-basiertes Zugangsmanagement)
- Nach Abschluss der Promotion: Doktorand kann Kopien seiner Protokolle erhalten, Rest wird gelöscht
Was es kostet — realistisch gerechnet
Einmalige Kosten (Setup und Schulung):
- Lizenz-Verhandlung und Beschaffung (Fireflies-Team, Notion-Workspace): 500–1.000 €
- Technische Einrichtung (Automatisierung, Notion-Template, Claude-Integration): 500–2.000 € (intern oder externe Beratung)
- Schulung der Betreuer (Workshop, Dokumentation): 500–1.500 €
- Summe Einrichtung: 1.500–5.000 € (abhängig von Größe und ob externe Hilfe nötig ist)
Laufende Kosten pro Jahr (für 10 Doktoranden / 1–2 Lehrstühle):
- Fireflies-Transkription: ~100–150 € (bei 20 Gesprächen/Monat, 60 Min durchschnittlich)
- Claude-API: ~40 € (wenn sparsam genutzt, ca. 20–30 Transkriptionen/Monat)
- Notion: ~100 € (Team-Plan, aber mehrere Lehrstühle teilen)
- Obsidian/Citavi: 0 € (kostenlos oder Hochschul-Lizenz)
- Pufferzeit für Betreuer-Aufwand (Protokoll-Kuration, Dashboard-Review): nicht extra kosten (interne Arbeitszeit)
- Summe laufend: ca. 150–400 € pro Monat für ein Lehrstuhl-Cluster, oder ~3.600 € pro Jahr
Vergleich ohne KI:
- Status Quo: 0 € direkter Aufwand, aber 10–15 Stunden/Monat Betreuer-Zeit für manuelle Nachnotizen und Recherche in alten Zetteln
Konservative ROI-Berechnung: Angenommen, ein verhinderter Promotionsabbruch spart 30.000 € (Fördergelder, Personalkosten, Zeitaufwand). Bei 10–12 Doktoranden über 3 Jahre: Wenn die KI-Lösung einen zusätzlichen Abschluss pro Lehrstuhl ermöglicht (statt Abbruch), amortisiert sich die Investition. Aber: Das ist ein Idealfall. Realistischer ist, dass die Lösung die Betreuungsqualität steigert, ohne den Abbruch komplett zu eliminieren. Direkte monetäre Einsparung: sehr begrenzt. Indirekte Nutzen: Reputation, Zufriedenheit, bessere Outcomes.
Drei typische Einstiegsfehler
1. Datenschutz und Professorenrolle vermischt — der Überwachungs-Eindruck
Ein Professor führt Transkription ein und denkt: “Jetzt dokumentiere ich jedes Gespräch und kann später sehen, wenn Doktoranden nicht arbeiten.” Der Doktorand nimmt das als Überwachung wahr — und das zerstört das Vertrauen, das die Betreuung braucht.
Das richtige Mindset: Die Transkription hilft beiden Seiten. Sie ist nicht für Leistungsbewertung, nicht für Überwachung, nicht um Fehlzeiten zu tracken. Sie ist für Klarheit: “Beide Seiten haben ein Protokoll, niemand vergisst, was besprochen wurde.” Das muss klar kommuniziert werden — am besten in der Betreuungsvereinbarung schriftlich festgehalten. Und: Der Doktorand hat Löschrecht. Wenn er sagt “Diese Aufzeichnung lösch ich”, wird sie gelöscht, ohne Konsequenzen. Das ist der Unterschied zwischen Hilfsmittel und Überwachungs-Tool.
2. Die KI soll die Betreuung “ersetzen” — die Skalierungs-Illusion
Ein Professor denkt: “Mit diesem KI-System kann ich jetzt 20 oder 30 Doktoranden betreuen statt 10, die Dokumentation macht die KI quasi allein.” Das funktioniert nicht. Die Transkription und Protokoll-Generierung laufen automatisch — aber die eigentliche Betreuungsarbeit bleibt gleich aufwändig. Ein Doktorand in der Schreibblockade braucht immer noch ein 60-Minuten-Gespräch mit echtem inhaltlichem Input vom Betreuer, egal ob das nachher transkribiert wird. Wenn ein Professor vorher 10 Doktoranden mit guter Aufmerksamkeit betreuen konnte, sind es mit KI-Hilfsmittel immer noch ca. 10–12. Nicht 20.
Das richtige Mindset: Das System ersetzt nicht die menschliche Aufmerksamkeit, sondern macht sie sichtbar und strukturiert. Ein Betreuer mit KI-Dokumentation kann seine 10 Doktoranden besser betreuen — schneller auf Probleme reagieren, nicht wiederholen, was er vor drei Monaten geraten hat. Aber die Obergrenze ist weiterhin da. Realistische Zahlen: Ein Professor mit 10–12 gut betreuten Doktoranden ist das Maximum, KI-unterstützt oder nicht.
3. Fortschritts-Dashboard statt Gespräche führen — die Ersatz-Illusion
Ein Professor schaut auf sein Notion-Dashboard, sieht: “Lisa ist noch bei ‘Literaturrecherche: 75%’, das ist gut, alle OK.” Er liest das und denkt, dass die Betreuung geschah — und vergisst das nächste Gespräch. Das funktioniert nicht. Das Dashboard ist eine Orientierungshilfe, nicht der Ersatz für ein Gespräch. Die Zahl “Literaturrecherche: 75% abgeschlossen” sagt nicht, ob Lisa wirklich auf Schiene ist oder innerlich völlig blockiert, aber das äußerlich nicht zeigt. Ein offenes Gespräch — “Wie geht’s dir, wie läuft die Recherche?” — enthüllt viel mehr.
Das richtige Mindset: Das Dashboard bereitet das Gespräch vor, nicht ersetzt es. Ein Betreuer schaut: “Lisa sitzt bei 75% Literatur seit zwei Monaten” — und nutzt das als Eröffner: “Ich sehe, du bist noch eine Weile in der Literaturphase. Sind Hindernisse entstanden? Können wir einen Plan für die restlichen 25 % machen?” Die KI-Information richtet die Aufmerksamkeit, aber die menschliche Interaktion macht das System lebendig.
Was mit der Einführung wirklich passiert — und was nicht
Erfahrungen aus Hochschulen, die Meeting-Transkription oder Dokumentations-Systeme eingeführt haben, zeigen ein klares Muster:
Woche 1–2: Technische Begeisterung Die Betreuer sind neugierig, wollen das System ausprobieren. “Das ist ja interessant, wie gut funktioniert das?” Erste Transkriptionen erzielen 85–90% Genauigkeit — nicht perfekt, aber brauchbar. Stimmung: “Das könnte funktionieren.”
Woche 3–6: Kleine Frustration mit Details Das System gibt manchmal Unsinn aus, Namen werden falsch erkannt, Fachbegriffe kriegt es nicht hin. Ein Betreuer muss manuell korrigieren und denkt: “Ist das wirklich schneller als meine eigenen Notizen schreiben?” Ein anderer Betreuer hat vergessen, die Aufzeichnung vor dem Gespräch anzumachen — Protokoll existiert nicht. Die Realität ist messier als erwartet.
Monat 2–3: Adoption-Hügel Betreuer, die regelmäßig nutzen (einmal pro Woche mit je einem Doktorand) berichten: “Jetzt hab ich’s raus. Es erspart mir tatsächlich Zeit.” Betreuer, die nur sporadisch nutzen (einmal pro Monat), sagen: “Der Aufwand lohnt sich nicht für mich.” Das ist normal — manche Menschen adoptieren neue Tools schneller, manche widerwilliger.
Monat 3+: Stabilisierung Wer durchhält, merkt den Nutzen: keine Notiz-Chaos mehr, Doktoranden erhalten konsistent Protokolle, Betreuer vergessen weniger. Doktoranden, die ihre Protokolle sammeln und durchsuchen, sagen oft: “Das hättest du früher implementieren sollen.” Wer nicht durchhält, nutz das System ad-hoc und verliert den Vorteil.
Häufige Adoption-Blockaden:
- Betreuer, die sich zu alt für neue Tools fühlen — Lösung: Gute Schulung, vielleicht ein studentischer Hilfskraft, der die Technik startet
- Datenschutz-Angst — Lösung: Transparente Kommunikation mit dem Datenschutzbeauftragten, klare Einwilligungs-Prozesse
- Widerstand von Doktoranden, die sich “gecheckt” fühlen — Lösung: Betonen, dass es um gegenseitige Klarheit geht, nicht Überwachung
Was mit der Einführung NICHT passiert:
- Betreuer müssen nicht weniger Zeit mit Doktoranden verbringen
- Das System ersetzt nicht das persönliche Vertrauen
- Es eliminiert nicht automatisch Abbrüche (nur die Chancen auf Früherkennung)
- Doktoranden werden nicht schneller fertig, wenn die Betreuung gleich bleibt
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Phase 1: Evaluierung & Planung | 2–3 Wochen | Hochschule evaluiert Tools, prüft Datenschutz mit Datenschutzbeauftragtem, entscheidet über Tools. Betreuungsvereinbarung wird vorbereitet. | Datenschutzbeauftragter stellt zu viele Hürden auf; zu lange Entscheidungswege in der Hochschule |
| Phase 2: Technische Einrichtung | 2–4 Wochen | Tools werden lizenziert, Automatisierungen (Zapier/Make) werden konfiguriert, Notion-Template wird aufgebaut. Test mit 1–2 Piloten. | Automatisierungen sind komplexer als erwartet; Claude-Integration braucht API-Konfiguration |
| Phase 3: Betreuer-Schulung | 1–2 Wochen | Workshop mit allen Betreuern (2 Stunden), dann individuelle Onboarding-Sitzungen. Dokumentation wird verteilt. | Betreuer nehmen nicht teil oder brauchen mehr Eins-zu-Eins-Zeit als geplant |
| Phase 4: Pilot-Betrieb | 4–6 Wochen | 1–2 Lehrstühle mit ca. 10 Doktoranden starten aktiven Betrieb. Jede Woche wird ein Gespräch transkribiert, Feedback wird eingeholt. Fehlerhafte Transkriptionen werden korrigiert. | Transkription-Qualität für Deutsch ist schlechter als erhofft; Betreuer nutzen das System nicht konsequent |
| Phase 5: Anpassung & Full-Rollout | 2–4 Wochen | Basierend auf Pilot-Feedback werden Workflows angepasst (z.B. anderes Transkriptions-Tool, vereinfachte Einwilligung, bessere Schulung). Dann Rollout auf alle Lehrstühle. | Zu früher Rollout mit ungelösten Problemen aus Phase 4 |
| Phase 6: Stabilisierung | Laufend (Monat 4+) | System läuft Routine. Monatliche Reviews mit Betreuern, Feedback-Schleifen mit Doktoranden. Wenn neue Lehrstühle hinzukommen, schneller Onboarding. | Anfangsbegeisterung lässt nach, Betreuer kehren zu alten Gewohnheiten zurück; technischer Support wird benötigt |
Gesamtdauer vom Start bis stabil: Ca. 3–4 Monate.
Häufige Einwände — und was dahintersteckt
Einwand 1: “Das ist zu datenschutzsensibel, wir können nicht aufzeichnen.”
Tatsache: Aufzeichnung ist möglich, wenn du die rechtliche Basis stimmt. Die meisten Hochschulen legen sich eine zu konservative Auslegung zurecht, weil der Aufwand nicht klar ist. Wenn du mit deinem Datenschutzbeauftragten klar machst, dass es um informierte Einwilligung vorher geht (nicht heimliche Aufzeichnung), können 95% der Bedenken geklärt werden.
Hintergund: Verantwortliche wollen keine Risiken eingehen — verständlich. Lösung: Ein klares schriftliches Einwilligungs-Verfahren, vielleicht auch mit Opt-Out-Möglichkeit, und dann wird es erlaubt sein.
Einwand 2: “Doktoranden werden sich unwohl fühlen, wenn alles aufgezeichnet wird.”
Teils wahr, teils unbegründet. Manche Doktoranden freuen sich darauf (endlich ein Gedächtnis des Gesprächs), andere finden es beklemmend. Aber das ist kulturabhängig und kann mit klarer Kommunikation (“Das ist für deine und meine Sicherheit, nicht für Bewertung”) gelöst werden.
Hintergrund: Die erste Reaktion ist oft Skepsis, weil neue Systeme fremd sind. Sobald Doktoranden sehen, dass die Protokolle ihnen selbst nutzen, dreht sich die Meinung oft.
Einwand 3: “Wir haben nicht das Budget für ein neues System.”
Wahr für viele Hochschulen, aber: 3.600 € pro Jahr für 100+ Doktoranden ist sehr billig. Zum Vergleich: Ein Tag externer Beratung kostet mehr. Wenn man die indirekten Einsparungen rechnet (ein vermiedener Abbruch = 30.000 €), lohnt sich das System schnell — aber das ist schwer zu budgetieren.
Hintergrund: Hochschulen müssen langfristig denken. Ein Pilotprojekt für 1–2 Lehrstühle kostet 1.500–3.000 € im ersten Jahr — das können die meisten Dekane aus dem Topf lösen.
Woran du merkst, dass das zu dir passt
Folgendes sollte auf dich zutreffen:
- Du betreust mehr als 5 Doktoranden gleichzeitig und wünschst dir, dass die Dokumentation präziser ist
- Deine Doktoranden berichten, dass sie nach einigen Monaten “vergessen haben, was der Betreuer zur Studie 2 geraten hat” — du merkst, dass Kommunikation nicht haften bleibt
- Deine Hochschule hat einen Datenschutzbeauftragten, der mit dir arbeitet (nicht einer, der alles blockt)
- Deine Hochschule hat 20+ Doktoranden insgesamt, sodass sich eine zentrale Lösung rechnet
Woran du merkst, dass du noch nicht bereit bist:
- Du betreust nur 1–3 Doktoranden — der Aufwand für das System lohnt sich nicht
- Deine Hochschule hat einen sehr strengen Datenschutzbeauftragten, der jede Cloud-Lösung blockt
- Deine Doktoranden arbeiten stark asynchron (wenig Meetings, viel E-Mail) — das System braucht regelmäßige Gespräche als Input
- Du als Betreuer bist technisch desinteressiert und hast keine Unterstützung durch eine IT-Person oder Assistentin
Das kannst du heute noch tun
Schritt 1 (15 Minuten): Selbst-Audit machen Zähl auf, wie viele Doktoranden du betreust. Notiere für den letzten Monat: Wie viele Gespräche hattest du? Wie gut erinnern du dich an die Details? Schreib auf: “Welche nächsten Schritte haben wir vereinbart?” Wenn du bei mehr als 30% der Fragen blank bist, könnte das System dir helfen.
Schritt 2 (30 Minuten): Einen Doktorand fragen Sprich mit einem Doktorand, dem du vertraust, und frag: “Hältst du es für hilfreich, wenn ich Betreuungsgespräche transkribieren und zusammenfassen würde? Beide Seiten bekämen ein Protokoll.” Die Reaktion ist oft: “Ja, das würde mir helfen.” Wenn mehrere Doktoranden so antworten, hast du Rückendeckung für das Projekt.
Schritt 3 (1 Stunde): Mit deinem Datenschutzbeauftragten sprechen Vereinbar einen kurzen Termin und bring die Frage mit: “Ich möchte Betreuungsgespräche transkribieren, mit expliziter Einwilligung aller Teilnehmer, Protokolle bei beiden Seiten speichern, keine Weitergabe an Dritte. Ist das datenschutzmäßig machbar?” Eine klare Antwort solltest du bekommen.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Abbruchquoten und Zufriedenheit: Wissenschaftsrat, “Ausgestaltung der Promotion im deutschen Hochschulsystem” (2023), abrufbar unter wissenschaftsrat.de; Wissenschaftsrat-Befragung zu Promovierenden-Zufriedenheit (Betreuungszufriedenheit 63%).
- Zeitaufwand Betreuer: “Warum betreuen Professoren externe Promotionen?” Juraworld Forum (2022) und TU Chemnitz “Goldene Regeln für Doktorväter” — dokumentieren Realität von Professoren mit 15+ gleichzeitigen Doktoranden.
- Transkriptions-Qualität und DSGVO-Compliance: Plaud.ai und Meetily.ai Blog-Artikel zu DSGVO-konformen KI-Meeting-Transkriptionen (2025); LUTZ | ABEL Rechtsberatung zu § 201 StGB und Aufzeichnung (2024).
- Supervision und Progress Tracking: ResearchGate Paper “Supervision Tracking: Improving the student and staff experience for projects and dissertations” — Best Practices für Dokumentation; Medium-Artikel “A Meeting Minutes System for Every PhD Student” (Cameron Steer) zeigt praktische Implementierung.
- Obsidian und Second Brain: Arxiv Paper “How People Manage Knowledge in their Second Brains — A Case Study with Industry Researchers Using Obsidian” (2024) zeigt, dass verlinkte Notizsysteme Forschungsgaps früher erkennen lassen.
- Doktorands-Perspektive: AcademicTransfer und PhD Compass Blog zu Supervision Meetings — häufige Probleme mit Dokumentation und Klarheit.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Literaturrecherche automatisieren
KI durchsucht Datenbanken wie PubMed, Scopus und Semantic Scholar und liefert relevante Paper mit Zusammenfassungen. Spart Wochen manueller Recherche.
Mehr erfahrenGrant-Antrag Schreibassistent
KI unterstützt beim Verfassen von Drittmittelanträgen: strukturiert Projektbeschreibungen, passt Sprache an Fördergeber an und prüft Vollständigkeit.
Mehr erfahrenForschungsdaten-Auswertung mit KI
KI analysiert große Mengen Messdaten, Umfrageergebnisse oder Textkorpora und identifiziert Muster, Ausreißer und Zusammenhänge, die manuell nicht erkennbar wären.
Mehr erfahren