Literaturrecherche automatisieren
KI durchsucht Datenbanken wie PubMed, Scopus und Semantic Scholar und liefert relevante Paper mit Zusammenfassungen. Spart Wochen manueller Recherche.
Es ist Donnerstag, 16:40 Uhr.
Lisa ist Doktorandin im dritten Jahr. Ihr Betreuer hat diese Woche nach dem Stand ihrer Literaturrecherche gefragt — der erste Entwurf des Related-Work-Kapitels soll in drei Wochen fertig sein. Seit Montag sitzt sie jeden Abend in PubMed und Scopus: Stichwörter eingeben, Treffer durchscrollen, Titel lesen, Abstract prüfen, Paper herunterladen, in Zotero einsortieren, nächste Seite.
700 Treffer. Davon 80 halbwegs relevant. Davon 30 wirklich wichtig. Das weiß sie jetzt, nach vier Tagen.
Einer ihrer Kollegen, der im Sommer fertig wurde, hat ihr erzählt, dass er 6 Wochen für seine erste systematische Recherche gebraucht hat. Sechs Wochen, in denen er kaum geschrieben hat — nur gesucht, gelesen, sortiert.
Dabei ist das Problem nicht die Gründlichkeit. Das Problem ist das Volumen: Allein in ihrem Teilgebiet erscheinen monatlich 400 bis 600 neue Paper. Kein Mensch kann das vollständig lesen. Und jedes Paper, das sie übersieht, ist ein potenzieller Reviewer-Kommentar: “Die Autoren sind offenbar nicht vertraut mit der Arbeit von Müller et al. 2023.”
Das echte Ausmaß des Problems
Literaturrecherche ist in der akademischen Forschung zeitlich eine der aufwändigsten Einzelaktivitäten. Laut Umfragen unter wissenschaftlichen Mitarbeitenden verbringen Forschende in datenintensiven Fächern zwischen 30 und 40 Prozent ihrer Arbeitszeit mit dem Suchen, Lesen und Einordnen von Literatur. Bei einem systematischen Review — dem Goldstandard für evidenzbasierte Forschung — beginnt das Screening typischerweise mit hunderten bis tausenden potenziell relevanter Treffer aus mehreren Datenbanken, die alle manuell gesichtet werden müssen.
Das PRISMA-Protokoll (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) ist der methodische Standard — und er ist arbeitsintensiv: Zwei unabhängige Reviewer, strukturierte Ein- und Ausschlusskriterien, dokumentierte Entscheidungen für jeden Treffer, Flussdiagramm. Eine einzige systematische Übersichtsarbeit kann 6 bis 18 Monate dauern.
Dazu kommt das Volumen: PubMed allein indiziert rund 13 Millionen Paper; in der Biologie, Medizin und Informatik erscheinen monatlich tausende neue Veröffentlichungen. Die Wahrscheinlichkeit, ein wichtiges Paper bei einer klassischen Stichwortsuche zu übersehen, steigt mit jeder Suchanfrage, die man vergisst zu formulieren.
Die Folgen eines unvollständigen Literaturüberblicks sind nicht trivial: Reviewer und Gutachter kennen das Feld und erkennen fehlende Referenzen. In Promotionsverfahren kann ein lückenhafter Forschungsstand zu Auflagen oder Nacharbeiten führen. Bei Förderanträgen bedeutet eine erkennbar unvollständige Literaturkenntnis häufig Ablehnung.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit KI-Unterstützung |
|---|---|---|
| Zeit für erste Recherche (systematisch) | 3–6 Wochen | 3–7 Tage ¹ |
| Abstract-Screening (1.000 Paper) | 20–30 Stunden manuell | 2–4 Stunden mit KI-Priorisierung |
| Übersehen relevanter Paper | 10–30 % (je nach Strategie) | 5–15 % (verbessert, nicht eliminiert) |
| Aktualität der Quellen | Snapshot bei Recherche | Automatische Alerts für Neues möglich |
| Aufwand für Zitationsverwaltung | 30–60 min pro Session | 5 min mit Browser-Extension |
¹ Zeitersparnis stark abhängig vom Fachgebiet, Datenbankzugang und Vollständigkeitsanspruch. Geisteswissenschaftliche Recherchen mit weniger standardisierten Quellen profitieren geringer. Werte basieren auf Nutzererfahrungen mit Elicit und ähnlichen Tools, keine repräsentative Studie.
Die Qualitätsverbesserung ist real, aber begrenzt: KI-Suchen finden andere Paper als Stichwortsuchen, aber sie finden nicht alles. Eine systematische Recherche nach PRISMA ersetzt kein KI-Tool — es wird ergänzt.
Einschätzung auf einen Blick
Zeitersparnis — sehr hoch (5/5) Literaturrecherche ist die Aktivität, bei der KI-Tools in der Forschung den größten direkten Zeitgewinn liefern. Was früher 3–6 Wochen dauerte, lässt sich auf 3–7 Tage reduzieren — nicht durch weniger Gründlichkeit, sondern durch bessere Priorisierung. Von allen Anwendungen in dieser Kategorie ist das die klarste und unmittelbarste Entlastung für den Forschungsalltag.
Kosteneinsparung — niedrig (2/5) Die relevanten Kosten sind Personalzeit (Doktoranden, Postdocs), und die werden tatsächlich eingespart. Aber die Tools selbst kosten kaum etwas — viele sind kostenlos oder sehr günstig. Der finanzielle Hebel entsteht indirekt: durch kürzere Promotionszeiten, mehr Paper bei gleicher Personalkapazität, schnellere Antragsbearbeitung. Das ist schwerer zu beziffern als z.B. bei der automatisierten Datenauswertung.
Schnelle Umsetzung — hoch (4/5) Kein technisches Setup nötig: Semantic Scholar, Elicit und Zotero sind sofort einsatzbereit. Innerhalb einer Woche verändert sich der Recherchearbeitsablauf messbar. Der einzige Aufwand ist das Eingewöhnen in neue Such-Strategien — statt Stichwörter formuliert man Forschungsfragen. Das dauert ein bis zwei Sitzungen.
ROI-Sicherheit — hoch (4/5) Die Zeitersparnis ist direkt und unmittelbar messbar — anders als bei komplexeren KI-Projekten. Was zehn Stunden Screening dauerte, dauert zwei Stunden. Diese Verbesserung tritt von der ersten Nutzung an ein und ist konsistent. Die einzige Unsicherheit: Ob der KI-gestützte Review die gleiche wissenschaftliche Vollständigkeit erreicht wie ein klassischer — das lässt sich nur mit Referenzvergleichen belegen.
Skalierbarkeit — hoch (4/5) Mehr Forschungsthemen, mehr Mitarbeitende, mehr Datenbanken — der Mehraufwand ist marginal. Ein Doktorand, der das System einmal verstanden hat, kann zehn Themen parallel verfolgen. Nicht ganz maximal, weil Datenbanklizenzen (Scopus, Web of Science) pro Institution lizenziert sind und sich nicht automatisch mit der Nutzung skalieren.
Richtwerte — stark abhängig von Fachgebiet, Zugangssituation zu Datenbanken und Vollständigkeitsanforderung.
Was KI-gestützte Literaturrecherche konkret macht
Klassische Literaturrecherche funktioniert so: Man formuliert Suchbegriffe, schickt sie an eine Datenbank, bekommt eine (zu lange) Trefferliste zurück, scrollt manuell durch Titel und Abstracts. Wenn man den falschen Suchbegriff wählt, findet man nichts. Wenn man zu breit sucht, ertrinkt man in Treffern.
KI-gestützte Literaturtools funktionieren anders. Statt “Welche Paper enthalten diese Stichwörter?” fragen sie: “Welche Paper beschäftigen sich mit diesem Konzept oder dieser Forschungsfrage — unabhängig davon, welche Wörter sie dafür verwenden?”
Das ist der Kern der semantischen Suche: Das System versteht die Bedeutung einer Frage, nicht nur die Wörter darin. Elicit zum Beispiel nimmt eine Forschungsfrage als Eingabe — “Welche Interventionen reduzieren Burnout bei Intensivpflegepersonal nachweislich?” — und findet Paper, die diese Frage beantworten, auch wenn sie die Wörter “Burnout” und “Intensivpflege” nicht zusammen im Titel stehen haben.
Semantic Scholar ergänzt das mit automatischen TLDR-Zusammenfassungen für jeden Treffer: Ein Satz pro Paper, der die Kernaussage auf den Punkt bringt. Bei 200 Treffern bedeutet das: 200 Sätze lesen statt 200 Abstracts.
Connected Papers löst ein anderes Problem: Es visualisiert, wie Paper miteinander verwandt sind — durch gemeinsame Zitationen, nicht durch geteilte Stichwörter. Damit findet man Arbeiten, die man mit keiner Stichwortsuche gefunden hätte, weil sie aus einem angrenzenden Fachgebiet stammen.
Systematische Reviews: PRISMA und KI
Ein systematischer Review nach PRISMA-Protokoll ist die aufwändigste Form der Literaturrecherche und gleichzeitig der Bereich, in dem KI-Tools am meisten entlasten können — beim Screening großer Treffermengen.
Rayyan ist das dafür am weitesten verbreitete Tool: Es importiert Exporte aus PubMed, Scopus und anderen Datenbanken, ermöglicht kollaboratives Screening durch mehrere Reviewer, priorisiert wahrscheinlich relevante Paper per KI-Scoring und erstellt das PRISMA-Flussdiagramm automatisch. Was früher 20 bis 30 Stunden reines Screening bedeutete, lässt sich mit Rayyan auf 5 bis 10 Stunden reduzieren — durch bessere Priorisierung, nicht durch weniger Sorgfalt.
Wichtig: KI-Screening ersetzt nicht den menschlichen Judgment-Schritt. Es priorisiert. Die Entscheidung, ob ein Paper die Einschlusskriterien erfüllt, trifft nach wie vor ein Mensch.
Konkrete Werkzeuge — was wann passt
Elicit — für Forschungsfragen-basierte Suche Elicit ist der erste Griff, wenn man ein neues Thema erkunden will. Forschungsfrage als vollständigen Satz eingeben, Elicit liefert die relevantesten Paper aus 125 Millionen Quellen, extrahiert automatisch Methoden, Stichprobengrößen und Ergebnisse. Ideal für: erste Orientierung, systematische Reviews in empirischen Fächern. Kosten: kostenlos für Basisnutzung; Plus ca. 12 USD/Monat für unbegrenzte Exporte.
Semantic Scholar — für breite Suche und Zitationsanalyse Vollständig kostenlos, keine Registrierung nötig, 200+ Millionen Paper. Die automatischen TLDR-Zusammenfassungen und die Zitationsanalyse sind besonders wertvoll. Ideal für: STEM-Felder, schnelles Screening auf Relevanz, Verfolgen von Zitationsnetzwerken. Kostenlos.
Zotero — für Literaturverwaltung Zotero ist kein Suchtools, sondern das Fundament der Literaturverwaltung. Browser-Extension für einklickiges Speichern von Paper, automatische Zitierstil-Formatierung, Word-Integration. Unverzichtbar für jeden, der regelmäßig publiziert. Kostenlos (Open Source), Cloud-Sync ab 20 USD/Jahr.
Connected Papers — für Forschungslandschaft erkunden Nischenwerkzeug für einen spezifischen Anwendungsfall: Visualisierung von Zitationsnetzwerken. Wenn man ein Schlüsselpaper kennt und verstehen will, welche anderen Arbeiten thematisch eng verwandt sind — auch aus angrenzenden Disziplinen. Kostenlos bis 5 Graphen/Monat; Academic 3 USD/Monat.
Rayyan — für systematische Reviews Speziell für PRISMA-konforme systematische Übersichtsarbeiten. Kollaboratives Screening, KI-Priorisierung, automatisches Flussdiagramm. Standard in der medizinischen und klinischen Forschung. Kostenlos bis 2 Nutzer; Pro ca. 20 USD/Monat.
scite_ — für Qualitätsbewertung von Quellen Zeigt, ob ein Paper von anderen Forschenden zustimmend oder widersprechend zitiert wurde. Für Felder mit schnell ändernder Evidenzlage unverzichtbar — damit man nicht ein inzwischen widerlegtes Paper als Grundlage zitiert. Freemium; Premium ca. 20 USD/Monat.
Zusammenfassung:
- Neue Recherche starten → Elicit oder Semantic Scholar
- Literatur verwalten → Zotero
- Forschungsfeld erkunden → Connected Papers
- Systematischer Review → Rayyan
- Paper-Qualität prüfen → scite_
Datenschutz und Datenhaltung
Für die Literaturrecherche sind die Datenschutzanforderungen vergleichsweise gering — man arbeitet mit öffentlich zugänglichen Metadaten und Abstracts. Personenbezogene Daten spielen in diesem Schritt der Forschungsarbeit keine Rolle.
Die relevante Frage ist eher eine der institutionellen Compliance: Viele Universitäten haben Lizenzverträge mit Scopus, Web of Science oder anderen Datenbanken, die die Nutzung über API oder Third-Party-Tools einschränken können. Vor dem Einsatz von Elicit oder ähnlichen Tools, die programmatisch auf Datenbanken zugreifen, empfiehlt sich eine kurze Rückfrage bei der Bibliothek.
DSGVO-Relevanz entsteht, wenn Forschungsdaten selbst verarbeitet werden — das ist nicht bei der Literaturrecherche der Fall, aber beim nächsten Schritt (Datenerhebung und -auswertung).
Die Daten, die ihr an diese Tools schickt — eure Forschungsfragen, eure Suchanfragen — werden je nach Tool in den USA verarbeitet. Elicit, Semantic Scholar, Connected Papers und Rayyan sind US-Anbieter ohne EU-Datenhosting. Für die Metadaten wissenschaftlicher Paper ist das kein Problem. Für datenschutzsensible Inhalte (z.B. wenn ihr die Suche mit eigenen unveröffentlichten Forschungsfragen oder Hypothesen formuliert, die noch nicht publiziert sind) sollte man das im Kopf behalten.
Was es kostet — realistisch gerechnet
Einstiegskosten Für die Basisnutzung: null Euro. Semantic Scholar und Zotero sind vollständig kostenlos. Elicit hat eine kostenlose Stufe mit 5 Paper-Exporten pro Monat — für erste Tests ausreichend. Connected Papers ebenfalls kostenlos bis 5 Graphen pro Monat.
Für intensive Nutzung — systematische Reviews, große Rechercheprojekte, Teamarbeit:
- Elicit Plus: ca. 12 USD/Monat
- Rayyan Pro: ca. 20 USD/Monat
- Connected Papers Academic: 3 USD/Monat
- scite_ Premium: ca. 20 USD/Monat
Gesamte realistische Monatslizenz für eine aktiv publizierende Forschungsgruppe: unter 100 Euro. Das ist weniger als eine Stunde Forschungszeit.
Was du dagegenrechnen kannst Eine Doktorandin oder ein wissenschaftlicher Mitarbeiter kostet die Universität inklusive aller Nebenkosten 40 bis 70 Euro pro Stunde. Wenn ein systematischer Review von 4 Wochen auf 4 Tage schrumpft: Das sind 3 Wochen weniger — ca. 120 Stunden. Bei 50 Euro pro Stunde: 6.000 Euro an Personalaufwand, die für tatsächliche Forschung genutzt werden können.
Diese Rechnung gilt nicht für jeden Rechercheschritt, aber für den ersten Screening-Schritt großer systematischer Reviews ist sie realistisch.
Wie du den Nutzen misst Der einfachste Beweis: Mach dieselbe Recherche einmal klassisch mit PubMed und einmal mit Elicit — und miss die Zeit. Nicht theoretisch, sondern als direkten Vergleich an einem echten Thema. Protokolliere außerdem, wie viele Paper das KI-Tool findet, die die klassische Suche nicht gefunden hat — und umgekehrt. Das zeigt sowohl die Effizienzgewinne als auch die Lücken.
Drei typische Einstiegsfehler
1. Das KI-Tool als Ersatz für die Primärdatenbank behandeln. Elicit, Semantic Scholar und Co. sind leistungsstark — aber sie ersetzen nicht den direkten Datenbankzugang. Nicht jede Datenbank ist vollständig indexiert, aktuelle Preprints fehlen manchmal, und Conference Papers tauchen unzuverlässig auf. Für einen publizierbaren systematischen Review muss die Suche in den primären Datenbanken (PubMed, Scopus, Web of Science, Cochrane) dokumentiert und reproduzierbar sein — das lässt sich mit KI-Tools nicht ersetzen, sondern nur ergänzen. Wer einen PRISMA-konformen Review veröffentlichen will, muss das in der Methodik transparent machen.
2. Auf die erste Suchanfrage vertrauen. KI-Suchen sind besser als Stichwortsuchen — aber sie sind nicht vollständig. Eine gute Suchstrategie kombiniert mehrere Frageformulierungen (Synonyme, verschiedene Perspektiven), verschiedene Tools und explizite Rückwärtssuchen: Welche Paper zitieren die wichtigsten gefundenen Arbeiten? Welche werden von ihnen zitiert? Wer eine Recherche nach dem ersten Elicit-Lauf für abgeschlossen hält, hat mit hoher Wahrscheinlichkeit relevante Arbeiten übersehen.
3. Literaturverwaltung als Nachgedanken behandeln — und sechs Monate später suchen, woher ein Zitat kam. Das passiert fast jedem, dem niemand früh genug von Zotero erzählt hat: Man liest hunderte Paper ohne systematische Verwaltung, zitiert fleißig in eigenen Texten — und wenn der Betreuer nach der Quelle fragt, ist die Suche nach der genauen Seite Zeitverschwendung. Zotero von der ersten Recherche an nutzen, Browser-Extension aktivieren, jedes Paper beim Lesen sofort speichern. Das ist kein schönes Extra, sondern die Grundbedingung für wissenschaftlich sauberes Arbeiten. Wer nach der Promotionszeit zurückblickt, sagt: Dieser eine Tipp war mehr wert als alles andere.
Was mit der Einführung wirklich passiert — und was nicht
Die erste Begegnung mit Semantic Scholar oder Elicit erzeugt oft einen kurzen Schockmoment: Das findet so viel? So schnell? Was haben wir bisher falsch gemacht?
Nichts. Der klassische Weg hat Jahrzehnte gut funktioniert — er ist nur langsamer als das, was jetzt möglich ist.
Was danach passiert, hängt stark vom Fachgebiet und der Forschungskultur ab:
In empirisch-naturwissenschaftlichen Fächern ist die Adaption meist reibungslos: Die Toollandschaft (PubMed, Semantic Scholar, Elicit) ist auf diese Felder ausgerichtet, die Paper-Struktur ist standardisiert, und die Zeitersparnis beim Screening ist sofort spürbar.
In Geistes- und Sozialwissenschaften ist Vorsicht angebracht: Hier sind die Quellen weniger standardisiert (Monografien, nicht-englischsprachige Paper, Konferenzprozeedingsbände), Datenbanken weniger vollständig, und die semantische Suche trifft das Thema weniger zuverlässig. Diese Tools helfen — aber weniger dramtisch als in der Biomedizin.
Betreuer und Promotionsausschüsse reagieren unterschiedlich auf KI-gestützte Recherchen. Einige sind neugierig und offen, andere erwarten den klassischen Nachweis der Datenbanksuche. Empfehlung: Recherchestrategien und verwendete Tools transparent in der Methodik dokumentieren — das schützt vor Rückfragen und ist methodisch ohnehin korrekt.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Tool-Auswahl und Einführung | Tag 1–2 | Semantic Scholar und Zotero ausprobieren, Browser-Extension installieren, erste Testsuchanfragen | Zu viele Tools gleichzeitig — Fokus auf 1–2 und diese wirklich beherrschen |
| Erste echte Recherche | Woche 1 | Forschungsfragen formulieren, parallele Suchen in KI-Tool und Primärdatenbank, Ergebnisse vergleichen | Suchergebnisse direkt als “vollständig” behandeln — immer Quercheck mit klassischer Datenbanksuche |
| Integration in Arbeitsalltag | Woche 2–4 | Literaturfeed einrichten, Zotero-Bibliothek strukturieren, Rayyan für systematische Projekte kennenlernen | Rückfall in alte Gewohnheiten, wenn das neue Workflow nicht zur täglichen Routine wird |
| Systematischer Review-Einsatz | Ab Monat 2 | Rayyan für größere Review-Projekte einsetzen, PRISMA-Dokumentation aufbauen | KI-Priorisierung als Screening-Ersatz missverstehen — es ist Priorisierungshilfe, kein Ersatz |
Häufige Einwände — und was dahintersteckt
“Unsere Bibliothek hat Datenbank-Lizenzen — die reichen doch.” PubMed, Scopus und Web of Science sind die Grundlage — aber sie suchen nach Stichwörtern, nicht nach Konzepten. Wer “ketogenic diet” sucht, findet Paper mit genau diesen Wörtern. Wer “low-carb metabolic intervention” sucht, findet andere. Semantic Scholar findet viele davon mit einer einzigen Frage — weil es Bedeutung versteht, nicht Buchstaben. Die Lizenzdatenbanken sind unersetzlich für reproduzierbare PRISMA-Suchen; semantische Suche ist die effiziente Ergänzung davor.
“Ich vertraue KI-Zusammenfassungen nicht — Paper muss man vollständig lesen.” Das stimmt — für die Paper, die tatsächlich zitiert werden sollen. KI-Zusammenfassungen und TLDR-Sätze sind für das Screening gedacht: schnell entscheiden, ob ein Abstract überhaupt vollständig gelesen werden soll. Ein 300-Treffer-Suchergebnis systematisch zu screenen bedeutet nicht, 300 Paper vollständig zu lesen — es bedeutet, 300 Abstracts zu lesen, um 20–30 wirklich relevante herauszufiltern. Genau dafür ist das Tool gut.
“Was, wenn das KI-Tool wichtige Paper übersieht?” Es wird Paper übersehen — das tut jede Suche. Die Frage ist: Wie viele übersieht es im Vergleich zur klassischen Stichwortsuche? Studien zeigen, dass semantische Suchen andere Paper finden als Stichwortsuchen, und eine Kombination aus beiden vollständiger ist als jede allein. Wer das beunruhigt, macht beides: Elicit-Suche und manuelle Datenbanksuche mit definierten Stichwörtern. Die Abdeckung ist dann besser, nicht schlechter.
Woran du merkst, dass das zu dir passt
- Du steckst regelmäßig viele Stunden in Literaturrecherchen, weißt aber, dass du trotzdem Paper übersiehst
- Du hast ein neues Forschungsthema und willst schnell verstehen, was der Stand der Forschung ist — ohne drei Wochen in Datenbanken zu verbringen
- Du planst einen systematischen Review und hast Respekt vor dem Screening-Aufwand
- Du publizierst regelmäßig und verlierst Zeit damit, Quellen zu verwalten und Zitierstile zu formatieren
- Du betreust mehrere Doktoranden und willst, dass sie ihre Recherchekapazität effizienter einsetzen
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Dein Fachgebiet ist stark auf nicht-englischsprachige oder nicht-digitalisierte Quellen angewiesen. Historische Archive, Handschriften, Zeitungsarchive, ältere deutschsprachige Monografien — das ist nicht der Bereich, in dem semantische Suche hilft. Hier ist klassische, kuratierte Recherche über spezialisierte Bibliotheken und Archivdatenbanken unverzichtbar.
-
Du führst Recherchen für juristische oder regulatorische Zwecke durch, die eine vollständige, dokumentierte und reproduzierbare Quellenbasis erfordern. KI-Tools können die Suche ergänzen, aber für formale Gutachten oder regulatorische Eingaben muss jede Quelle nachvollziehbar und unabhängig verifiziert sein.
-
Du hast noch keine funktionierende Literaturverwaltung. Wenn die Grundlage fehlt — ein System, in dem Paper strukturiert abgelegt und verknüpft werden — bringt ein Recherche-Tool auf einer chaotischen Basis nur schneller mehr Chaos. Zuerst Zotero einrichten, dann Elicit.
Das kannst du heute noch tun
Geh auf Semantic Scholar — kein Account nötig, keine Installation. Such nach deiner aktuellen Forschungsfrage als vollständigem Satz. Schau dir die TLDR-Zusammenfassungen der ersten zehn Treffer an. Vergleiche mental mit dem, was du in PubMed oder Scopus gefunden hättest.
Das dauert zehn Minuten und zeigt dir ohne jedes Risiko, ob dieses Werkzeug für dein Fachgebiet funktioniert.
Für den nächsten Schritt — strukturierte Extraktion und Systematisierung — hier ist ein Prompt, den du direkt mit ChatGPT oder Claude und einem Paper-Upload verwenden kannst:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Zeitersparnis systematischer Review: Nutzererfahrungen mit Elicit, dokumentiert in: Hilkenmeier et al. (2025), “Evaluating the AI Tool Elicit as a Semi-Automated Second Reviewer”, Applied Psychological Measurement. Rayyan-Webseite (Stand April 2026): “up to 90% reduction in screening time” (Anbieterangabe — unabhängige Replikation nicht verfügbar).
- PRISMA-trAIce Checklist: JMIR AI (2025). Entwicklung von Reporting-Standards für KI-assistierte systematische Reviews.
- ChatGPT Halluzinationsrate bei Literaturangaben: Stichprobe, DGI (November 2024): Von 20 Paper-Angaben 1 vollständig halluziniert, 1 mit fehlerhaften Metadaten. Quelle: Deutsche Gesellschaft für Information & Wissen, Erfahrungsbericht November 2024.
- Preise Elicit, Semantic Scholar, Zotero, Connected Papers, Rayyan: Angaben der Anbieter-Webseiten (Stand April 2026).
- Zeitaufwand Literaturrecherche 30–40 % der Forschungszeit: Wiederkehrender Befund in Umfragen zu Forschungsarbeitszeiten, u.a. consistent mit: Van Noorden, R. (2014), “Scientists and the social network”, Nature.
Du willst wissen, welche dieser Tools für dein spezifisches Fachgebiet am sinnvollsten sind und wie ein effizienter Recherche-Workflow aussieht? Meld dich — das klären wir in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Grant-Antrag Schreibassistent
KI unterstützt beim Verfassen von Drittmittelanträgen: strukturiert Projektbeschreibungen, passt Sprache an Fördergeber an und prüft Vollständigkeit.
Mehr erfahrenForschungsdaten-Auswertung mit KI
KI analysiert große Mengen Messdaten, Umfrageergebnisse oder Textkorpora und identifiziert Muster, Ausreißer und Zusammenhänge, die manuell nicht erkennbar wären.
Mehr erfahrenWissenschaftsartikel automatisch zusammenfassen
KI erstellt strukturierte Zusammenfassungen von Fachartikeln: Fragestellung, Methodik, Ergebnisse, Limitationen. Hunderte Publikationen in Stunden statt Wochen sichten.
Mehr erfahren