Zum Inhalt springen
Forschung & Entwicklung literaturrechercheforschungautomatisierung

Literaturrecherche automatisieren

KI durchsucht Datenbanken wie PubMed, Scopus und Semantic Scholar und liefert relevante Paper mit Zusammenfassungen. Spart Wochen manueller Recherche.

Worum geht's?

Es ist Donnerstag, 16:40 Uhr.

Lisa ist Doktorandin im dritten Jahr. Ihr Betreuer hat diese Woche nach dem Stand ihrer Literaturrecherche gefragt — der erste Entwurf des Related-Work-Kapitels soll in drei Wochen fertig sein. Seit Montag sitzt sie jeden Abend in PubMed und Scopus: Stichwörter eingeben, Treffer durchscrollen, Titel lesen, Abstract prüfen, Paper herunterladen, in Zotero einsortieren, nächste Seite.

700 Treffer. Davon 80 halbwegs relevant. Davon 30 wirklich wichtig. Das weiß sie jetzt, nach vier Tagen.

Einer ihrer Kollegen, der im Sommer fertig wurde, hat ihr erzählt, dass er 6 Wochen für seine erste systematische Recherche gebraucht hat. Sechs Wochen, in denen er kaum geschrieben hat — nur gesucht, gelesen, sortiert.

Dabei ist das Problem nicht die Gründlichkeit. Das Problem ist das Volumen: Allein in ihrem Teilgebiet erscheinen monatlich 400 bis 600 neue Paper. Kein Mensch kann das vollständig lesen. Und jedes Paper, das sie übersieht, ist ein potenzieller Reviewer-Kommentar: “Die Autoren sind offenbar nicht vertraut mit der Arbeit von Müller et al. 2023.”

Das echte Ausmaß des Problems

Literaturrecherche ist in der akademischen Forschung zeitlich eine der aufwändigsten Einzelaktivitäten. Laut Umfragen unter wissenschaftlichen Mitarbeitenden verbringen Forschende in datenintensiven Fächern zwischen 30 und 40 Prozent ihrer Arbeitszeit mit dem Suchen, Lesen und Einordnen von Literatur. Bei einem systematischen Review — dem Goldstandard für evidenzbasierte Forschung — beginnt das Screening typischerweise mit hunderten bis tausenden potenziell relevanter Treffer aus mehreren Datenbanken, die alle manuell gesichtet werden müssen.

Das PRISMA-Protokoll (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) ist der methodische Standard — und er ist arbeitsintensiv: Zwei unabhängige Reviewer, strukturierte Ein- und Ausschlusskriterien, dokumentierte Entscheidungen für jeden Treffer, Flussdiagramm. Eine einzige systematische Übersichtsarbeit kann 6 bis 18 Monate dauern.

Dazu kommt das Volumen: PubMed allein indiziert rund 13 Millionen Paper; in der Biologie, Medizin und Informatik erscheinen monatlich tausende neue Veröffentlichungen. Die Wahrscheinlichkeit, ein wichtiges Paper bei einer klassischen Stichwortsuche zu übersehen, steigt mit jeder Suchanfrage, die man vergisst zu formulieren.

Die Folgen eines unvollständigen Literaturüberblicks sind nicht trivial: Reviewer und Gutachter kennen das Feld und erkennen fehlende Referenzen. In Promotionsverfahren kann ein lückenhafter Forschungsstand zu Auflagen oder Nacharbeiten führen. Bei Förderanträgen bedeutet eine erkennbar unvollständige Literaturkenntnis häufig Ablehnung.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-Unterstützung
Zeit für erste Recherche (systematisch)3–6 Wochen3–7 Tage ¹
Abstract-Screening (1.000 Paper)20–30 Stunden manuell2–4 Stunden mit KI-Priorisierung
Übersehen relevanter Paper10–30 % (je nach Strategie)5–15 % (verbessert, nicht eliminiert)
Aktualität der QuellenSnapshot bei RechercheAutomatische Alerts für Neues möglich
Aufwand für Zitationsverwaltung30–60 min pro Session5 min mit Browser-Extension

¹ Zeitersparnis stark abhängig vom Fachgebiet, Datenbankzugang und Vollständigkeitsanspruch. Geisteswissenschaftliche Recherchen mit weniger standardisierten Quellen profitieren geringer. Werte basieren auf Nutzererfahrungen mit Elicit und ähnlichen Tools, keine repräsentative Studie.

Die Qualitätsverbesserung ist real, aber begrenzt: KI-Suchen finden andere Paper als Stichwortsuchen, aber sie finden nicht alles. Eine systematische Recherche nach PRISMA ersetzt kein KI-Tool — es wird ergänzt.

Einschätzung auf einen Blick

Zeitersparnis — sehr hoch (5/5) Literaturrecherche ist die Aktivität, bei der KI-Tools in der Forschung den größten direkten Zeitgewinn liefern. Was früher 3–6 Wochen dauerte, lässt sich auf 3–7 Tage reduzieren — nicht durch weniger Gründlichkeit, sondern durch bessere Priorisierung. Von allen Anwendungen in dieser Kategorie ist das die klarste und unmittelbarste Entlastung für den Forschungsalltag.

Kosteneinsparung — niedrig (2/5) Die relevanten Kosten sind Personalzeit (Doktoranden, Postdocs), und die werden tatsächlich eingespart. Aber die Tools selbst kosten kaum etwas — viele sind kostenlos oder sehr günstig. Der finanzielle Hebel entsteht indirekt: durch kürzere Promotionszeiten, mehr Paper bei gleicher Personalkapazität, schnellere Antragsbearbeitung. Das ist schwerer zu beziffern als z.B. bei der automatisierten Datenauswertung.

Schnelle Umsetzung — hoch (4/5) Kein technisches Setup nötig: Semantic Scholar, Elicit und Zotero sind sofort einsatzbereit. Innerhalb einer Woche verändert sich der Recherchearbeitsablauf messbar. Der einzige Aufwand ist das Eingewöhnen in neue Such-Strategien — statt Stichwörter formuliert man Forschungsfragen. Das dauert ein bis zwei Sitzungen.

ROI-Sicherheit — hoch (4/5) Die Zeitersparnis ist direkt und unmittelbar messbar — anders als bei komplexeren KI-Projekten. Was zehn Stunden Screening dauerte, dauert zwei Stunden. Diese Verbesserung tritt von der ersten Nutzung an ein und ist konsistent. Die einzige Unsicherheit: Ob der KI-gestützte Review die gleiche wissenschaftliche Vollständigkeit erreicht wie ein klassischer — das lässt sich nur mit Referenzvergleichen belegen.

Skalierbarkeit — hoch (4/5) Mehr Forschungsthemen, mehr Mitarbeitende, mehr Datenbanken — der Mehraufwand ist marginal. Ein Doktorand, der das System einmal verstanden hat, kann zehn Themen parallel verfolgen. Nicht ganz maximal, weil Datenbanklizenzen (Scopus, Web of Science) pro Institution lizenziert sind und sich nicht automatisch mit der Nutzung skalieren.

Richtwerte — stark abhängig von Fachgebiet, Zugangssituation zu Datenbanken und Vollständigkeitsanforderung.

Was KI-gestützte Literaturrecherche konkret macht

Klassische Literaturrecherche funktioniert so: Man formuliert Suchbegriffe, schickt sie an eine Datenbank, bekommt eine (zu lange) Trefferliste zurück, scrollt manuell durch Titel und Abstracts. Wenn man den falschen Suchbegriff wählt, findet man nichts. Wenn man zu breit sucht, ertrinkt man in Treffern.

KI-gestützte Literaturtools funktionieren anders. Statt “Welche Paper enthalten diese Stichwörter?” fragen sie: “Welche Paper beschäftigen sich mit diesem Konzept oder dieser Forschungsfrage — unabhängig davon, welche Wörter sie dafür verwenden?”

Das ist der Kern der semantischen Suche: Das System versteht die Bedeutung einer Frage, nicht nur die Wörter darin. Elicit zum Beispiel nimmt eine Forschungsfrage als Eingabe — “Welche Interventionen reduzieren Burnout bei Intensivpflegepersonal nachweislich?” — und findet Paper, die diese Frage beantworten, auch wenn sie die Wörter “Burnout” und “Intensivpflege” nicht zusammen im Titel stehen haben.

Semantic Scholar ergänzt das mit automatischen TLDR-Zusammenfassungen für jeden Treffer: Ein Satz pro Paper, der die Kernaussage auf den Punkt bringt. Bei 200 Treffern bedeutet das: 200 Sätze lesen statt 200 Abstracts.

Connected Papers löst ein anderes Problem: Es visualisiert, wie Paper miteinander verwandt sind — durch gemeinsame Zitationen, nicht durch geteilte Stichwörter. Damit findet man Arbeiten, die man mit keiner Stichwortsuche gefunden hätte, weil sie aus einem angrenzenden Fachgebiet stammen.

Systematische Reviews: PRISMA und KI

Ein systematischer Review nach PRISMA-Protokoll ist die aufwändigste Form der Literaturrecherche und gleichzeitig der Bereich, in dem KI-Tools am meisten entlasten können — beim Screening großer Treffermengen.

Rayyan ist das dafür am weitesten verbreitete Tool: Es importiert Exporte aus PubMed, Scopus und anderen Datenbanken, ermöglicht kollaboratives Screening durch mehrere Reviewer, priorisiert wahrscheinlich relevante Paper per KI-Scoring und erstellt das PRISMA-Flussdiagramm automatisch. Was früher 20 bis 30 Stunden reines Screening bedeutete, lässt sich mit Rayyan auf 5 bis 10 Stunden reduzieren — durch bessere Priorisierung, nicht durch weniger Sorgfalt.

Wichtig: KI-Screening ersetzt nicht den menschlichen Judgment-Schritt. Es priorisiert. Die Entscheidung, ob ein Paper die Einschlusskriterien erfüllt, trifft nach wie vor ein Mensch.

Konkrete Werkzeuge — was wann passt

Elicit — für Forschungsfragen-basierte Suche Elicit ist der erste Griff, wenn man ein neues Thema erkunden will. Forschungsfrage als vollständigen Satz eingeben, Elicit liefert die relevantesten Paper aus 125 Millionen Quellen, extrahiert automatisch Methoden, Stichprobengrößen und Ergebnisse. Ideal für: erste Orientierung, systematische Reviews in empirischen Fächern. Kosten: kostenlos für Basisnutzung; Plus ca. 12 USD/Monat für unbegrenzte Exporte.

Semantic Scholar — für breite Suche und Zitationsanalyse Vollständig kostenlos, keine Registrierung nötig, 200+ Millionen Paper. Die automatischen TLDR-Zusammenfassungen und die Zitationsanalyse sind besonders wertvoll. Ideal für: STEM-Felder, schnelles Screening auf Relevanz, Verfolgen von Zitationsnetzwerken. Kostenlos.

Zotero — für Literaturverwaltung Zotero ist kein Suchtools, sondern das Fundament der Literaturverwaltung. Browser-Extension für einklickiges Speichern von Paper, automatische Zitierstil-Formatierung, Word-Integration. Unverzichtbar für jeden, der regelmäßig publiziert. Kostenlos (Open Source), Cloud-Sync ab 20 USD/Jahr.

Connected Papers — für Forschungslandschaft erkunden Nischenwerkzeug für einen spezifischen Anwendungsfall: Visualisierung von Zitationsnetzwerken. Wenn man ein Schlüsselpaper kennt und verstehen will, welche anderen Arbeiten thematisch eng verwandt sind — auch aus angrenzenden Disziplinen. Kostenlos bis 5 Graphen/Monat; Academic 3 USD/Monat.

Rayyan — für systematische Reviews Speziell für PRISMA-konforme systematische Übersichtsarbeiten. Kollaboratives Screening, KI-Priorisierung, automatisches Flussdiagramm. Standard in der medizinischen und klinischen Forschung. Kostenlos bis 2 Nutzer; Pro ca. 20 USD/Monat.

scite_ — für Qualitätsbewertung von Quellen Zeigt, ob ein Paper von anderen Forschenden zustimmend oder widersprechend zitiert wurde. Für Felder mit schnell ändernder Evidenzlage unverzichtbar — damit man nicht ein inzwischen widerlegtes Paper als Grundlage zitiert. Freemium; Premium ca. 20 USD/Monat.

Zusammenfassung:

  • Neue Recherche starten → Elicit oder Semantic Scholar
  • Literatur verwalten → Zotero
  • Forschungsfeld erkunden → Connected Papers
  • Systematischer Review → Rayyan
  • Paper-Qualität prüfen → scite_

Datenschutz und Datenhaltung

Für die Literaturrecherche sind die Datenschutzanforderungen vergleichsweise gering — man arbeitet mit öffentlich zugänglichen Metadaten und Abstracts. Personenbezogene Daten spielen in diesem Schritt der Forschungsarbeit keine Rolle.

Die relevante Frage ist eher eine der institutionellen Compliance: Viele Universitäten haben Lizenzverträge mit Scopus, Web of Science oder anderen Datenbanken, die die Nutzung über API oder Third-Party-Tools einschränken können. Vor dem Einsatz von Elicit oder ähnlichen Tools, die programmatisch auf Datenbanken zugreifen, empfiehlt sich eine kurze Rückfrage bei der Bibliothek.

DSGVO-Relevanz entsteht, wenn Forschungsdaten selbst verarbeitet werden — das ist nicht bei der Literaturrecherche der Fall, aber beim nächsten Schritt (Datenerhebung und -auswertung).

Die Daten, die ihr an diese Tools schickt — eure Forschungsfragen, eure Suchanfragen — werden je nach Tool in den USA verarbeitet. Elicit, Semantic Scholar, Connected Papers und Rayyan sind US-Anbieter ohne EU-Datenhosting. Für die Metadaten wissenschaftlicher Paper ist das kein Problem. Für datenschutzsensible Inhalte (z.B. wenn ihr die Suche mit eigenen unveröffentlichten Forschungsfragen oder Hypothesen formuliert, die noch nicht publiziert sind) sollte man das im Kopf behalten.

Was es kostet — realistisch gerechnet

Einstiegskosten Für die Basisnutzung: null Euro. Semantic Scholar und Zotero sind vollständig kostenlos. Elicit hat eine kostenlose Stufe mit 5 Paper-Exporten pro Monat — für erste Tests ausreichend. Connected Papers ebenfalls kostenlos bis 5 Graphen pro Monat.

Für intensive Nutzung — systematische Reviews, große Rechercheprojekte, Teamarbeit:

  • Elicit Plus: ca. 12 USD/Monat
  • Rayyan Pro: ca. 20 USD/Monat
  • Connected Papers Academic: 3 USD/Monat
  • scite_ Premium: ca. 20 USD/Monat

Gesamte realistische Monatslizenz für eine aktiv publizierende Forschungsgruppe: unter 100 Euro. Das ist weniger als eine Stunde Forschungszeit.

Was du dagegenrechnen kannst Eine Doktorandin oder ein wissenschaftlicher Mitarbeiter kostet die Universität inklusive aller Nebenkosten 40 bis 70 Euro pro Stunde. Wenn ein systematischer Review von 4 Wochen auf 4 Tage schrumpft: Das sind 3 Wochen weniger — ca. 120 Stunden. Bei 50 Euro pro Stunde: 6.000 Euro an Personalaufwand, die für tatsächliche Forschung genutzt werden können.

Diese Rechnung gilt nicht für jeden Rechercheschritt, aber für den ersten Screening-Schritt großer systematischer Reviews ist sie realistisch.

Wie du den Nutzen misst Der einfachste Beweis: Mach dieselbe Recherche einmal klassisch mit PubMed und einmal mit Elicit — und miss die Zeit. Nicht theoretisch, sondern als direkten Vergleich an einem echten Thema. Protokolliere außerdem, wie viele Paper das KI-Tool findet, die die klassische Suche nicht gefunden hat — und umgekehrt. Das zeigt sowohl die Effizienzgewinne als auch die Lücken.

Drei typische Einstiegsfehler

1. Das KI-Tool als Ersatz für die Primärdatenbank behandeln. Elicit, Semantic Scholar und Co. sind leistungsstark — aber sie ersetzen nicht den direkten Datenbankzugang. Nicht jede Datenbank ist vollständig indexiert, aktuelle Preprints fehlen manchmal, und Conference Papers tauchen unzuverlässig auf. Für einen publizierbaren systematischen Review muss die Suche in den primären Datenbanken (PubMed, Scopus, Web of Science, Cochrane) dokumentiert und reproduzierbar sein — das lässt sich mit KI-Tools nicht ersetzen, sondern nur ergänzen. Wer einen PRISMA-konformen Review veröffentlichen will, muss das in der Methodik transparent machen.

2. Auf die erste Suchanfrage vertrauen. KI-Suchen sind besser als Stichwortsuchen — aber sie sind nicht vollständig. Eine gute Suchstrategie kombiniert mehrere Frageformulierungen (Synonyme, verschiedene Perspektiven), verschiedene Tools und explizite Rückwärtssuchen: Welche Paper zitieren die wichtigsten gefundenen Arbeiten? Welche werden von ihnen zitiert? Wer eine Recherche nach dem ersten Elicit-Lauf für abgeschlossen hält, hat mit hoher Wahrscheinlichkeit relevante Arbeiten übersehen.

3. Literaturverwaltung als Nachgedanken behandeln — und sechs Monate später suchen, woher ein Zitat kam. Das passiert fast jedem, dem niemand früh genug von Zotero erzählt hat: Man liest hunderte Paper ohne systematische Verwaltung, zitiert fleißig in eigenen Texten — und wenn der Betreuer nach der Quelle fragt, ist die Suche nach der genauen Seite Zeitverschwendung. Zotero von der ersten Recherche an nutzen, Browser-Extension aktivieren, jedes Paper beim Lesen sofort speichern. Das ist kein schönes Extra, sondern die Grundbedingung für wissenschaftlich sauberes Arbeiten. Wer nach der Promotionszeit zurückblickt, sagt: Dieser eine Tipp war mehr wert als alles andere.

Was mit der Einführung wirklich passiert — und was nicht

Die erste Begegnung mit Semantic Scholar oder Elicit erzeugt oft einen kurzen Schockmoment: Das findet so viel? So schnell? Was haben wir bisher falsch gemacht?

Nichts. Der klassische Weg hat Jahrzehnte gut funktioniert — er ist nur langsamer als das, was jetzt möglich ist.

Was danach passiert, hängt stark vom Fachgebiet und der Forschungskultur ab:

In empirisch-naturwissenschaftlichen Fächern ist die Adaption meist reibungslos: Die Toollandschaft (PubMed, Semantic Scholar, Elicit) ist auf diese Felder ausgerichtet, die Paper-Struktur ist standardisiert, und die Zeitersparnis beim Screening ist sofort spürbar.

In Geistes- und Sozialwissenschaften ist Vorsicht angebracht: Hier sind die Quellen weniger standardisiert (Monografien, nicht-englischsprachige Paper, Konferenzprozeedingsbände), Datenbanken weniger vollständig, und die semantische Suche trifft das Thema weniger zuverlässig. Diese Tools helfen — aber weniger dramtisch als in der Biomedizin.

Betreuer und Promotionsausschüsse reagieren unterschiedlich auf KI-gestützte Recherchen. Einige sind neugierig und offen, andere erwarten den klassischen Nachweis der Datenbanksuche. Empfehlung: Recherchestrategien und verwendete Tools transparent in der Methodik dokumentieren — das schützt vor Rückfragen und ist methodisch ohnehin korrekt.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Tool-Auswahl und EinführungTag 1–2Semantic Scholar und Zotero ausprobieren, Browser-Extension installieren, erste TestsuchanfragenZu viele Tools gleichzeitig — Fokus auf 1–2 und diese wirklich beherrschen
Erste echte RechercheWoche 1Forschungsfragen formulieren, parallele Suchen in KI-Tool und Primärdatenbank, Ergebnisse vergleichenSuchergebnisse direkt als “vollständig” behandeln — immer Quercheck mit klassischer Datenbanksuche
Integration in ArbeitsalltagWoche 2–4Literaturfeed einrichten, Zotero-Bibliothek strukturieren, Rayyan für systematische Projekte kennenlernenRückfall in alte Gewohnheiten, wenn das neue Workflow nicht zur täglichen Routine wird
Systematischer Review-EinsatzAb Monat 2Rayyan für größere Review-Projekte einsetzen, PRISMA-Dokumentation aufbauenKI-Priorisierung als Screening-Ersatz missverstehen — es ist Priorisierungshilfe, kein Ersatz

Häufige Einwände — und was dahintersteckt

“Unsere Bibliothek hat Datenbank-Lizenzen — die reichen doch.” PubMed, Scopus und Web of Science sind die Grundlage — aber sie suchen nach Stichwörtern, nicht nach Konzepten. Wer “ketogenic diet” sucht, findet Paper mit genau diesen Wörtern. Wer “low-carb metabolic intervention” sucht, findet andere. Semantic Scholar findet viele davon mit einer einzigen Frage — weil es Bedeutung versteht, nicht Buchstaben. Die Lizenzdatenbanken sind unersetzlich für reproduzierbare PRISMA-Suchen; semantische Suche ist die effiziente Ergänzung davor.

“Ich vertraue KI-Zusammenfassungen nicht — Paper muss man vollständig lesen.” Das stimmt — für die Paper, die tatsächlich zitiert werden sollen. KI-Zusammenfassungen und TLDR-Sätze sind für das Screening gedacht: schnell entscheiden, ob ein Abstract überhaupt vollständig gelesen werden soll. Ein 300-Treffer-Suchergebnis systematisch zu screenen bedeutet nicht, 300 Paper vollständig zu lesen — es bedeutet, 300 Abstracts zu lesen, um 20–30 wirklich relevante herauszufiltern. Genau dafür ist das Tool gut.

“Was, wenn das KI-Tool wichtige Paper übersieht?” Es wird Paper übersehen — das tut jede Suche. Die Frage ist: Wie viele übersieht es im Vergleich zur klassischen Stichwortsuche? Studien zeigen, dass semantische Suchen andere Paper finden als Stichwortsuchen, und eine Kombination aus beiden vollständiger ist als jede allein. Wer das beunruhigt, macht beides: Elicit-Suche und manuelle Datenbanksuche mit definierten Stichwörtern. Die Abdeckung ist dann besser, nicht schlechter.

Woran du merkst, dass das zu dir passt

  • Du steckst regelmäßig viele Stunden in Literaturrecherchen, weißt aber, dass du trotzdem Paper übersiehst
  • Du hast ein neues Forschungsthema und willst schnell verstehen, was der Stand der Forschung ist — ohne drei Wochen in Datenbanken zu verbringen
  • Du planst einen systematischen Review und hast Respekt vor dem Screening-Aufwand
  • Du publizierst regelmäßig und verlierst Zeit damit, Quellen zu verwalten und Zitierstile zu formatieren
  • Du betreust mehrere Doktoranden und willst, dass sie ihre Recherchekapazität effizienter einsetzen

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Dein Fachgebiet ist stark auf nicht-englischsprachige oder nicht-digitalisierte Quellen angewiesen. Historische Archive, Handschriften, Zeitungsarchive, ältere deutschsprachige Monografien — das ist nicht der Bereich, in dem semantische Suche hilft. Hier ist klassische, kuratierte Recherche über spezialisierte Bibliotheken und Archivdatenbanken unverzichtbar.

  2. Du führst Recherchen für juristische oder regulatorische Zwecke durch, die eine vollständige, dokumentierte und reproduzierbare Quellenbasis erfordern. KI-Tools können die Suche ergänzen, aber für formale Gutachten oder regulatorische Eingaben muss jede Quelle nachvollziehbar und unabhängig verifiziert sein.

  3. Du hast noch keine funktionierende Literaturverwaltung. Wenn die Grundlage fehlt — ein System, in dem Paper strukturiert abgelegt und verknüpft werden — bringt ein Recherche-Tool auf einer chaotischen Basis nur schneller mehr Chaos. Zuerst Zotero einrichten, dann Elicit.

Das kannst du heute noch tun

Geh auf Semantic Scholar — kein Account nötig, keine Installation. Such nach deiner aktuellen Forschungsfrage als vollständigem Satz. Schau dir die TLDR-Zusammenfassungen der ersten zehn Treffer an. Vergleiche mental mit dem, was du in PubMed oder Scopus gefunden hättest.

Das dauert zehn Minuten und zeigt dir ohne jedes Risiko, ob dieses Werkzeug für dein Fachgebiet funktioniert.

Für den nächsten Schritt — strukturierte Extraktion und Systematisierung — hier ist ein Prompt, den du direkt mit ChatGPT oder Claude und einem Paper-Upload verwenden kannst:

Schnell-Analyse für eingereichte Paper
Du bist ein Forschungsassistent für wissenschaftliche Literaturrecherche. Analysiere das beigefügte Paper und beantworte die folgenden Fragen präzise: 1. **Forschungsfrage:** Was ist die zentrale Frage oder Hypothese der Studie? 2. **Studiendesign:** Welches methodische Vorgehen wurde gewählt? (RCT, Querschnittsstudie, Meta-Analyse, etc.) 3. **Stichprobe:** Wie groß ist die Stichprobe? Welche Population wird untersucht? 4. **Hauptergebnisse:** Was sind die 2–3 zentralen Befunde? 5. **Einschränkungen:** Welche Limitationen nennen die Autoren selbst? 6. **Relevanz für [MEIN FORSCHUNGSTHEMA]:** Inwiefern ist diese Studie relevant? Welche spezifischen Argumente oder Daten kann ich zitieren? Antworte in Stichpunkten, maximal 3 Sätze pro Punkt. Erfinde keine Angaben — wenn etwas nicht im Paper steht, schreibe "nicht angegeben".
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

[Paper zu Auswirkungen von Remote Work auf die Produktivität hochladen] — Forschungsthema: hybride Arbeitsmodelle in der Wissenschaft

KI-Assistent

1. **Forschungsfrage:** Wie verändert vollständiges Remote Work die Forschungsproduktivität gemessen an Publikationsoutput und Kollaborationsintensität? 2. **Studiendesign:** Längsschnittuntersuchung mit administrativen Daten (Publikationsdatenbank + HR-Daten), kein experimentelles Design. 3. **Stichprobe:** 1.847 Forschende an 12 deutschen Universitäten, Beobachtungszeitraum 2019–2022. 4. **Hauptergebnisse:** - Remote Work während COVID-19 steigerte individuelle Publikationsrate um 8 % (Sologewinn) - Co-Autorschaften mit institutionsfremden Partnern sanken um 23 % - Nachwuchsforschende (weniger als 5 Jahre nach Promotion) zeigten stärkere negative Effekte auf Kollaboration 5. **Einschränkungen:** Kausale Interpretation begrenzt (kein Randomisierungsdesign); Confounder COVID-Stress nicht vollständig kontrolliert; nur Quantitätsmessung, keine Qualitätsmessung. 6. **Relevanz für hybride Arbeitsmodelle:** Direkt zitierfähig für Abschnitt zu Kompromissen zwischen Einzelproduktivität und kollaborativer Forschung. Spezifisch: Tabelle 3 (Pub-Rate nach Karrierestufe) und Abbildung 2 (Kollaborationsrückgang nach Fachgebiet).

Quellen & Methodik

  • Zeitersparnis systematischer Review: Nutzererfahrungen mit Elicit, dokumentiert in: Hilkenmeier et al. (2025), “Evaluating the AI Tool Elicit as a Semi-Automated Second Reviewer”, Applied Psychological Measurement. Rayyan-Webseite (Stand April 2026): “up to 90% reduction in screening time” (Anbieterangabe — unabhängige Replikation nicht verfügbar).
  • PRISMA-trAIce Checklist: JMIR AI (2025). Entwicklung von Reporting-Standards für KI-assistierte systematische Reviews.
  • ChatGPT Halluzinationsrate bei Literaturangaben: Stichprobe, DGI (November 2024): Von 20 Paper-Angaben 1 vollständig halluziniert, 1 mit fehlerhaften Metadaten. Quelle: Deutsche Gesellschaft für Information & Wissen, Erfahrungsbericht November 2024.
  • Preise Elicit, Semantic Scholar, Zotero, Connected Papers, Rayyan: Angaben der Anbieter-Webseiten (Stand April 2026).
  • Zeitaufwand Literaturrecherche 30–40 % der Forschungszeit: Wiederkehrender Befund in Umfragen zu Forschungsarbeitszeiten, u.a. consistent mit: Van Noorden, R. (2014), “Scientists and the social network”, Nature.

Du willst wissen, welche dieser Tools für dein spezifisches Fachgebiet am sinnvollsten sind und wie ein effizienter Recherche-Workflow aussieht? Meld dich — das klären wir in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar