Grant-Antrag Schreibassistent
KI unterstützt beim Verfassen von Drittmittelanträgen: strukturiert Projektbeschreibungen, passt Sprache an Fördergeber an und prüft Vollständigkeit.
Es ist Freitag, 22:15 Uhr.
Jonas ist Juniorprofessor und sitzt seit drei Stunden vor dem Abstract seines DFG-Sachmittelantrags. Der Antrag ist an sich gut — das Forschungsdesign ist solide, die Vorarbeiten stimmen, das Thema ist aktuell. Aber der Abstract ist seit vier Überarbeitungen nicht besser geworden. Er klingt entweder zu technisch (für das fachfremde Mitglied im Gutachterausschuss) oder zu vage (für die Spezialisten, die er überzeugen muss).
Der Abgabetermin ist in zehn Tagen. Er hat noch Abschnitt 3 (Arbeitsprogramm), Abschnitt 4 (Ressourcenplanung) und den Ethikanteil vor sich. Dazu: Eine EU-Projektleiterin einer Partneruniversität wartet auf seine Version des Impact-Abschnitts für einen Horizon-Antrag, den er vor sechs Wochen zugesagt hat, zu koordinieren.
Er weiß, dass er das schafft. Er hat schon schwierigere Anträge geschrieben. Aber er weiß auch, dass der DFG-Antrag im letzten Jahr abgelehnt wurde — mit dem Kommentar “mangelnde Fokussierung der Fragestellung”. Derselbe Fehler soll sich nicht wiederholen. Und er ist sich nicht sicher, ob er ihn gerade wieder macht.
Das echte Ausmaß des Problems
Ein vollständiger DFG-Einzelantrag (Sachbeihilfe) kostet durchschnittlich 150 bis 400 Stunden Arbeitszeit — von der ersten Idee bis zur eingereichten Fassung. Ein EU-Horizon-Antrag liegt mit 300 bis 600 Stunden noch deutlich höher, weil die Anforderungen an Impact-Beschreibung, Budget-Justifikation und Konsortium-Management umfangreicher sind.
Die DFG-Erfolgsquoten variieren stark nach Programm und Fachgebiet, liegen aber typischerweise zwischen 20 und 40 Prozent — in manchen Programmen und Jahren auch deutlich darunter. Horizon Europe liegt je nach Call bei 5 bis 12 Prozent Erfolgsquote. Das bedeutet: Für jede bewilligte Förderung gibt es drei bis zwanzig abgelehnte Anträge, in die dieselbe Arbeitszeit geflossen ist.
Die Gründe für Ablehnung sind dokumentiert: Gutachter bemängeln häufig eine unklare Fragestellung, mangelnde Differenzierung zum Stand der Forschung, unklare Methodik oder einen zu vagen Bezug zu Förderprioritäten. Viele dieser Probleme sind kein Erkenntnisproblem — Forscher wissen, was sie untersuchen wollen — sondern ein Kommunikationsproblem: die Idee für fachfremde Gutachter verständlich und überzeugend zu formulieren.
Hinzu kommt: Erfahrene Antragsschreibende, die genau wissen, wie man eine DFG-Sprache spricht oder was ein Horizon-Gutachter erwartet, sind rar. Juniorprofessoren und Postdocs mit ihrer ersten eigenen Antragstellung haben diese institutionelle Erfahrung noch nicht — sie müssen sie durch teure Fehler erst aufbauen.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit KI-Unterstützung |
|---|---|---|
| Zeit für ersten Antragsentwurf | 80–150 Stunden | 40–80 Stunden ¹ |
| Überarbeitungsrunden für Abstract | 5–10 typisch | 2–4 typisch |
| Vollständigkeit der Pflichtangaben | Abhängig von Erfahrung | Systematische Checkliste möglich |
| Anpassung an verschiedene Fördergeber | Hoher Mehraufwand | 30–50 % weniger bei Zweitanträgen |
| Qualität der Sprache | Gut für Fachpublikum, ggf. zu technisch für Laien | Explizit auf Zielgruppe kalibrierbar |
¹ Zeitersparnis variiert stark — stark von Erfahrung des Antragstellenden, Komplexität des Projekts und wie gut der KI-Kontext vorbereitet wird. Kein Antrag schreibt sich von selbst. Die KI kann keinen Inhalt erfinden — sie hilft beim Formulieren und Strukturieren von Ideen, die schon vorhanden sind.
KI-Unterstützung erhöht die Erfolgsquote nicht zwangsläufig. Eine Studie unter US-amerikanischen Bundesförderern (NSF, NIH, DoD) aus 2023/2024 ergab, dass über 64 Prozent der als KI-generiert identifizierten Anträge die erste Bewertungsrunde nicht bestanden — weil der Inhalt generisch wirkte und die Spezifität fehlte. Das Risiko besteht. KI ist kein Abkürzung zum Erfolg.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) KI entlastet beim Schreiben und Strukturieren — aber ein Förderantrag ist kein Dokument, das sich in Stunden erledigen lässt. Der größte Anteil der Zeit geht in inhaltliche Arbeit: Recherche, Konzeption, Argumentation. Diese Arbeit nimmt kein Tool ab. Was KI tatsächlich beschleunigt: erste Entwürfe von Abschnitten, Formulierungsalternativen für schwierige Übergänge, Überprüfung auf Vollständigkeit und Konsistenz. Gemessen am Gesamtaufwand ist das eine echte, aber begrenzte Entlastung — weniger als bei der Literaturrecherche, wo die Zeitersparnis dramatischer ist.
Kosteneinsparung — niedrig (2/5) Drittmittelgewinnung hat einen direkten finanziellen Wert — ein bewilligter ERC-Grant kann 1,5–2 Millionen Euro bringen. Aber der Kausalanteil der KI an einem erfolgreichen Antrag lässt sich nicht isolieren. Der Antrag wurde von einem Forscher mit Ideen, Vorarbeiten und Expertise geschrieben, der KI als Werkzeug eingesetzt hat. Die Kosten für die Tools sind gering (20–50 Euro/Monat), aber die Einsparung ist nicht direkt sichtbar.
Schnelle Umsetzung — mittel (3/5) Man kann ChatGPT oder Claude morgen für den nächsten Antrag einsetzen. Aber wer es wirklich gut einsetzen will — mit fördergeber-spezifischem Kontext, angepassten Prompts und systematischer Vollständigkeitsprüfung — braucht 2–4 Wochen, um einen nützlichen Workflow zu entwickeln. Das ist kein technisches Hindernis, sondern Lernaufwand.
ROI-Sicherheit — niedrig (2/5) Das ist die größte Schwäche dieses Anwendungsfalls: Ob der KI-gestützte Antrag Erfolg hat, hängt von dutzenden anderen Faktoren ab — Stärke der Forschungsidee, Passung zum aktuellen Förderschwerpunkt, Qualität der Gutachter, Budget des Fördergebers. Ein KI-Tool verbessert die Qualität der Kommunikation, nicht die Qualität der Idee. Und Gutachter bemerken generische Formulierungen. Der ROI ist real, aber mit hoher Varianz — und von diesem Anwendungsfall unter den dreien am schwersten messbar.
Skalierbarkeit — mittel (3/5) Wenn ein Workflow für DFG-Anträge einmal steht, lässt er sich auf weitere DFG-Anträge übertragen. Aber jeder Fördergeber hat andere Anforderungen: Horizon Europe verlangt andere Strukturen als DFG, BMBF wieder andere, NIH oder Wellcome Trust eigene Konventionen. Für jeden Fördergeber muss der KI-Kontext neu aufgebaut werden. Das skaliert — aber nicht automatisch.
Richtwerte — stark abhängig von Erfahrung des Antragstellers, Komplexität des Projekts und Fördergeber.
Was KI beim Antragsschreiben konkret macht
Ein LLM erfindet keinen guten Forschungsantrag. Es macht etwas anderes — und das ist nützlich:
Erste Entwürfe auf Basis von Stichpunkten. Wenn du weißt, was du sagen willst, aber nicht, wie du es für fachfremde Gutachter verständlich formulieren kannst: KI formuliert. Du gibst die Idee, die Kernargumente, die Zielgruppe an — das Modell liefert einen ersten Entwurf, den du dann fachlich korrekt machst und inhaltlich schärfst. Das ist kein Schreiben auf Befehl, sondern strukturiertes Iterieren.
Konsistenzprüfung. Förderanträge werden über Wochen in Teilen geschrieben — und dabei schleichen sich Inkonsistenzen ein. Das Arbeitsprogramm erwähnt drei Phasen, die Ressourcenplanung rechnet mit zwei. Die Forschungsfrage in der Zusammenfassung klingt anders als im Methodikteil. KI liest den gesamten Entwurf und findet diese Brüche — wenn man sie explizit danach fragt.
Gutachter-Perspektive einnehmen. Ein fachfremder Gutachter liest deinen Abstract anders als du. Ein Prompt wie “Lies diesen Abstract als kritischer Gutachter mit Blick auf Klarheit der Fragestellung und Abgrenzung zum Stand der Forschung” liefert überraschend treffende Kritik — weil das Modell auf tausenden Texten trainiert wurde, die beschreiben, was gute wissenschaftliche Argumentation ausmacht.
Vollständigkeitsprüfung. DFG-Formulare haben spezifische Anforderungen: Eigene Vorarbeiten, Einbettung in den internationalen Forschungsstand, Zeitplan, Ressourcenbegründung. Wenn man den Leitfaden und den Entwurf gleichzeitig eingibt, kann die KI prüfen, was fehlt oder unvollständig ist.
Was KI nicht macht
KI erfindet keine Forschungsidee. Es kann keine spezifischen Vorarbeiten vortäuschen, die nicht vorhanden sind. Es kennt nicht die ungeschriebenen Erwartungen eines DFG-Fachkollegiums, eines bestimmten Gutachters oder eines laufenden Förderschwerpunkts. Und es schreibt nicht “wie jemand, der wirklich forscht, wenn man die KI-Sprache nicht korrigiert”.
Der häufigste Fehler bei KI-gestützten Anträgen ist, KI-Formulierungen unkorrigiert zu übernehmen. Sie klingen richtig, sind aber oft zu allgemein, zu glatt, ohne die spezifischen Details, die einen Gutachter überzeugen. Jeder Satz aus KI braucht Prüfung auf: Stimmt das konkret für unser Projekt? Oder klingt das nur plausibel?
Konkrete Werkzeuge — was wann passt
Claude — für lange Dokumente und strukturiertes Durcharbeiten Claude hat ein besonders großes Kontextfenster und lässt sich sehr gut mit langen Dokumenten (Förderleitfaden + Antragsentwurf gleichzeitig) einsetzen. Ideal für Konsistenzprüfungen über mehrere Abschnitte hinweg und für das Einarbeiten von Förderleitfäden als Kontext. Pro ca. 20 USD/Monat.
ChatGPT — für iteratives Formulieren GPT-4 ist sehr gut für schnelle Formulierungsiterationen: “Formuliere diesen Abstract für ein fachfremdes Publikum um”, “Schreib drei Alternativen für diesen Einleitungssatz”. Die Projects-Funktion ermöglicht persistenten Kontext innerhalb eines Antrags. Pro ca. 20 USD/Monat.
Perplexity — für aktuellen Forschungsstand und Förderprioritäten Perplexity eignet sich gut für schnelle Recherchen: Welche Schwerpunkte hat die DFG in diesem Fachkollegium in den letzten drei Jahren gefördert? Was sind aktuelle Horizon-Calls in meinem Feld? Perplexity sucht in Echtzeit und gibt Quellen an. Freemium; Pro ca. 20 USD/Monat.
Zotero — für Literaturverwaltung im Antrag Nicht direkt ein Schreibassistent, aber unverzichtbar: Zitationen im Antrag effizient verwalten, Zitierstil auf DFG-Anforderungen anpassen, Literaturverzeichnis automatisch formatieren.
Zusammenfassung: Wann welcher Ansatz
- Langer Antrag mit viel Kontext → Claude
- Formulierungen iterieren → ChatGPT
- Forschungsstand und Förderprioritäten recherchieren → Perplexity
- Literaturverwaltung und Zitation → Zotero
Datenschutz und Datenhaltung
Förderanträge enthalten sensible Informationen: unveröffentlichte Forschungsideen, Projektkonzepte, Personalplanungen, Budgetüberlegungen. Das sind Informationen, die vor der Einreichung vertraulich bleiben müssen — aus wissenschaftlichen Gründen (Prioritätssicherung) und ggf. aus vertraglichen Gründen (Kooperationsvereinbarungen).
Die wichtigste Regel: Keine unveröffentlichten Forschungsideen oder konzeptionellen Kern-Hypothesen in US-amerikanische Cloud-Dienste hochladen, ohne die Datenschutzrichtlinien des Anbieters zu kennen.
Bei ChatGPT: Standardmäßig kann OpenAI Eingaben für Trainingsverbesserungen nutzen — das lässt sich in den Einstellungen unter “Data Controls” deaktivieren. Bei Claude: Anthropic nutzt Chateingaben nicht für Training (für Nutzer mit kostenpflichtigen Plänen). Beide Anbieter bieten Enterprise-Verträge mit strengeren Vertraulichkeitszusagen an.
Empfehlung für besonders sensible Antragsbestandteile: Die wirklich vertraulichen Teile — Kernhypothesen, noch nicht publizierte Vorarbeitsdaten — entweder in abstrahierter Form einbringen (“das Modell analysiert X”, ohne Details zu X zu nennen) oder das System lokal nutzen (Ollama mit LLM-Modell auf eigenem Rechner). Das ist technischer Mehraufwand, aber bei Horizon-Projekten mit Konsortialpartnern oder vertraglichen Vertraulichkeitspflichten möglicherweise notwendig.
Die DFG verlangt keine Offenlegung, ob KI für Grammatik- und Stilprüfung eingesetzt wurde. Wenn KI inhaltlich zur Textgestaltung beigetragen hat — also Formulierungen oder Strukturierungen — ist das zu deklarieren, laut DFG-Richtlinien von September 2023. Konkret: Eine kurze Fußnote oder ein Satz im Antrag ist ausreichend.
Was es kostet — realistisch gerechnet
Tool-Kosten
- ChatGPT Plus: 20 USD/Monat (~18 Euro)
- Claude Pro: 20 USD/Monat (~18 Euro)
- Perplexity Pro: 20 USD/Monat (~18 Euro)
Realistischer Monatsbedarf für eine aktiv antragsschreibende Person: 20–40 Euro — für ein oder zwei Tools. Kein signifikanter Budgetposten.
Zeitinvestition Den Schreib-Workflow aufzubauen — gute Prompts zu entwickeln, Leitfäden als Kontext aufzubereiten, eine Systematik für die Vollständigkeitsprüfung zu etablieren — dauert 2–4 Wochen und einen bis zwei Anträge. Danach amortisiert sich die Investition bei jedem weiteren Antrag.
Was du dagegenrechnen kannst 150 Stunden für einen DFG-Antrag, davon 30 % auf formale Schreib- und Strukturierungsarbeit (nicht inhaltliche Arbeit): das sind 45 Stunden pro Antrag, die sich durch KI-Unterstützung auf 20–25 Stunden reduzieren könnten. Bei fünf Anträgen pro Jahr: 100–125 Stunden eingespart — das entspricht mehreren Wochen, die für Forschung und Publikationen genutzt werden können.
Wie misst man das? Am einfachsten: Zeit pro Abschnitt beim nächsten Antrag protokollieren. Dann beim übernächsten dasselbe, mit KI-Unterstützung. Wer nicht trackt, kann den Unterschied nicht belegen.
Drei typische Einstiegsfehler
1. KI-Formulierungen unkorrigiert einreichen. Das ist der mit Abstand häufigste und schädlichste Fehler. KI-Text klingt korrekt und flüssig — aber Gutachter erkennen generische Formulierungen. “Die vorgeschlagene Forschung verspricht bedeutende Erkenntnisse für das Feld” ist eine Floskel, die kein überzeugter Gutachter je geschrieben hätte. Jede KI-Formulierung muss auf Spezifität geprüft werden: Welche konkreten Erkenntnisse? Für welches konkrete Problem? Wenn die Antwort “das ist noch vage” ist, war es keine KI-Frage, sondern eine inhaltliche Frage.
2. Den KI-Schreibassistenten für den kreativen Schritt nutzen statt für den handwerklichen. KI kann gut strukturieren, formulieren und prüfen — aber die Forschungsidee, die Hypothese, die Originalität des Projekts: Das muss der Forscher selbst einbringen. Wer hofft, dass das Modell aus einem vagen Thema einen überzeugenden Antrag macht, wird enttäuscht sein. Die sinnvolle Nutzung ist umgekehrt: Zuerst selbst schreiben, auch wenn es holprig klingt — dann KI für Überarbeitung, Konsistenzprüfung und Formulierungsalternativen einsetzen.
3. Denselben Kontext für verschiedene Fördergeber verwenden. DFG und EU Horizon haben grundlegend verschiedene Bewertungskriterien, Terminologien und Prioritäten. Was für die DFG gut klingt (“Grundlagenforschung mit langfristiger wissenschaftlicher Relevanz”), klingt für Horizon oft zu defensiv (dort wird erwartet: “transformativer Impact auf europäische Gesellschaft und Wirtschaft”). Ein Prompt oder ein Antragsentwurf, der für einen Fördergeber entwickelt wurde, passt nicht automatisch für den anderen. Jeder Fördergeber braucht eine eigene Vorbereitung des KI-Kontexts.
Was mit der Einführung wirklich passiert — und was nicht
Die meisten Forschenden, die KI für Antragsschreiben ausprobieren, berichten von zwei Phasen: In der ersten Woche ist die Enttäuschung groß — das Modell produziert generisches, wenig überzeugendes Material. In den darauffolgenden Wochen entsteht Begeisterung — wenn man verstanden hat, wie man guten Kontext liefert, konkrete Aufgaben stellt und das Ergebnis sorgfältig überarbeitet.
Der Wendepunkt liegt typischerweise bei der Erkenntnis: “Die KI ist nicht gut im Erfinden. Sie ist gut im Formulieren, wenn ich ihr sage, was ich sagen will.” Wer die Erwartung umdreht — KI als Sekretär statt als Autor — kommt deutlich besser zurecht.
Für Forschungsgruppen: Es macht Sinn, Prompt-Bibliotheken und Antrags-Templates kollaborativ zu pflegen. Wer für einen DFG-Antrag einen nützlichen “Forschungsstand-Übersicht”-Prompt entwickelt hat, spart Kolleginnen und Kollegen dieselbe Einarbeitungszeit. Diese kollektive Akkumulation von Schreib-Know-how ist oft wertvoller als das einzelne Tool.
Konkrete Empfehlungen:
- Beim ersten Antrag 2–3 Stunden in Prompt-Entwicklung investieren — dieser Aufwand ist eine Investition, keine Zeitverschwendung
- Jede Überarbeitung eines KI-Entwurfs dokumentieren: Welche Formulierungen wurden verworfen? Warum? Das schärft das Gespür dafür, was wirklich funktioniert
- Nie einen Abschnitt einreichen, den man nicht vollständig inhaltlich versteht und verteidigen kann
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Ersteinrichtung und Prompt-Entwicklung | Woche 1 | Förderleitfaden einarbeiten, erste Prompt-Tests, Stärken und Grenzen des Tools einschätzen | Unrealistische Erwartungen — wenn die ersten Outputs generisch sind, ist das kein Systemfehler sondern fehlender Kontext |
| Erster KI-unterstützter Antrag | Wochen 2–6 | Entwürfe mit KI-Unterstützung schreiben, Formulierungen iterieren, Vollständigkeitsprüfung | KI-Text unkorrigiert einreichen — immer alles sorgfältig überarbeiten und fachlich prüfen |
| Routine-Workflow etablieren | Ab Antrag 2 | Prompt-Bibliothek aufbauen, effiziente Arbeitsteilung: Stichpunkte → KI → Überarbeitung | Zeitersparnis von Antrag zu Antrag sinkt ohne aktive Weiterentwicklung der Prompts |
| Gruppen-Workflow | Ab Monat 3 | Templates und Prompts mit Forschungsgruppe teilen | Qualitätskontrolle sinkt, wenn Templates ohne Anpassung übernommen werden |
Häufige Einwände — und was dahintersteckt
“Gutachter erkennen KI-Text — das macht unseren Antrag schlechter.” Das Risiko ist real — aber es betrifft unreflektiert übernommene KI-Formulierungen, nicht KI-unterstütztes Schreiben. Ein Antrag, in dem KI für erste Entwürfe genutzt, dann aber sorgfältig überarbeitet und mit spezifischen Inhalten gefüllt wurde, ist von einem klassisch geschriebenen Antrag nicht zu unterscheiden. Die Gefahr liegt nicht im Werkzeug, sondern im nachlässigen Umgang damit.
“Ich schreibe meine Anträge selbst — das ist Teil der wissenschaftlichen Integrität.” Das ist eine legitime Position — und sie bleibt vollständig verträglich mit KI-Nutzung für Teilaufgaben. Ein Grafiker, der eine Abbildung in InDesign erstellt, schreibt sie trotzdem selbst. Rechtschreibkorrektur, Stilprüfung, Strukturierungsvorschläge — diese Unterstützung haben Forschende immer von Kolleginnen, Kollegas, Schreibzentren und Sekretariaten erhalten. KI ist eine weitere Form solcher Unterstützung. Entscheidend ist, dass der inhaltliche Kern und die wissenschaftliche Substanz vollständig vom Antragsteller stammen.
“Die Erfolgsquote wird dadurch doch nicht besser.” Direkt nicht — und das sollte man nicht versprechen. Was besser wird: Die Qualität der Kommunikation, nicht die Qualität der Idee. Wenn dein Antrag bisher an “mangelnder Fokussierung” oder “unklar formulierter Fragestellung” gescheitert ist, kann das konkret helfen. Wenn das Problem die Stärke der Forschungsidee oder die strategische Passung zum Förderschwerpunkt ist, hilft es weniger.
Woran du merkst, dass das zu dir passt
- Du schreibst regelmäßig Förderanträge und verbringst erhebliche Zeit mit Formulierungsarbeit, nicht mit inhaltlicher Entwicklung
- Du hast in der Vergangenheit Gutachter-Feedback wie “unklare Fragestellung”, “fehlende Fokussierung” oder “sprachlich zu komplex” erhalten
- Du koordinierst Konsortialanträge, bei denen Beiträge verschiedener Partner stilistisch und strukturell angeglichen werden müssen
- Du betreust Nachwuchswissenschaftler bei ihren ersten eigenen Anträgen und willst ihnen ein strukturiertes Werkzeug mitgeben
- Du hast mehrere Anträge gleichzeitig in Vorbereitung und brauchst Wege, den Aufwand pro Antrag zu reduzieren
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Du bist noch nicht klar, was du eigentlich beantragen willst. KI kann keine Forschungsidee entwickeln. Wer ohne klares Projektziel zu KI greift, bekommt Fließtext ohne Substanz — nicht einen überzeugenden Antrag. Die inhaltliche Vorbereitung (Fragestellung, Methodik, Vorarbeiten) muss vollständig sein, bevor KI beim Schreiben hilft.
-
Dein Fördergeber hat spezifische formale Anforderungen, die du noch nicht kennst. KI kennt DFG-Formulare nicht automatisch, Horizon-Antragslogik nicht automatisch, BMBF-Prioritäten nicht automatisch. Wer das Formular und die Förderleitlinien nicht sorgfältig eingearbeitet hat, bekommt KI-Text, der auf einem anderen Format optimiert ist. Erst den Leitfaden gründlich lesen — dann KI als Schreibhilfe nutzen.
-
Du schreibst für ein Förderprogramm, das explizit KI-Nutzung untersagt oder einschränkt. Prüfe immer die aktuellen Richtlinien des jeweiligen Fördergebers. Die DFG verlangt aktuell Offenlegung bei inhaltlichem KI-Einsatz; einzelne Förderausschreibungen können strengere Anforderungen stellen.
Das kannst du heute noch tun
Nimm einen Abschnitt aus einem aktuellen oder geplanten Antrag — am besten den Abstract oder die Projektbeschreibung — und stelle Claude oder ChatGPT folgende Aufgabe: Den Text aus der Perspektive eines fachfremden Gutachters zu lesen und die drei unklarsten Punkte zu benennen. Das Ergebnis zeigt dir in zehn Minuten, ob das Tool einen nützlichen Beitrag leisten kann.
Hier ist ein umfassenderer Prompt für die systematische Antragsentwicklung:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- DFG-Richtlinien zum KI-Einsatz: DFG-Stellungnahme des Präsidiums, September 2023. Aktualisierte FAQ zur Antragstellung (Stand April 2026): dfg.de/de/grundlagen-themen/digitale-themen/ki/antragstellung.
- Erfolgsquote DFG: DFG Kennzahlenportal, Erfolgsquoten (Stand 2023/2024): Sachbeihilfen je nach Fachgebiet 20–40 %; Einzelangaben im DFG-Kennzahlenportal verfügbar.
- Erfolgsquote Horizon Europe: Europäische Kommission, Horizon Europe implementation reports (2023): Durchschnittliche Erfolgsquote ERC Consolidator Grants ca. 14 %, ERC Starting Grants ca. 13 %, Collaborative Projects (RIA) je nach Call 5–12 %.
- KI-generierte Anträge und NSF/NIH: Befund unter US-Bundesförderern 2023/2024 (zitiert in: Enago Academy, 2024). Zu beachten: Befund aus US-Kontext; Übertragbarkeit auf DFG/Horizon begrenzt.
- Zeitaufwand DFG-Antragstellung: Schätzungen basieren auf Erfahrungsberichten in Hochschul- und Forschungsförderungskreisen; keine repräsentative Erhebung. Richtwert Sachbeihilfe: 150–400 Stunden je nach Erfahrung und Projektkomplexität.
Du willst wissen, welcher Workflow für dein Fachgebiet und deinen nächsten Förderantrag am meisten bringt? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Literaturrecherche automatisieren
KI durchsucht Datenbanken wie PubMed, Scopus und Semantic Scholar und liefert relevante Paper mit Zusammenfassungen. Spart Wochen manueller Recherche.
Mehr erfahrenForschungsdaten-Auswertung mit KI
KI analysiert große Mengen Messdaten, Umfrageergebnisse oder Textkorpora und identifiziert Muster, Ausreißer und Zusammenhänge, die manuell nicht erkennbar wären.
Mehr erfahrenWissenschaftsartikel automatisch zusammenfassen
KI erstellt strukturierte Zusammenfassungen von Fachartikeln: Fragestellung, Methodik, Ergebnisse, Limitationen. Hunderte Publikationen in Stunden statt Wochen sichten.
Mehr erfahren