Zum Inhalt springen
Forschung & Entwicklung peer-reviewmanuskriptpublikation

Peer-Review-Vorbereitung mit KI

KI analysiert Manuskripte vor der Einreichung auf typische Review-Schwachstellen: Methodik-Lücken, unklare Argumentation, fehlende Referenzen und formale Mängel.

Worum geht's?

Es ist ein Sonntag, 20:15 Uhr, zwei Tage vor dem Deadline für eine Nature-Submission.

Liv hat ihr Manuskript geschrieben. 12 Wochen Arbeit, alles drin — neue Ergebnisse, Analyse, Auswertung, Diskussion. Sie liest es zum dritten Mal durch und hat das mulmige Gefühl, das sie jedes Mal hat vor dem Submit. Ist die Methodik wirklich klar genug, dass andere Labore das reproduzieren können? Hat sie alle eigenen Limitationen genannt? Ist die Grafik zu Figur 3 wirklich so aussagekräftig, oder ist das ein “wir hoffen, ihr seht, warum das wichtig ist”?

Sie fragt ihren Betreuer. Der hat Vollmails für zwei weitere Dissertationen. “Liest morgen” steht in der Antwort.

Sie könnte es auch einem KI-Tool zeigen — eine Anwendung, die wie ein kritischer Reviewer aussieht und Lücken aufzeigt, bevor echte Reviewer-Kommentare in fünf Wochen reinkommen (vorausgesetzt der Editor findet Reviewer).

Zwei Stunden später hat das Tool eine Liste mit “kritischen Punkten” gemacht: Methodik-Abschnitt adressiert nicht, warum gerade diese Probe-Größe? Diskussion behauptet “novel” ohne Abgrenzung zu ähnlichen Arbeiten von Smith et al. (2021). Abbildungslegende zu 2b ist vage. etc.

Das sind nicht “echte” Reviewer-Kommentare — aber es sind Dinge, die echte Reviewer wahrscheinlich auch finden würden. Und die zwei Wochen Überarbeitung jetzt sind billiger als die vier Wochen Wartezeit auf Reviewer, dann zwei Monate Überarbeitungs-Cycle, dann wieder vier Wochen Wartezeit.

Das echte Ausmaß des Problems

Die Ablehnung eines eingereichten wissenschaftlichen Manuskripts ist Standard, nicht Ausnahme. Je nach Journal und Fachgebiet liegen Ablehnungsquoten zwischen 50 und 97 Prozent. Top-Journale wie Nature oder Science lehnen über 90 Prozent aller Einreichungen ab — viele davon bereits auf Basis der Desk Review, bevor echte Fachgutachter sich damit befassen.

Das ist teuer. Ein Wissenschaftler oder eine Doktorandin investiert Monate in eine Arbeit, schreibt sie auf, reicht sie ein — und dann kam die Ablehnung. Wenn der Grund nur ist, dass die Methodik im Manuskript unklar dargestellt war, die Limitationen nicht adressiert, oder ein zu enger Bezug zu verwandten Arbeiten fehlte, dann ist das frustrierend. Weil: Diese Mängel waren oft im Prinzip bekannt, nur nicht in die geschriebene Fassung geflossen.

Eine zweite Einreichung (nach Überarbeitung) dauert wieder 4–6 Wochen Wartezeit. Mehrere Revision-Runden sind keine Seltenheit — Das Gros an Publikationen durchläuft 2–3 Überarbeitungszyklen.

Die wirtschaftliche Sicht: Jede Überarbeitungs-Runde kostet 2–4 Wochen Wissenschaftler-Zeit. Wenn die Ablehnung vorab hätte verhindert werden können, sind das verlorene Tage, die für neue Forschung hätten verwendet werden können.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-FeedbackMit KI-Feedback vor Einreichung
Durchschn. Revisions-Runden bis Annahme2–31–2
Zeit für Editor-Entscheidung (“Desk Review”)Ca. 1–2 WochenCa. 1–2 Wochen (gleich)
Wahrscheinlichkeit, dass erste Runde verworfen wird~40–60 %~25–35 % (bei guten Arbeiten)
Aufwand für Autorenrevision pro Runde2–4 Wochen1–2 Wochen (kürzere Überarbeitungen)
Zeit vom Submit bis Annahme (durchschn.)4–6 Monate3–4 Monate

Quelle: Empirische Daten von Forschern, die KI-Feedback-Tools nutzen (April 2026, unpubliziert). Wichtig: Diese Zahlen gelten nur für gut-strukturierte Forschung. Wenn das Experiment selbst fehlerhaft ist, hilft KI-Feedback nicht.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5)
KI-Feedback reduziert typischerweise eine Überarbeitungs-Runde. Das spart 2–4 Wochen pro Manuskript. Für einen Doktoranden, der pro Jahr 2–3 Manuskripte schreibt, ist das relevant. Für jeden der schreibt, ist es bedeutsam — aber nicht die größte Zeit-Ersparnistreiber in dieser Branch. Warum nicht höher? Weil der Hauptflaschenhal oft nicht die Schreibzeit ist, sondern die Wartezeit auf Reviewer (4–6 Wochen).

Kosteneinsparung — niedrig (2/5)
Die Tools sind meist kostenlos (ChatGPT mit Free-Account) oder billig (ChatGPT Plus 20 Euro/Monat). Die Einsparung ist indirekt: schnellere Publikation = schneller Reputation, schneller Grants, schneller nächste Position. Das ist real, aber schwer zu monetarisieren. Ein Lab mit 5 aktiven Schreibern spart ca. 10 Wochen Wartezeit pro Jahr — entspricht ~10.000 Euro Personalkosten. Gegen eine ERP-Tool-Lizenzen von 0–50 Euro/Monat ist das gut, aber nicht spektakulär.

Schnelle Umsetzung — hoch (4/5)
Du schreibst dein Manuskript, kopierst den Text in ChatGPT, gibst einen Prompt ein, erhältst Feedback. Erste Nutzung: 5 Minuten Setup. Kein technisches Wissen, kein Onboarding, kein Buy-in vom Department. Das ist sofort einsatzbereit.

ROI-Sicherheit — niedrig (2/5)
Der Nutzen ist real, aber nicht garantiert. Ein KI-Tool kann nicht erkennen, ob die zugrundeliegende Forschung methodisch stichhaltig ist. Es kann Schreib- und Argumentations-Lücken aufzeigen, aber es kann nicht sagen “Diese Analyse ist logisch falsch”. Außerdem: KI-Feedback ist generisch. Ein echter Reviewer hat ein spezifisches Domain-Wissen und kann subtile Fehler sehen, die KI nicht erfasst. Daher: Hilfreich für Screening, nicht als Garant für Erfolg.

Skalierbarkeit — hoch (4/5)
Mehr Manuskripte = Tool skaliert automatisch. Kein Engpass, keine Qualitätsdegrade bei Volumen. Ein Lab mit 20 Autoren kann alle gleich gut bedienen wie ein Autor allein.

Richtwerte — stark abhängig von Fachgebiet, Journal-Standards und Qualität der Originalarbeit.

Was KI-Manuskript-Analyse konkret tut

Das Prinzip: Ein LLM liest dein gesamtes Manuskript und gibt dir strukturiertes kritisches Feedback, als würde es einen sachkundigen (aber nicht domain-spezifischen) Reviewer spielen.

Was ein gutes Tool prüft:

  • Klarheit der Fragestellung — Ist die zentrale Forschungsfrage im Introduction unmissverständlich benannt?
  • Methoden-Reproduzierbarkeit — Kann jemand anders das Experiment basierend auf dieser Beschreibung reproduzieren?
  • Ergebnisse-Abdeckung — Sind die Abbildungen und Tabellen korrekt mit dem Text verlinkt?
  • Limitationen-Transparenz — Werden die eigenen Limitationen in der Discussion benannt?
  • Diskussion-Logik — Folgen die Schlussfolgerungen aus den Daten, oder wird zu weit spekuliert?
  • Referenz-Vollständigkeit — Sind relevante Arbeiten zitiert? Gibt es Lücken zu bekannten ähnlichen Studien?
  • Formale Anforderungen — Abbildungslegenden, Tabellen-Struktur, Abstract-Länge passend zu Journal-Standards?

Was es NICHT prüft:

  • Experimentelle Validität — Ist das Experiment selbst design-sicher? Das erfordert Domain-Expertise, die ein generisches LLM nicht hat.
  • Statistische Korrektheit — Sind die verwendeten statistischen Tests angemessen? (Fortgeschrittene KI kann das teilweise, aber nicht zuverlässig)
  • Novelty-Bewertung — Ist das wirklich neu, oder existent schon? Nur domain-Experten wissen das.

Das Wichtigste: KI-Feedback ist ein Screening-Tool, nicht ein Garant für Erfolg. Es findet die niedriger-hängenden Früchte (Klarheitsmängel, Referenz-Lücken), nicht die subtilen methodischen Fehler.

Konkrete Werkzeuge — was wann passt

ChatGPT — Die universelle Lösung. ChatGPT kann ein Manuskript analysieren wie jeder andere Text. Die kostenlose Version reicht für kurze Manuskripte; für 10–20 Seiten ist GPT-4 (ChatGPT Plus, 20 Euro/Monat) präziser. Der Vorteil: Vollständig frei konfigurierbar über Prompts. Der Nachteil: Generische Ausgabe, nicht Journal-spezifisch.

Claude — Ähnlich wie ChatGPT. Claude 3.5 Sonnet ist besonders gut in langen Dokumenten (bis zu 200K Tokens = ca. 100 Seiten). Kostenlos oder Claude Pro 20 Euro/Monat. Vorteil: Bessere Konsistenz über lange Texte, weniger “Halluzinationen”. Nachteil: Auch generisch.

Paperpal — Spezialisiertes Tool für Manuskript-Feedback. Prüft Struktur, Klarheit, Academic Language, Journal-Anforderungen. Freemium (5 Checks/Monat kostenlos), Premium 10–20 Euro/Monat. Advantage: Manuscript-Guidance ist vorkonfiguriert. Disadvantage: Teurer als DIY mit ChatGPT.

Scispace — Ähnlich wie Paperpal, mit zusätzlichem Papers-Searching und Citation-Help. Freemium, Pro ab 10 Euro/Monat. Etwas breiter als nur Peer-Review-Vorbereitung.

DIY mit custom Prompt + Claude oder ChatGPT — Einfach und kostengünstig. Du schreibst einen Prompt, der speziell für dein Fachgebiet und dein Target-Journal tailored ist (z.B. “Du bist ein Reviewer für Nature Neuroscience…”). Dann kopierst du dein Manuskript rein. Kostet 0–20 Euro/Monat je nach Tool-Wahl.

Zusammenfassung: Wann welcher Ansatz

  • Casual/gelegentliche Autoren → ChatGPT kostenlos + einfacher Prompt
  • Regelmäßige Autoren (2+ Manuskripte/Jahr) → ChatGPT Plus oder Claude Pro
  • Wer spezialisiertes Feedback will → Paperpal oder Scispace
  • Größeres Lab mit standardisiertem Prozess → Custom Prompt + ChatGPT-API-Integration (mehr Setup, aber skalierbar)

Datenschutz und Datenhaltung

Wenn du dein Manuskript zu einem Tool schickst, landen deine Daten irgendwo — typischerweise auf US-Servern (OpenAI, Anthropic). Das ist bei unveröffentlichtem Forschungs-Datenmaterial kritisch.

Wichtige Regeln:

  • Vor Submission zu Journal: Manuskript ist typischerweise „Betriebsgeheimnis”. Hochladen zu ChatGPT macht es potenziell Teil des Trainings (abhängig von den Datenschutzeinstellungen).
  • ChatGPT-Datenschutz: Kostenlose Nutzer — Daten könnten für Training genutzt werden (es sei denn, man schaltet History aus). ChatGPT Plus — Daten werden NICHT zum Training genutzt.
  • Claude: Ähnlich — kostenlos unklar, Claude Pro hat bessere Zusicherungen.
  • Paperpal/Scispace: US-Datenhosting, haben AVV (Auftragsverarbeitungsvertrag) für Unternehmens-Nutzer.

Best Practice:

  • Kostenlos testen: Geschichte ausschalten, keine sensiblen Experimente-Details hochladen — nur Struktur testen.
  • Produktiv: ChatGPT Plus oder Claude Pro (20 Euro/monatlich), damit du keine Bedenken hast. Oder nutze eine Lösung mit datenhosting-Garantie.
  • Hochsensibl: Manuskript lokalisieren (auf deinem Laptop) mit Open-Source-Modelle wie Llama oder Mistral — technisch komplexer, aber volles Datenschutz-Kontrol.

Wichtig: Nach erfolgreicher Publikation ist Datenschutz nicht mehr Thema — alles ist ja öffentlich. Aber VOR Publikation: aufpassen.

Was es kostet — realistisch gerechnet

Pro Manuskript-Check:

  • ChatGPT kostenlos: 0 Euro (aber mit Risiken bezüglich Datenschutz)
  • ChatGPT Plus: ca. 0,67 Euro pro Check (20 Euro/Monat ÷ 30 Checks)
  • Claude Pro: ca. 0,67 Euro pro Check (20 Euro/Monat ÷ 30 Checks)
  • Paperpal Premium: ca. 2–3 Euro pro Check (10–20 Euro/Monat ÷ 5–10 Checks)

Im Kontext eines aktiven Wissenschaftlers: Ein Doktorand schreibt pro Jahr 1–3 Manuskripte. Mit KI-Feedback durchläuft jedes durchschnittlich 1,5 Überarbeitungs-Runden statt 2–3. Das spart ca. 4–8 Wochen pro Manuskript. Bei 25 Euro/Stunde Personalkosten (konservativ für Doktorand) sind das:

  • 1,5 Manuskripte/Jahr × 5 Wochen Einsparung × 40 Std/Woche × 25 €/Std = ca. 7.500 Euro/Jahr Wertschöpfung
  • ChatGPT Plus-Kosten: 240 Euro/Jahr
  • Netto-Gewinn: 7.260 Euro/Jahr

Das ist eine 30:1 ROI.

Drei typische Einstiegsfehler

1. Zu viel Vertrauen in KI-Feedback als finales Urteil.
Der Fehler: Du bekommst KI-Kritik, behebst alle Punkte, dann noch immer Ablehnung — und fragst dich, warum die KI dich getäuscht hat. Realität: Die KI hat die großen Argumenations-Lücken gefunden, aber der Reviewer hat ein spezifisches Domain-Wissen über dein Fachgebiet und neue Arbeiten, die die KI nicht hat. Lösung: KI-Feedback als erster Screening-Pass nutzen, echtes Betreuer-Feedback as zweiter Pass bleibt unverzichtbar.

2. Zu viel von generischen Prompts erwarten.
Der Fehler: Du kopierst einen Internet-Prompt (“Act as a peer reviewer”) in ChatGPT und hoffst auf Journal-specific Feedback. Resultat: Generisches Feedback, das nicht auf Nature vs. Plos One vs. Dein Fachjournal eingehe. Lösung: Mit deinem Betreuer 2–3 Journal-spezifische Prompts zusammenstellen (“Du bist ein Reviewer für XXX Journal und bewertest…”). Dann nutzen.

3. Feedback mit Überarbeitung zu lange aufschieben.
Der Fehler: Du bekommst KI-Feedback, speicherst die Liste ab, dann vergessen Sie drei Wochen. Wenn du zurückkommst, hast du den Context verloren, und Überarbeitung dauert länger. Lösung: Feedback sofort abarbeiten, wenn es noch frisch ist. Am besten: KI-Check durchführen, 2 Tage später überarbeiten, dann zu Betreuer.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Manuskript-FertigstellungWochen 1–8 (je nach Projekt)Erste Draft entsteht, Abbildungen, Ergebnisse.Standard: Immer länger als geplant
KI-Feedback holenTag 1Manuskript in ChatGPT/Claude rein, Feedback in 10 Minuten.Feedback ist zu generisch oder adressiert nicht deine spezifischen Schwächen
Erste Überarbeitung basierend auf KITage 1–3Offensichtliche Punkte beheben (klarere Fragestellung, Referenzen).Zu viel Zeit auf unbedeutende Punkte verschwenden
Betreuer-Feedback einholenTage 3–7Betreuer liest überarbeitete Version, gibt spezifisches Feedback.Betreuer ist beschäftigt, Reviews dauert länger als erwartet
Zweite Überarbeitung (basierend Betreuer)Tage 7–10Substantive Überarbeitungen (z.B. neue Analyse, andere Abbildungsanordnung).Zu späte Erkenntnisse von fundamentalen Problemen
Final Check & SubmitTag 10Letzte Runde QC, dann einreichen.Stress-Fehler, weil man zu lange warten hat

Wichtig: Wenn du diesen Prozess effizient machst (KI-Check → sofort Überarbeitung → Betreuer → sofort finale Überarbeitung), geht alles in 10 Tagen. Wenn zwischen den Phasen Wochen liegen, wird es ein Monat.

Häufige Einwände — und was dahintersteckt

„Die KI versteht die Komplexität meiner Forschung nicht.”
Wahrscheinlich stimmt. KI hat breites Wissen, aber nicht dein spezifisches Domain-Verständnis. Lösung: KI nutzen nicht um zu entscheiden, ob Forschung gut ist, sondern um zu prüfen, ob die Kommunikation klar ist. “Verstehen Laien, warum das wichtig ist?” — das kann KI gut prüfen.

„Echte Reviewer werden andere Fehler finden, die die KI nicht findet.”
100% stimmt. KI findet Schreib- und Argummenations-Mängel, nicht die subtilen methodischen Fehler, die ein Experte erkennt. Lösung: Das ist ja OK — jede Review-Runde findet neue Punkte. Ziel ist nicht, alle Fehler VOR dem Reviewer zu finden (unmöglich), sondern die offensichtlichen Mängel so dass der echte Reviewer Zeit für die subtilen hat.

„Das ist nicht akademisch ehrlich — ich schreibe mit KI-Hilfe.”
Das ist ein echtes Issue. Aber: KI-Feedback auf das Manuskript ist wie ein Betreuer oder ein Kollege, der kritisch drüberliest. Das ist Standard. Im Gegensatz zu KI-geschriebene Texte (die ethisch fraglich sind) ist Feedback-Nutzung normal. Lösung: Transparent sein: In Methods oder Acknowledgments kann man erwähnen “Manuskript wurde mit KI-gestütztem Feedback verfeinert”. Das ist keine Schande.

Woran du merkst, dass das zu dir passt

  • Du schreibst regelmäßig Manuskripte (mindestens 1–2 pro Jahr) — und dein Betreuer hat oft nicht genug Zeit für detailliertes Feedback
  • Deine erste Submission-Versuche wurden oft abgelehnt — und du fragst dich, ob strukturelle Probleme vorhanden sind
  • Du arbeitest in einem Feld mit streng hohen Journal-Standards (z.B. Nature, Science, Top-Fachzeitschriften) — wo pre-submission feedback sehr wertvoll ist
  • Du brauchst schneller Feedback — weil Betreuer langsam sind und deine Deadline näher rückt
  • Du recherchierst in einem speziellen Nischen-Feld, wo es wenig Feedback-Ressourcen gibt — dann kann KI-Screening hilfreich sein

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Du schreibst weniger als ein Manuskript pro Jahr. Die Setup-Zeit (Prompt-Engineering, Tool-Auswahl) ist relativ teuer für so kleine Menge.

  2. Dein Manuskript hat fundamentale Forschungs-Probleme (Experiment-Design ist fehlerhaft). KI kann das nicht erkennen. Das braucht ein Human-Reviewer. Lösung: Erst mit Betreuer die Science-Fragen klären, dann KI für Presentation.

  3. Dein Betreuer hat Zeit und Geduld für mehrere Überarbeitungsrunden. Dann ist KI-Feedback nice-to-have, nicht notwendig. Zumindest nicht am Anfang.

Das kannst du heute noch tun

  1. Öffne ChatGPT (kostenlos, no setup).

  2. Kopiere deinen Abstract oder das Introduction-Kapitel deines aktuellen Manuskripts.

  3. Gib diesen Prompt ein:

Bist du ein kritischer Reviewer für ein Fachjournal in [DEIN FELD].
Analysiere dieses Kapitel auf:
- Klarheit der Forschungsfrage (ist sie unmissverständlich?)
- Relevanz und Kontext (warum sollte jemanden das interessieren?)
- Logische Konsistenz (folgt das Argument?)
- Fehlende Referenzen (gibt es ähnliche Arbeiten, die hier zitiert sein sollten?)

[MANUSKRIPT EINFÜGEN]
  1. Schaue die Feedback an. Triffen sie deine Sorgen? Hilfreiche oder oberfächlich?

Das gibt dir realistisches Gefühl ob KI-Feedback für dein Fachgebiet wertvoll ist.

Hier ist ein Ready-to-Use-Prompt für Journal-spezifisches Feedback:

Journal-spezifische Manuskript-Analyse
Du bist ein kritischer Reviewer für [JOURNAL NAME, z.B. Nature Neuroscience]. Beantworte folgende Punkte zu diesem Manuskript: 1. Ist die zentrale Forschungsfrage klar formuliert? 2. Methodologie — können andere diese Arbeit reproduzieren basierend auf dieser Beschreibung? 3. Sind alle Limitationen transparent adressiert? 4. Sind die Schlussfolgerungen durch die Daten gerechtfertigt? 5. Fehlen relevante Referenzen zu ähnlichen oder konkurrierenden Arbeiten? 6. Ist die Präsentation (Abbildungen, Tabellen, Sprache) auf dem Standard des Journals? Manuskript: [MANUSKRIPT TEXT EINFÜGEN]
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Du bist ein kritischer Reviewer für Nature Neuroscience... [Manuskript-Text zum Beispiel zu plastischen Mechanismen]

KI-Assistent

1. **Forschungsfrage:** Teilweise klar. Das Introduction adressiert BDNF-Rolle, aber die konkrete Frage „Ist BDNF essentiell für post-training LTP?" wird erst in Abschnitt 2.3 explizit genannt. Empfehlung: Ins Abstract und am Ende des Introduction deutlicher machen. 2. **Reproduzierbarkeit:** Methods-Sektion ist gut strukturiert, aber fehlende Details: Welche Maus-Linie genau? Welche Version des patch-clamp-Setups? Empfehlung: Supplementary Methods mit Geräte-Nummern. 3. **Limitationen:** Genannt werden Limitationen der Maus-Generalisierbarkeit — gut. Nicht genannt: Sample-Size-Power-Analyse. War die n=5 pro Gruppe statistisch ausreichend? Empfehlung: Statistisches Supplement. 4. **Schlussfolgerungen:** Logisch mit Daten begründet. Ein Punkt: „BDNF is sufficient for learning" wird aus den Daten abgeleitet, aber nicht explizit getestet (nur Knockout). Empfehlung: Diskussion nuancieren oder Supplementary-Überexpression-Experiment vorschlagen. 5. **Referenzen:** Aktuelle Literatur berücksichtigt. Kleine Lücke: Chen et al. (2022, Nature Protocols) — Vergleichbare in-vivo-Methodik wurde übersehen. 6. **Präsentation:** Abbildungen sind klar. Abbildung 3b ist zu klein — Leser müssen zoomen. Tabelle 1 ist wortreich, könnte als Supplement gehen.

Quellen & Methodik

  • Ablehnungsquoten: Nature und Science ~90%+ Desk-Rejection; durchschnittliche Journale 50–70% (Veröffentlichte Daten der Journals, Stand 2024)
  • Revisions-Runden: Durchschnitt 2–3 Überarbeitungs-Zyklen bis Publikation (metaanalytische Daten aus Publishing-Studien, 2020–2024)
  • KI-Feedback Effektivität: Erfahrungsberichte von Wissenschaftlern, die KI-Tools nutzen (April 2026, unpubliziert)
  • Tool-Preisangaben: Veröffentlichte Tarife ChatGPT, Claude, Paperpal, Scispace (Stand April 2026)
  • Zeitkosten: Brutto-Stundensätze für Doktoranden basierend auf Destatis Verdienste (2024)

Du willst wissen, ob KI-Feedback für dein spezifisches Journal und Fachgebiet gut funktioniert? Oder wie du einen Custom-Prompt für dein Lab zusammenstellst? Schreib uns — wir klären das gern.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar