Zum Inhalt springen
Verlag & Medienproduktion lektoratmanuskriptredaktion

Manuskript-Lektorat-Unterstützung per KI

KI-Assistent unterstützt Lektoren bei Erstprüfung von Manuskripten auf Stilinkonsistenzen, Fehler und Strukturprobleme.

Worum geht's?

Es ist Donnerstag, 10:17 Uhr.

Katharina ist Lektorin bei einem mittelgroßen Belletristikverlag. Auf ihrem Tisch liegt ein 380-seitiges Romanmanuskript. Es ist das neunte Manuskript in diesem Monat. Sie öffnet die erste Seite und beginnt mit dem, was sie am meisten kostet: Drehtürsätze, doppelt gesetzte Adjektive, Kommafehler auf jeder zweiten Seite, Tempuswechsel ohne Grund — Fehler, die ein aufmerksames Lesen erfordern, aber keinen intellektuellen Einsatz. Mechanische Arbeit, für die sie Literaturwissenschaft studiert hat.

Um 12:30 ist sie auf Seite 48. Bis zur ersten inhaltlichen Rückmeldung an die Autorin wird es noch Wochen dauern.

Das ist kein Ausnahmezustand. In den meisten Lektoraten ist das der Standardmodus: Viel Zeit für Korrekturen, die eigentlich gar keine Lektoren-Aufgabe sind — und immer weniger Zeit für das, was Lektoren wirklich können.

Das echte Ausmaß des Problems

In einer Umfrage der Lektorenvereinigung VFLL (2024) gaben 61 % der befragten Lektoren an, dass formale Korrekturaufgaben (Orthografie, Interpunktion, Stilkonsistenz) mehr als 30 % ihrer gesamten Manuskriptarbeit ausmachen. Für Verlage mit hohem Manuskripteingang — in der Belletristik können das 60–120 Einreichungen pro Monat sein — bedeutet das: Ein erheblicher Teil der Lektorenkapazität fließt in Aufgaben, die strukturell automatisierbar sind.

Dabei geht es nicht nur um einfache Tippfehler. Moderne Manuskripte bringen typischerweise eine Kombination aus:

  • Grammatikfehlern und Kommasetzung — klassische Korrekturgegenstände, die sich mit Software gut abfangen lassen
  • Tempus- und Personeninkonsistenzen — wechselnde Zeitformen oder Figurennamen, die sich im Lauf des Textes leicht verschoben haben
  • Stilproblemen — monotone Satzstrukturen, Füllwörter, Wiederholungen innerhalb von wenigen Absätzen
  • Formatierungsinkonsistenzen — Anführungszeichen, Gedankenstriche, Absatztypen, die nicht einheitlich gesetzt sind

Alle vier Kategorien lassen sich von gut konfigurierten KI-Assistenten zuverlässig kennzeichnen. Nicht korrigieren — kennzeichnen. Der Unterschied ist entscheidend: Die Lektorin entscheidet am Ende, ob der Vorschlag passt. Das KI-System bereitet die Entscheidungen vor.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-UnterstützungMit KI-Lektoratsassistenz
Zeit für formale Erstkorrektur je Manuskript8–15 Stunden2–4 Stunden
Manuskripte je Lektor und Monat4–67–10
Fehlerquote in formaler Korrekturhoch variabel (Tagesverfassung, Konzentration)konsistent, systematisch
Reaktionszeit auf Einreichungen4–8 Wochen2–4 Wochen
Energie für inhaltliche Arbeiterschöpft durch formale Rundenfrüher verfügbar

Werte basieren auf Erfahrungsberichten aus Lektoraten mit 4–15 Mitarbeitenden und eigenen Kalkulationen aus Pilotprojekten mit LLM-gestützten Korrekturworkflows. Keine repräsentative Studie.

Einschätzung auf einen Blick

Zeitersparnis — hoch (4/5) Der direkteste Hebel: Formale Erstkorrektur, die heute 8–15 Stunden dauert, lässt sich auf 2–4 Stunden reduzieren. Das ist messbar und relevant — insbesondere wenn Lektorate unter Zeitdruck stehen und die Reaktionszeit auf Einreichungen eines der wenigen wettbewerbsdifferenzierenden Merkmale im Verlagsumfeld ist.

Kosteneinsparung — mittel (3/5) Mehr Manuskripte je Lektor klingt gut, bedeutet in der Praxis aber nicht automatisch weniger Personal. Es bedeutet: mehr Output bei gleicher Kapazität, kürzere Durchlaufzeiten, oder — bei wachsendem Manuskriptvolumen — die Möglichkeit zu skalieren ohne sofort neue Lektoren einstellen zu müssen. Die direkte Kosteneinsparung ist indirekter als bei rein operativen Prozessen.

Schnelle Umsetzung — hoch (4/5) Tool-basierte Ansätze mit LanguageTool oder Claude sind in 4–6 Wochen im produktiven Einsatz. Kein Custom-Development nötig, keine ERP-Integration, kein Change-Management über Abteilungsgrenzen hinweg. Das ist ein klarer Vorteil gegenüber komplexeren Automatisierungsprojekten in diesem Branch.

ROI-Sicherheit — mittel (3/5) Der Nutzen ist real, aber die Messung braucht Arbeit. Man muss Vorher-Nachher-Zeiterfassungen führen, Fehlerquoten dokumentieren und den Unterschied zwischen eingesparter Formalkorrrektur und gestiegener inhaltlicher Qualität klar halten. Wer keine Zeiterfassung für Lektoratsphasen macht, kann den ROI im Nachhinein nicht zuverlässig belegen.

Skalierbarkeit — mittel (3/5) Das Werkzeug skaliert gut: Ein einmal konfigurierter Assistenz-Workflow läuft für beliebig viele Manuskripte. Aber: Jedes Manuskript braucht trotzdem eine menschliche Durchsicht der KI-Vorschläge — der Prozess skaliert nicht auf null. Verglichen mit rein maschinellen Workflows ist die Skalierbarkeit begrenzt.

Richtwerte — stark abhängig von Manuskriptvolumen, Lektoratsgröße und vorhandenen Toolstrukturen.

Was ein KI-Lektoratsassistent konkret macht

Ein KI-gestützter Lektoratsassistent kann auf zwei Ebenen arbeiten, die sich ergänzen:

Ebene 1: Automatische Fehlermarkierung Tools wie LanguageTool scannen das Manuskript auf Grammatikfehler, Interpunktionsprobleme, Stilschwächen (Füllwörter, überlange Sätze, Wiederholungen) und Formatierungsinkonsistenzen. Das Ergebnis ist eine kommentierte Version des Textes, die der Lektor Schritt für Schritt durchgeht — statt jeden Fehler selbst zu suchen. Der Zeitgewinn entsteht nicht durch Automatisierung der Entscheidung, sondern durch Automatisierung der Suche.

Ebene 2: Strukturelle und inhaltliche Analyse mit LLM Tools wie Claude oder ChatGPT können mit einem spezifischen System-Prompt einen übergeordneten Strukturblick liefern: Gibt es Szenen, die redundant wirken? Verändern sich Figuren ohne erkennbaren Grund? Gibt es Tempusbrüche über Kapitelgrenzen hinweg? Dieser Ansatz ist stärker vom Prompt abhängig und liefert Einschätzungen, keine Korrekturen — er arbeitet als Vorbereitung für das inhaltliche Lektorat.

Spezialisierte Tools wie QualiFiction (LiSA) gehen noch einen Schritt weiter: Sie analysieren belletristische Manuskripte auf Leserpotenzial, Plotkonsistenz und Wendepunkte und vergleichen sie mit dem deutschsprachigen Buchmarkt. Das ist kein Lektoratstool im engeren Sinn, aber ein nützlicher Filter vor dem eigentlichen Lektorat — besonders bei Verlagen mit hohem Kaltakquise-Volumen.

Die drei Ansätze schließen sich nicht aus. In der Praxis kombinieren Lektorate sie: formale Vorprüfung mit LanguageTool, strukturelle Einschätzung mit Claude, Manuskript-Screening für Einreichungen mit QualiFiction.

Konkrete Werkzeuge — was wann passt

LanguageTool (Team-Tarif, ca. 18 €/Nutzer/Monat) Die beste Wahl für Verlage, die einen gemeinsamen Stilguide und konsistente Korrekturkonventionen brauchen. Unterstützt Deutsch besonders gut, EU-Hosting, geteilte Wörterbücher für Fachterminologie. Für Teams ab 3 Personen besonders sinnvoll.

Claude (Pro, ca. 18 €/Monat) Für den strukturellen Analyse-Prompt und inhaltliche Ersteinschätzungen. Claude versteht lange Texte (bis 200.000 Token Kontextfenster) besser als viele Alternativen und liefert differenziertere Einschätzungen zu Erzählstruktur und Figurenkonsistenz als reinen Grammatikchecks. Nicht für formale Korrektur geeignet — aber als ergänzendes Werkzeug für Lektoren mit hohem Manuskript-Durchsatz.

QualiFiction (LiSA) (49 € je Manuskript) Sinnvoll bei hohem Einreichungsvolumen als Vorfilter. Keine Lektoratsfunktion im engeren Sinn, aber ein datenbasiertes Erste-Orientierung-Tool, das Verlage mit vielen Kaltakquise-Manuskripten entlastet. Nicht für Sach- und Fachbücher geeignet.

ChatGPT (Plus, ca. 20 USD/Monat) Freie Alternative zu Claude für strukturelle Prompts. Schwächer bei langen Texten und kontextbewusster Analyse, aber mit gutem Promptdesign für Ersteinschätzungen brauchbar.

Zusammenfassung:

  • Formale Korrektur (Orthografie, Stil, Formatierung) → LanguageTool Team
  • Strukturelle Analyse und inhaltliche Ersteinschätzung → Claude Pro
  • Manuskript-Vorfilterung bei hohem Einreichungsvolumen → QualiFiction LiSA

Datenschutz und Datenhaltung

Manuskripte sind urheberrechtlich geschützte Werke — zusätzlich zur DSGVO spielen hier Verlagsverträge und Vertraulichkeitsvereinbarungen mit Autorinnen und Autoren eine Rolle. Wenn ein Manuskript an einen Cloud-Dienst übertragen wird, muss der Verlag sicherstellen, dass das mit den vertraglichen Pflichten gegenüber der Autorin vereinbar ist.

Konkret für die empfohlenen Tools:

LanguageTool (EU-Hosting): Texte werden laut Datenschutzerklärung nicht für Modelltraining genutzt (Premium). EU-Datenhaltung. Für die meisten Verlage DSGVO-konform nutzbar, solange ein AVV unterzeichnet ist.

Claude (Anthropic, US): Datenhaltung in den USA. Anthropic bietet einen AVV an. Die API-Nutzung schließt keine Trainingsnutzung ohne Zustimmung ein. Für besonders sensible unveröffentlichte Manuskripte sollte die Verlagsleitung oder Rechtsabteilung bewerten, ob die Übertragung mit Autorenverträgen vereinbar ist.

QualiFiction (EU): Deutsches Unternehmen, EU-Datenhaltung. DSGVO-konforme Verarbeitung, AVV verfügbar.

Praktischer Hinweis: Unveröffentlichte Manuskripte von renommierten Autoren oder mit vertraglicher Geheimhaltungspflicht sollten nicht über US-Cloud-Dienste laufen, bevor das rechtlich geprüft ist. Eine Alternative für solche Fälle: Analyse mit einer lokal betriebenen Open-Source-Variante oder über Anthropic’s Enterprise-Tier mit erweiterten Datenschutzgarantien.

Was es kostet — realistisch gerechnet

Einmalige Einrichtungskosten

  • LanguageTool-Konfiguration (Wörterbücher, Stilregeln, Team-Setup): 2–5 Tage intern
  • Claude-Prompt-Entwicklung und -Test für strukturelle Analyse: 1–2 Wochen mit 3–5 Testmanuskripten
  • Schulung der Lektoren: halbtägige Session

Laufende Kosten (5 Lektoren)

  • LanguageTool Team: ca. 90 €/Monat
  • Claude Pro: ca. 90 €/Monat (5 × 18 €)
  • Gesamt: ca. 180 €/Monat

ROI-Rechnung (konservativ) Ein Lektor spart durch KI-Unterstützung 6 Stunden je Manuskript (von 12 auf 6 Stunden formale Korrektur). Bei 6 Manuskripten/Monat: 36 Stunden je Lektor/Monat. Bei einem Lektoratsgehalt von 3.500 €/Monat brutto entspricht das einem Stundensatz von ca. 22 € — also 792 €/Monat je Lektor in eingesparter Kapazität (oder äquivalent mehr Output).

5 Lektoren: ca. 3.960 €/Monat Kapazitätsgewinn. Kosten: 180 €/Monat. Amortisierung: im ersten Monat.

Das ist eine theoretische Rechnung, die voraussetzt, dass die eingesparte Kapazität tatsächlich produktiv umgelenkt wird — in mehr Manuskripte, kürzere Reaktionszeiten, oder mehr inhaltliche Tiefe. Das passiert nicht automatisch.

Drei typische Einstiegsfehler

1. Das Tool übernimmt die Entscheidung. KI-Korrekturvorschläge werden blind akzeptiert, weil es schneller geht. Das führt zu stilistischen Verflachungen — das Tool zieht immer in Richtung der häufigsten Formulierung, nicht der treffendsten. Besonders bei literarischen Manuskripten mit bewusst unkonventionellem Stil ist das gefährlich. Lösung: Klares Protokoll, das jeden Vorschlag als Vorschlag behandelt. Lektoren entscheiden — das KI-System zeigt, die Lektorin bewertet.

2. Nur Grammatik, keine Struktur. Viele Verlage führen LanguageTool ein und lassen es dabei. Die zweite, strukturbezogene Ebene — was sagen LLMs über die Erzählstruktur, die Figurenkonsistenz, die Plotlogik? — bleibt ungenutzt. Das ist nur die Hälfte des Potenzials. Lösung: Den LLM-basierten Analyse-Prompt parallel aufsetzen, auch wenn das am Anfang mehr Aufwand ist.

3. Das Setup wird einmalig gemacht und nie aktualisiert. Stilregeln, Terminologiewörterbücher und Analyse-Prompts veralten. Neue Lektoratskonventionen im Team, neue Verlagsprofile, geänderte Genretrends — all das sollte sich im Setup widerspiegeln. Wer den LanguageTool-Stilguide einmal einrichtet und dann zwei Jahre nicht anfasst, arbeitet bald mit einem Werkzeug, das den aktuellen Ansprüchen nicht mehr entspricht. Lösung: Vierteljährliche Review-Session für alle KI-Konfigurationen im Lektorat — 2 Stunden, fester Termin.

Was mit der Einführung wirklich passiert — und was nicht

Lektoren reagieren auf KI-Unterstützung unterschiedlich — und das hängt stark von der eigenen Berufsidentität ab.

Die Perfektionistin. Sie prüft jeden einzelnen Korrekturvorschlag dreifach nach, traut dem System nicht und braucht doppelt so lang wie vorher. Das ist keine Fehlfunktion — das ist professionelle Vorsicht. Sie braucht Daten: Wie häufig ist das Tool richtig? Bei welchen Kategorien ist es zuverlässig, bei welchen nicht? Zwei Wochen mit einer Stichprobe von 50 Vorschlägen je Kategorie liefern ein belastbares Bild. Danach entspannt sich der Prozess.

Die Akzeptiererin. Sie klickt durch alle Vorschläge mit „Ja”, weil es schnell geht. Das ist das andere Extrem — und das, was die Qualität gefährdet. Eine kurze Team-Session mit konkreten Beispielen, bei denen das Tool falsch lag (besonders bei bewusstem Autorenstil), verhindert dieses Muster.

Was konkret hilft:

  • Einen Piloten mit 10 Manuskripten durchführen, bevor das Tool für alle eingeführt wird
  • Im Team offen kommunizieren: Das Ziel ist mehr Zeit für inhaltliche Arbeit — keine Stellenabbau-Maßnahme
  • Einen „Lektorats-Prompt-Champion” benennen, der den Claude-Prompt weiterentwickelt und im Team teilt
  • Die eingesparte Zeit sichtbar machen: Wo fliesst sie hin? Kürzere Reaktionszeiten? Mehr Tiefe im inhaltlichen Lektorat?

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Tool-Auswahl & SetupWoche 1–2LanguageTool einrichten, Wörterbücher und Stilregeln konfigurierenZu viele Regeln auf einmal — lieber mit den 5 häufigsten Fehlerklassen starten
Claude-Prompt entwickelnWoche 2–4System-Prompt für strukturelle Analyse testen, mit echten Manuskripten kalibrierenPrompt gibt zu generische Einschätzungen — mit 5 Test-Manuskripten iterieren
Pilotbetrieb (3 Lektoren)Woche 4–62–3 Manuskripte je Lektor mit vollem Workflow bearbeiten, Feedback dokumentierenEin Lektor lehnt das Tool ab — Ursache verstehen bevor das für alle gilt
Rollout im TeamWoche 6–8Alle Lektoren einschulen, Protokoll definieren, erste Kennzahlen erhebenWorkflow-Protokoll wird nicht befolgt — klare schriftliche Beschreibung hilft

Häufige Einwände — und was dahintersteckt

„KI versteht literarischen Stil nicht.” Stimmt für tiefes inhaltliches Lektorat. Falsch für formale Korrektur — die hat mit Stilverständnis wenig zu tun. Tempusfehler sind Tempusfehler, unabhängig davon, ob der Text literarisch ist. Und LanguageTool erkennt seit Jahren absichtliche Regelabweichungen, wenn sie konsequent sind. Den Einwand ernst nehmen, aber auf den Anwendungsbereich beschränken: formale Korrektur, nicht Stilentscheidungen.

„Die Autorinnen wollen nicht, dass KI ihre Manuskripte liest.” Ein legitimer Einwand, der ernstgenommen werden muss. Für einen Teil der Autorenschaft ist das ein echtes Anliegen. Lösung: Transparenz schaffen — welche Tools werden wie eingesetzt? Ein klarer Hinweis im Lektoratsvertrag (oder auf Anfrage) nimmt das Misstrauen. Für Autorinnen, die das explizit ablehnen, muss eine manuelle Korrekturoption verfügbar bleiben.

„Wir haben das immer ohne KI gemacht.” Ja. Und Lektoren haben Texte früher ohne Textverarbeitungssoftware bearbeitet. Die Frage ist nicht, ob die KI-Unterstützung den bisherigen Prozess ergänzt, sondern ob sie ihn verbessert — ohne die lektoriale Qualität zu gefährden. Die Antwort auf diese Frage kommt aus dem Pilot, nicht aus der Diskussion.

Woran du merkst, dass das zu dir passt

  • Deine Lektoren verbringen mehr als 30 % ihrer Zeit mit formaler Korrektur — sie selbst sagen, dass sie gerne mehr inhaltliche Arbeit machen würden
  • Die Reaktionszeit auf Manuskript-Einreichungen liegt über 4 Wochen — und du weißt, dass das Autorinnen und Agenturen abstößt
  • Du hast monatlich mehr Manuskripte als dein Team realistisch durcharbeiten kann — die Warteschlange wächst
  • Lektoren berichten von Konzentrationsproblemen bei der formalen Durchsicht — nach dem dritten Manuskript in Folge sinkt die Qualität der Korrekturen spürbar

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Weniger als 3 Manuskripte pro Lektor und Monat. Der Setup-Aufwand amortisiert sich nicht. Bei diesem Volumen ist strukturiertes manuelles Arbeiten mit Checkliste effizienter als ein KI-Tool-Workflow.

  2. Kein klares Protokoll, wer die KI-Vorschläge wie bewertet. Ohne Protokoll führt das Tool entweder zu Überakzeptanz (blind klicken) oder Überprüfung (langsamer als ohne Tool). Beides ist schlechter als der Status quo. Das Tool setzt voraus, dass der Workflow vorher geklärt ist.

  3. Autorenverträge mit expliziten KI-Verbotsklauseln für die Verarbeitung. Einige Autoren und Agenturen verlangen, dass keine KI-Systeme unveröffentlichte Manuskripte verarbeiten. Wenn das ein relevanter Teil des Verlagsprogramms ist, muss das rechtlich geprüft werden, bevor irgendein Tool eingesetzt wird.

Das kannst du heute noch tun

Öffne LanguageTool im Browser — kostenlos, kein Setup. Nimm ein kürzlich fertiggestelltes Manuskript, kopiere die ersten 20.000 Zeichen und führe eine Analyse durch. Schau dir die Ergebnisse an: Wie viele Vorschläge sind tatsächlich korrekt? Wie viele sind falsch-positiv? Wie lange brauchst du, um die Liste durchzugehen?

Dieses 30-Minuten-Experiment zeigt dir sofort, ob der Ansatz zu eurem Manuskripttyp passt — bevor du irgendeinen Cent investierst.

Für die strukturelle LLM-Analyse hier ein Prompt, den du direkt in Claude oder ChatGPT einsetzen kannst:

Strukturelle Manuskript-Analyse
Du bist ein erfahrener Lektor für belletristische Literatur. Analysiere das folgende Manuskript und erstelle einen strukturierten Bericht zu diesen vier Punkten: 1. TEMPUS UND PERSPEKTIVE: Gibt es unbeabsichtigte Wechsel in Zeitform oder Erzählperspektive? Zitiere konkrete Stellen. 2. FIGURENKONSISTENZ: Verhält sich eine der Hauptfiguren in einer Szene merklich anders als in vorherigen Szenen, ohne erkennbaren dramatischen Grund? 3. WIEDERHOLUNGEN: Welche Formulierungen, Adjektive oder Satzmuster tauchen auffällig häufig auf? 4. STRUKTURELLE AUFFÄLLIGKEITEN: Gibt es Szenen, die redundant wirken, oder Handlungsstränge, die ohne Auflösung enden? Gib für jeden Punkt: Einschätzung (unauffällig / leichte Probleme / deutlicher Handlungsbedarf), und bei Problemen: maximal drei konkrete Beispielstellen mit Seitenangabe. [MANUSKRIPT HIER EINFÜGEN]
Funktioniert mit Claude, ChatGPT
Beispiel-Ausgabe

Mitarbeiter:in

Kapitel 3, Seiten 38–52: Emilias Entscheidung, das Haus zu verlassen. Der Erzähler wechselt mehrmals zwischen Er- und Ich-Perspektive.

KI-Assistent

TEMPUS UND PERSPEKTIVE: Deutlicher Handlungsbedarf In Kapitel 3 finden sich drei unbeabsichtigte Perspektivwechsel: • S. 41, Abs. 2: „Emilia spürte die Kälte" (auktorial) → S. 41, Abs. 4: „Ich konnte nicht mehr zurück" (Ich-Erzähler) — kein Hinweis auf bewussten Bruch • S. 47: Zwei aufeinanderfolgende Absätze wechseln zwischen „sie dachte" und „ich dachte" • S. 51: Rückblick in Präteritum, dann Gegenwartseinschub ohne typografische Markierung FIGURENKONSISTENZ: Leichte Probleme Emilia zeigt in Kap. 3 eine Entschlossenheit, die im Widerspruch zu ihrer Passivität in Kap. 1 und 2 steht. Das kann dramatisch beabsichtigt sein — falls es ein Wendepunkt ist, wäre eine kurze vorbereitende Szene hilfreich. WIEDERHOLUNGEN: Unauffällig Keine auffälligen Wiederholungen in diesem Abschnitt. STRUKTURELLE AUFFÄLLIGKEITEN: Leichte Probleme Der Handlungsstrang mit dem Brief (S. 39) wird in diesem Kapitel nicht aufgelöst und taucht in den folgenden Kapiteln (soweit vorliegend) nicht wieder auf.

Quellen & Methodik

  • Zeitaufwand Lektorat (30 % formale Korrektur): VFLL-Umfrage unter freien Lektoren (2024), publiziert auf lektorenverband.de. Eigene Erfahrungswerte aus Gesprächen mit Verlagslektoren bestätigen die Größenordnung.
  • Manuskriptvolumen und Reaktionszeiten: Erfahrungswerte aus mittelgroßen belletristischen Verlagen (5–20 Lektoren), keine repräsentative Erhebung.
  • LanguageTool-Preise: Veröffentlichte Tarife von LanguageTool (Stand April 2026).
  • QualiFiction/LiSA: Produktbeschreibung und Einzelanalyse-Preise auf qualifiction.info (Stand April 2026).
  • KI-Grenzen im Lektorat: meiersworld.de, „KI im Lektorat: Was sie kann, was sie nicht kann” (2024); VFLL-Blog zu QualiFiction.

Du willst wissen, welcher Ansatz zu eurem Manuskriptvolumen und Lektoratsprozess passt? Meld dich — das klären wir in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar