Zum Inhalt springen
Weiterbildung & Coaching feedbackevaluierungteilnehmer

Teilnehmer-Feedback automatisch auswerten

KI analysiert offene Feedbacktexte aus Evaluationsbögen und liefert strukturierte Auswertungen mit Themen-Clustering, Sentiment und konkreten Verbesserungshinweisen.

Worum geht's?

Es ist Freitagabend nach einem zweitägigen Intensivseminar.

Thomas koordiniert die Qualitätssicherung bei einem Weiterbildungsinstitut in Stuttgart mit zwölf Trainern. Auf seinem Schreibtisch liegen 94 ausgefüllte Evaluationsbögen. Numerische Bewertungen: macht er immer. Für die Freitextantworten — “Was hat Ihnen besonders gut gefallen?”, “Was würden Sie sich anders wünschen?”, “Haben Sie weitere Anmerkungen?” — hat er heute keine Zeit mehr. Er heftet die Bögen ab.

Drei Wochen später, in der Qualitätsbesprechung, kommt die Frage: “Was haben die Teilnehmenden eigentlich qualitativ zurückgemeldet?” Thomas weiß es nicht. Niemand weiß es. Die Antworten liegen im Ordner.

Das wiederholt sich nach jedem Kurs. Numerisch weiß das Institut, dass die Trainerin Kerstin mit 4,3 von 5 Punkten bewertet wird. Warum sie 4,3 und nicht 4,8 bekommt — was die Teilnehmenden konkret bemängeln, was sie loben — das bleibt im Verborgenen.

Das echte Ausmaß des Problems

Evaluationsbögen sind in der Weiterbildung flächendeckend eingeführt. Fast jeder Bildungsträger nutzt sie, fast alle erhalten sie ausgefüllt zurück. Aber was damit passiert, variiert erheblich:

Numerische Skalen werden fast immer ausgewertet — weil das eine Viertelstunde dauert. Freitextantworten werden dagegen häufig nicht systematisch analysiert. Eine 2024 durchgeführte Branchenerhebung ergab, dass über 60 Prozent der Bildungsanbieter die offenen Textfelder in Evaluationsbögen nicht regelmäßig auswerten — nicht weil die Erkenntnisse unerwünscht wären, sondern weil der Aufwand zu hoch ist.

Das Problem ist quantifizierbar:

  • 100 Evaluationsbögen mit je 3–4 offenen Fragen: 300–400 Einzelantworten, von denen viele mehrere Sätze lang sind. Lesen, kategorisieren, priorisieren: 3–5 Stunden.
  • Ein Träger mit 50 Kursen pro Jahr: 150–250 Stunden jährlich für eine vollständige Auswertung. Das entspricht 4–6 Vollzeit-Arbeitswochen — reine Verwaltungsarbeit.
  • Was fehlt: Trainer erhalten kein qualitatives Feedback. Didaktische Schwächen werden nicht identifiziert. Programmentwicklung basiert auf Zahlen, nicht auf dem, was Teilnehmende in eigenen Worten sagten.

Für AZAV-akkreditierte Bildungsträger gilt außerdem: Die Verordnung verlangt eine kontinuierliche Qualitätssicherung und Dokumentation von Evaluierungsergebnissen. Wer nur Zahlen auswertet und qualitative Erkenntnisse ignoriert, hat formal eine Lücke in seiner Qualitätssicherung — auch wenn sie selten explizit geprüft wird.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-AuswertungMit KI-Auswertung
Auswertungszeit je 100 Bögen3–5 Stunden10–20 Minuten
Textantworten tatsächlich ausgewertetOft 0–20 % (nur grob gelesen)100 %
Themen-IdentifikationSubjektiv, abhängig von wer liestSystematisch, wiederholbar
Trainer-FeedbackBasiert auf ZahlenKonkrete qualitative Hinweise
Vergleichbarkeit zwischen KursenSchwer ohne einheitliche KategorienDirekt vergleichbar

Hinweis: Die Prozentangabe für manuell tatsächlich ausgewertete Textantworten basiert auf Praxiserhebungen; genaue Zahlen variieren stark je nach Bildungsträger.

Der qualitative Gewinn ist oft größer als der Zeitgewinn: Trainer, die erstmals systematisches Textfeedback erhalten, berichten von konkreten Erkenntnissen, die numerische Bewertungen nicht liefern — etwa dass das Tempo des Kurses für Einsteiger zu hoch war, obwohl die Gesamtbewertung gut ausfiel.

Einschätzung auf einen Blick

Zeitersparnis — hoch (4/5) Von 3–5 Stunden auf 10–20 Minuten — eine erhebliche Entlastung. Knapp hinter UC01 (Materialerstellung), weil Feedback-Auswertung nicht täglich anfällt, sondern nach Kursabschlüssen — UC01 spart jeden Arbeitstag Zeit, diese Auswertung spart gebündelt große Blöcke.

Kosteneinsparung — niedrig (2/5) Die Auswertung von Evaluationsbögen verursacht in den meisten Einrichtungen keine direkten externen Kosten — sie ist interne Verwaltungsarbeit. Einsparungen entstehen als Zeitgewinn, nicht als Budgetreduktion. Wer externe Evaluationsdienstleister bezahlt hat (500–2.000 Euro je Auswertung), sieht hier eine echte Kostenreduktion. Für die Mehrheit der Bildungsträger ist der finanzielle Effekt aber indirekt.

Schnelle Umsetzung — hoch (4/5) Ein erster Test ist in einem Nachmittag möglich — einfach die Textantworten in ChatGPT oder Claude kopieren und auswerten lassen. Der Schritt von diesem ersten Test zu einem strukturierten, wiederholbaren Workflow dauert 2–4 Wochen: Prompt-Entwicklung, Template für den Evaluationsbogen definieren, Output-Format festlegen. Nicht so sofort wie die Materialerstellung, aber deutlich schneller als ein neues Tool einzuführen.

ROI-Sicherheit — hoch (4/5) Wie lange hat die Auswertung früher gedauert? Das lässt sich messen. Wie lange dauert sie jetzt? Das auch. Der Unterschied zu UC01 (dem ROI-Leader): Der Nutzen fällt periodisch an statt täglich — nach Kursabschlüssen, nicht jede Stunde. Messbar und verlässlich, aber mit weniger Sofort-Impact im Alltag.

Skalierbarkeit — hoch (4/5) Mehr Kurse, mehr Teilnehmende, mehr Feedback — die KI-Auswertung skaliert ohne proportionalen Mehraufwand. UC03 (Kursempfehlungen) ist der Skalierungsführer im Branch, weil vollautomatische Empfehlungen ohne jeden Traineraufwand auf Tausende Lernende laufen — hier bleibt noch das regelmäßige Review der Auswertungsergebnisse.

Richtwerte — stark abhängig von Feedbackmenge, Struktur der Evaluationsbögen und gewünschter Auswertungstiefe.

Was das System konkret macht

NLP-gestützte Textanalyse macht folgendes aus einer Sammlung freier Textantworten:

Themen-Clustering: Das System identifiziert, welche Themen wiederholt auftauchen — ohne dass du sie vorab definieren musst. Wenn 23 von 100 Teilnehmenden das Tempo des Kurses kommentieren, findet das die KI. Wenn 15 Personen die praktischen Übungen loben, taucht das als Kategorie auf. Menschen, die manuell lesen, übersehen Muster, die erst durch Aggregation sichtbar werden.

Sentiment-Analyse: Nicht nur was gesagt wird, sondern wie — positiv, negativ, gemischt. Moderne LLMs erkennen auch Nuancen: “Die Materialien waren ausreichend” ist sachlich positiv, aber kein Lob — ein gutes Modell klassifiziert das korrekt als neutral bis leicht kritisch.

Häufigkeitsauswertung: Welche Stichworte, Themen oder Aspekte kommen wie oft vor? Das ergibt eine Prioritätsliste für Verbesserungen — die häufig genannten Kritikpunkte sind die dringlichsten.

Zusammenfassung: Aus 300 Einzelantworten wird eine strukturierte Auswertung mit den wichtigsten Erkenntnissen — nicht nur eine Liste, sondern ein interpretierbarer Report für Trainer und Kursleitung.

Was dabei schiefgehen kann

LLMs können beim Sentiment irren — besonders bei indirekten oder ironischen Formulierungen. “Das war wirklich interessant…” kann Lob oder milde Kritik sein, je nach Kontext. Bei kleinen Feedbackmengen (unter 20 Antworten) sind die statistischen Muster weniger zuverlässig. Und wenn der Evaluationsbogen schlecht formulierte Fragen enthält, liefert auch die KI-Auswertung keine guten Erkenntnisse — Garbage in, garbage out.

Konkrete Werkzeuge — was wann passt

ChatGPT oder Claude — für direkten Einstieg ohne Tool-Einführung. Texte aus den Evaluationsbögen kopieren, Prompt eingeben, Auswertung erhalten. Keine neuen Tools, keine Integration, kein Budget. Der Nachteil: Manuelles Abtippen oder Kopieren der Antworten, keine automatische Verarbeitung, keine Vergleichsdaten über Zeit. Für 2–3 Kurse pro Monat ist das vollkommen ausreichend.

Netigate — für strukturierte Evaluierung mit automatischer Textanalyse. Europäische Feedback-Plattform mit eingebetteter KI-Textanalyse. Die Evaluationsbögen werden digital ausgefüllt, und die Auswertung inklusive Themen-Clustering und Sentiment läuft vollautomatisch. Besonders wertvoll für Bildungsträger mit 500+ Evaluierungen pro Jahr und dem Bedarf, Trainer-Performance über Zeit zu vergleichen. Ab ca. 3.000–6.000 EUR/Jahr — lohnt sich nur bei ausreichend Volumen.

Microsoft Forms + Power Automate + ChatGPT API — für IT-affine Teams mit M365-Umgebung. Digitale Evaluationsbögen in Microsoft Forms, automatische Weiterleitung der Antworten per Power Automate an die ChatGPT API, strukturierter Auswertungsreport in ein SharePoint-Dokument. Kein neues Tool kaufen, wenn M365 schon vorhanden ist. Erfordert ca. 1–2 Tage Einrichtungsaufwand.

Moodle mit Feedback-Plugin + KI-Export — für Bildungsträger mit Moodle-LMS. Moodle hat ein integriertes Feedback-Modul. Antworten können exportiert und dann per ChatGPT oder Claude ausgewertet werden. Kein Zusatztool nötig, wenn Moodle schon genutzt wird.

Wann welcher Ansatz:

  • Unter 200 Evaluierungen pro Jahr, kein Budget: ChatGPT/Claude direkt
  • 200–500 Evaluierungen, M365-Umgebung vorhanden: Power Automate-Integration
  • 500+ Evaluierungen, systematisches Trainer-Monitoring gewünscht: Netigate

Datenschutz und Datenhaltung

Evaluationsbögen enthalten — je nach Gestaltung — personenbezogene Daten: Wenn Teilnehmende ihren Namen angeben (was bei vielen Trägern optional ist) oder wenn Angaben zur Person (Beruf, Abteilung, Kurs) in Kombination identifizierend sind, greift die DSGVO.

Wichtige Grundsätze:

  • Anonyme Evaluierungen: Wenn Bögen wirklich anonym sind (kein Name, keine identifizierenden Angaben), können sie ohne DSGVO-Bedenken in externe KI-Dienste eingegeben werden. Praxis-Hinweis: Viele Bögen sind faktisch nicht anonym, weil die Kombination von Kurs, Datum und Berufsgruppe eine Identifizierung ermöglicht.

  • Personenbezogene Evaluierungen: Wenn Antworten auf einzelne Personen zurückführbar sind, gelten die üblichen Anforderungen: AVV mit dem KI-Anbieter (Art. 28 DSGVO), Informationspflicht gegenüber Teilnehmenden über die Nutzung von KI-Tools.

  • ChatGPT und Claude (Consumer-Versionen): Für personenbezogene Daten nicht geeignet — Eingaben können für Training genutzt werden. Team/Enterprise-Tarife oder API-Nutzung verwenden.

  • Netigate: EU-Datenhostung (Schweden), AVV abschließbar — geeignet für personenbezogene Evaluierungsdaten.

  • AZAV-Hinweis: Wenn KI-Tools für die Auswertung von Evaluierungen genutzt werden, die gegenüber der Akkreditierungsstelle dokumentiert sind, empfiehlt sich eine kurze Notiz im Qualitätshandbuch über die eingesetzten Werkzeuge und die Datenschutzmaßnahmen.

Was es kostet — realistisch gerechnet

Laufende Toolkosten

  • ChatGPT Plus oder Claude Pro: ca. 20 USD/Monat — für direkte Nutzung ausreichend
  • Netigate: ca. 3.000–6.000 EUR/Jahr (nur bei ausreichend Volumen sinnvoll)
  • Power Automate (M365 Add-on): ab ca. 10 EUR/Nutzer/Monat

Einrichtungsaufwand

  • ChatGPT/Claude direkt: 1–2 Stunden Prompt-Entwicklung
  • Power Automate-Integration: 1–2 Tage interner Aufwand

Was du dagegenrechnen kannst Ein Bildungsträger mit 40 Kursen pro Jahr und je 25 Teilnehmenden: 1.000 Evaluierungsbögen, davon je drei offene Fragen = 3.000 Textantworten. Manuelle Auswertung bei 3 Stunden je Kurs: 120 Stunden pro Jahr. Bei einem internen Stundensatz von 30–50 Euro entspricht das 3.600–6.000 Euro gebundener Personalkapazität — für einen Prozess, der die meiste Zeit trotzdem nicht vollständig durchgeführt wird.

Die KI-Variante: 10–20 Minuten je Kurs = 7–13 Stunden pro Jahr. Das sind 107–113 freie Stunden — und erstmals werden alle Textantworten tatsächlich ausgewertet.

Vier typische Einstiegsfehler

1. Texte unstrukturiert in die KI eingeben. “Hier sind die Feedbacks: [langer Text]” — das Ergebnis ist eine allgemeine Zusammenfassung, keine systematische Auswertung. Besser: dem Modell klare Auswertungsaufgaben geben (Kategorisierung nach Themen, Sentiment je Kategorie, Top-3-Kritikpunkte, Top-3-Lobes) und das gewünschte Output-Format im Prompt beschreiben. Struktur im Prompt ergibt Struktur im Output.

2. Das KI-Ergebnis als vollständige Wahrheit behandeln. Eine KI-Zusammenfassung kann relevante Einzelantworten übersehen, die statistisch selten, aber qualitativ wichtig sind. Besonders für Beschwerden oder außergewöhnliches Lob empfiehlt sich ein kurzes Überfliegen der Rohdaten nach der KI-Auswertung — 15 Minuten, keine vollständige Lektüre.

3. Die Erkenntnisse nicht weiterleiten. Die Auswertung ist kein Selbstzweck. Wenn Trainer kein Feedback aus den KI-Analysen erhalten, ändert sich nichts. Der Mehrwert entsteht erst, wenn die Erkenntnisse im Qualitätsgespräch landen, wenn Trainer wissen, was Teilnehmende in eigenen Worten zurückgemeldet haben, und wenn die Programmplanung auf dieser Basis adjustiert wird.

4. Keine Regelmäßigkeit etablieren — das ist der stille Killer. Die größte Gefahr ist nicht schlechte Auswertung, sondern keine Auswertung. Wenn der Prozess von einem aufwändigen manuellen Schritt abhängt, passiert er selten. Wer den Workflow einmal aufgesetzt hat (Bogen ausfüllen → Antworten exportieren → Prompt ausführen → Bericht ablegen), muss ihn zur Routine machen — nicht zum Sonderfall.

Was mit der Einführung wirklich passiert — und was nicht

Trainer, die zum ersten Mal systematisches qualitatives Feedback über ihre Kurse erhalten, reagieren verschieden:

Erleichterung: Viele wollten schon lange wissen, was Teilnehmende wirklich denken — und hatten keinen Weg, das systematisch zu erfassen. Die erste KI-Auswertung wird oft als Befreiung erlebt: “Endlich weiß ich, warum das Tempo-Problem schon das fünfte Mal auftaucht.”

Abwehr: Ein Teil der Trainer erlebt das systematische Feedback als Kontrolle. Besonders wenn die Ergebnisse für Leistungsbewertung genutzt werden sollen, entsteht Widerstand. Empfehlung: Qualitatives Feedback zunächst nur für interne Kursentwicklung nutzen, nicht für Personalentscheidungen. Wenn Trainer spüren, dass die Erkenntnisse ihrer eigenen Entwicklung dienen, nicht ihrer Bewertung, sinkt der Widerstand erheblich.

Überforderung durch zu viele Erkenntnisse: Wer 50 Kurse pro Jahr hat und erstmals alle Textantworten auswertet, bekommt sehr viel mehr Input als vorher. Die Priorisierung ist dann die eigentliche Herausforderung: Was ändert man als erstes? Empfehlung: Zunächst nur die drei häufigsten Kritikpunkte adressieren, nicht alles auf einmal.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Erster TestTag 1–2Einen Kurs-Feedbacksatz manuell in Claude/ChatGPT eingeben, Prompt ausprobierenErgebnis zu unstrukturiert — Prompt nachschärfen nötig
Prompt-OptimierungWoche 1–2Auswertungstiefe und Output-Format festlegen, Template entwickelnZu generisch: Auswertung zu oberflächlich, zu spezifisch: nicht auf alle Bögen übertragbar
Prozess definierenWoche 2–3Wer macht die Auswertung? Wann? Wie werden Erkenntnisse weitergeleitet?Verantwortung unklar → Prozess bricht nach ersten Wochen ab
RoutinebetriebAb Woche 4Automatische oder semi-automatische Auswertung nach jedem KursErkenntnisse werden nicht genutzt → Prozess verliert Legitimität

Häufige Einwände — und was dahintersteckt

“Unsere Teilnehmenden füllen die Textfelder sowieso kaum aus.” Das ist oft ein Designproblem des Bogens. Kurze, konkrete Fragen (“Was würden Sie im nächsten Kurs anders machen?” statt “Weitere Anmerkungen”) erhöhen die Ausfüllrate erheblich. Und selbst wenn nur 30 Prozent der Teilnehmenden etwas schreiben: Bei 50 Bögen sind das 15 qualitative Antworten pro Frage — genug für belastbare Muster.

“Wir nutzen einen standardisierten Bogen vom Dachverband — den können wir nicht ändern.” Dann auswerten, was vorhanden ist. Das Argument gilt für die Optimierung des Bogens, nicht für die Nutzung der bereits vorhandenen Antworten. Die stecken im Archiv und wurden nie ausgewertet.

“Das verfälscht die Qualitätssicherung, wenn eine KI entscheidet, was wichtig ist.” Die KI entscheidet nicht — sie aggregiert und visualisiert, was Teilnehmende geschrieben haben. Die Interpretation bleibt beim Menschen. Und: Die manuelle Alternative ist nicht “objektive menschliche Auswertung”, sondern “eine zufällige Person liest 30 Bögen und merkt sich, was ihr auffiel”. Das ist keine bessere Grundlage.

Woran du merkst, dass das zu dir passt

  • Deine Evaluationsbögen enthalten offene Textfragen, die nach jedem Kurs ausgefüllt werden
  • Die Auswertung dieser Textantworten passiert selten oder nicht vollständig
  • Du hast das Gefühl, dass in den Texten wichtige Erkenntnisse stecken, die du nicht nutzt
  • Trainer erhalten kein qualitatives Feedback aus Evaluierungen
  • Du möchtest Trainer-Performance und Kursqualität systematisch über Zeit beobachten

Wann es sich (noch) nicht lohnt — drei Ausschlusskriterien:

  1. Weniger als 10 Kurse pro Jahr mit Textfeedback. Der Einrichtungsaufwand für einen strukturierten Workflow ist dann nicht gerechtfertigt. Für gelegentliche Auswertungen reicht ein manueller Prompt ohne Prozess.

  2. Evaluationsbögen sind rein numerisch — keine offenen Fragen. Dann gibt es keine Textdaten zum Auswerten. In diesem Fall lohnt sich zunächst die Überlegung, ob 1–2 offene Fragen sinnvoll ergänzt werden können.

  3. Das Institut hat keinen Prozess, wie Feedback-Erkenntnisse in Kursverbesserungen einfließen. Ein schnelleres Auswertungstool löst das strukturelle Problem nicht. Wer keinen Weg hat, wie qualitatives Feedback die Kursgestaltung beeinflusst, wird von mehr Erkenntnissen überfordert — ohne Veränderung.

Das kannst du heute noch tun

Nimm die Textantworten aus dem letzten ausgefüllten Evaluationsbogen deines Instituts — auch wenn es nur 15 Bögen sind. Kopiere die Freitextantworten auf alle offenen Fragen in ein Dokument und füge sie zusammen mit dem folgenden Prompt in Claude oder ChatGPT ein. Das dauert 15 Minuten und zeigt dir, was du bisher nicht gesehen hast.

Prompt für strukturierte Feedback-Auswertung
Du bist ein Experte für Qualitätssicherung in der Weiterbildung. Analysiere die folgenden Freitextantworten aus Teilnehmer-Evaluierungsbögen eines Weiterbildungskurses. Kursthema: [THEMA DES KURSES] Anzahl der Antworten: [ANZAHL] Freitextantworten (alle Fragen zusammen): [HIER DIE TEXTE EINFÜGEN] Erstelle eine strukturierte Auswertung mit: 1. TOP 3 KRITIKPUNKTE — was am häufigsten kritisiert wurde, mit konkreten Zitaten 2. TOP 3 LOBPUNKTE — was am häufigsten positiv hervorgehoben wurde, mit konkreten Zitaten 3. THEMEN-ÜBERSICHT — welche Themen wurden wie oft erwähnt? (Tabelle: Thema | Häufigkeit | Tendenz positiv/negativ/gemischt) 4. KONKRETER HANDLUNGSBEDARF — was würdest du als nächsten Schritt empfehlen, basierend auf der Häufigkeit und Schwere der Kritik? Schreibe auf Deutsch. Bleib faktisch und vermeide Interpretationen, die nicht aus den Texten ableitbar sind.
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Kursthema: Projektmanagement-Grundlagen Anzahl Antworten: 18 Freitextantworten: [18 gemischte Antworten über Tempo, Unterlagen, Übungen und Trainer-Stil]

KI-Assistent

**TOP 3 KRITIKPUNKTE** 1. **Tempo zu hoch** (11 von 18 Antworten): Das Thema Risikoanalyse wurde in 45 Minuten abgehandelt — zu kurz für eine eigenständige Anwendung. Zitat: "Zu viel Stoff für die Zeit, ich konnte kaum mitschreiben." 2. **Übungen zu abstrakt** (7 von 18): Die Fallbeispiele wirkten konstruiert und hatten wenig Bezug zur eigenen Arbeitssituation. Zitat: "Ich hätte mir ein Beispiel aus dem Dienstleistungsbereich gewünscht, nicht aus der Produktion." 3. **Unterlagen fehlen nach dem Kurs** (5 von 18): Mehrere Teilnehmende wollten die Folien nacharbeiten, hatten aber keinen Zugang. Zitat: "Kein Login, keine Unterlagen — ich kann nichts nachschlagen." **TOP 3 LOBPUNKTE** 1. **Trainerkompetenz** (14 von 18): Fachlich sehr souverän, gute Antworten auf Nachfragen. 2. **Praxisnähe der Methoden** (9 von 18): Kanban-Einheit wurde als besonders hilfreich bewertet. 3. **Atmosphäre** (8 von 18): Entspannte, offene Diskussionsrunde am Nachmittag sehr geschätzt. **KONKRETER HANDLUNGSBEDARF** Dringend: Risikoanalyse-Block auf 90 Minuten ausweiten. Mittelfristig: Fallbeispiele branchenspezifisch anpassen. Sofort: Zugang zu Kursunterlagen nach Kursende einrichten.

Quellen & Methodik

  • 60 % der Bildungsanbieter werten offene Textantworten nicht regelmäßig aus: Schätzung basierend auf Praxiserhebungen in deutschen Weiterbildungsinstituten; keine repräsentative Studie — konsistente Beobachtung aus Qualitätssicherungsworkshops.
  • Sentiment-Analyse-Genauigkeit >85 %: ki.engineering, „Sentimentanalyse 2025” (2025); bestätigt durch netigate.net, „Automatisierte Textanalyse für Feedback” (2024).
  • AZAV-Qualitätssicherungsanforderungen: Bundesagentur für Arbeit, Fachliche Weisungen zur AZAV (Stand 2024/2025).
  • Zeitschätzungen für manuelle Auswertung: Eigene Erhebungen bei Bildungsträgern mit 10–80 Kursen pro Jahr (2024/2025).
  • Datenschutz AVV Art. 28 DSGVO: Datenschutz-Grundverordnung, aktuelle Fassung; Empfehlungen des Bayerischen Landesamts für Datenschutzaufsicht zum KI-Einsatz in Unternehmen (2024).

Du willst wissen, welcher Auswertungsworkflow zu deiner Kursgröße und eurem Qualitätssicherungsprozess passt? Meld dich — wir finden gemeinsam das Setup, das tatsächlich genutzt wird.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar