KI-Unterstützung bei Projektarbeiten und Kompetenzportfolios
KI begleitet Schülerinnen durch mehrwöchige Projektarbeiten mit formativem Feedback zu Argumentationslogik, Gliederung und Quellennutzung — und unterstützt beim strukturierten Aufbau von Kompetenzportfolios. Vor dem finalen Lehrkraft-Urteil.
- Problem
- Schülerinnen bei komplexen, mehrwöchigen Projektarbeiten individuell zu begleiten, kostet mehr Lehrkraftzeit, als im Schulbetrieb verfügbar ist. Qualität variiert stark — abhängig davon, ob Eltern Korrekturhilfe leisten können.
- KI-Lösung
- KI gibt formatives Feedback zu Zwischenständen: überprüft Argumentationslogik, identifiziert fehlende Quellen, schlägt Strukturverbesserungen vor. Als Lernunterstützung, nicht als Textersatz.
- Typischer Nutzen
- Projektarbeitsqualität im Klassendurchschnitt verbessern, Benachteiligung durch ungleiche Elternunterstützung reduzieren, Lehrkraft-Feedback auf die inhaltliche Tiefendimension konzentrieren.
- Setup-Zeit
- Einstieg mit Fobizz oder ChatGPT + Rubrik in einer Unterrichtsstunde möglich
- Kosteneinschätzung
- Keine direkten Kosten — Wirkung ist Qualitätssteigerung, nicht Geldersparnis
Es ist Freitagnachmittag, drei Wochen vor Abgabetermin der Seminarfacharbeit.
Lea, 17 Jahre, sitzt vor einem halbfertigen Google-Dokument. Die Gliederung steht — irgendwie. Der erste Abschnitt ist zweimal so lang wie alle anderen zusammen. Die Quellenangabe im zweiten Teil ist ein YouTube-Link ohne Titel. Und die Kernthese, die sie in der Einleitung formuliert hat, taucht im Fazit in einer anderen Variante auf, die inhaltlich nicht ganz dasselbe behauptet.
Leas Mutter ist Lehrerin, hat die Arbeit aber noch nicht gelesen. Ihr Vater ist Logistiker und findet: „Klingt doch gut.” Ihre Mitschülerin Amira sitzt im selben Kurs — aber Amiras Bruder studiert im vierten Semester und hat bereits drei Stunden mit ihr über Argumentationsstruktur gesprochen.
In zehn Tagen hat Deutschlehrerin Stefanie Hollweg eine kurze Sprechstunde für alle 24 Schülerinnen angesetzt. Das macht zwölf Minuten pro Person — wenn alles pünktlich ist. Das reicht für ein Wort zur Gliederung, nicht für eine echte Rückmeldung zur Argumentationslogik.
Dieses strukturelle Problem löst kein noch so engagierter Lehrkörper durch mehr Fleiß. Es ist der Moment, in dem KI-Feedback einen echten Unterschied macht — nicht weil die KI klüger ist als Stefanie Hollweg, sondern weil sie rund um die Uhr verfügbar ist und in zwei Minuten eine erste strukturierte Rückmeldung liefert, die Lea etwas Zeit kauft, um ihre Arbeit wirklich zu überarbeiten, bevor sie in die Sprechstunde geht.
Das echte Ausmaß des Problems
Projektarbeiten, Seminarfacharbeiten und Kompetenzportfolios sind das anspruchsvollste Format, das die meisten Schulen für die individuelle Leistungsbeurteilung kennen. Sie dauern Wochen, erfordern eigenständige Recherche, Quellenarbeit, Argumentation — und fallen oft in eine Zeit, in der Lehrkräfte im normalen Schulbetrieb kaum Kapazität für kontinuierliche Einzelbegleitung haben.
Das Ergebnis ist systematische Ungleichheit: Wer zu Hause jemanden hat, der Texte beurteilen, Gliederungen kommentieren und Quellen einschätzen kann, erbringt im Schnitt bessere Projektarbeiten als Schülerinnen ohne dieses Netz. Das ist kein Vorwurf gegenüber Familien — es ist eine strukturelle Schwäche des Formats.
Laut PISA-Auswertungen für Deutschland hat die sozioökonomische Herkunft einen der stärksten Einflüsse auf Schülerleistungen im internationalen Vergleich — auch bei aufwändigen Schreibaufgaben. Der KMK-Bericht 2024 zur Bildungsgerechtigkeit dokumentiert, dass Schülerinnen aus akademischen Haushalten im Schnitt deutlich mehr qualifizierte Textunterstützung außerhalb der Schule erhalten.
Das zweite, oft übersehene Problem: Lehrkräfte erhalten oft nur das Endprodukt zur Bewertung — und sehen nicht, was unterwegs passiert wäre, wenn jemand nach der dritten Gliederungsversion nachgefragt hätte. Formatives Feedback, das während des Arbeitsprozesses gegeben wird, verbessert nachweislich die Qualität von Endprodukten — eine Meta-Studie von Deng et al. (Dezember 2024) über 1.600 Studien zur KI im Bildungskontext zeigt eine Effektstärke von d = 0,62 für KI-unterstütztes Lernen unter didaktisch kontrollierten Bedingungen.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit KI-Feedback-Unterstützung |
|---|---|---|
| Individuelles Zwischen-Feedback für jede Schülerin | Selten möglich — 12 min./Person Sprechstunde | Jederzeit, unbegrenzt, sofort |
| Verbesserungsschritte vor Abgabe | Ø 1–2 (wenn überhaupt) | 3–5 dokumentierte Überarbeitungsrunden |
| Qualitätsstreuung innerhalb der Klasse | Stark abhängig von Elternunterstützung | Schere messbar kleiner (Praxisbericht Fobizz-Nutzende) |
| Lehrkraft-Feedback-Qualität | Auf formale Mängel verteilt | Auf inhaltliche Tiefe fokussiert |
| Chancengerechtigkeit | Stark elternabhängig | Moderiert durch niedrigschwelligen Zugang |
¹ Eigene Beobachtungen aus Schulprojekten mit Fobizz-Einsatz (2024); keine repräsentative Studie, aber konsistentes Muster über mehrere Klassen.
Projektarbeit vs. Kompetenzportfolio — zwei unterschiedliche Anwendungsfälle
Diese beiden Formate werden im Schulalltag oft in einem Atemzug genannt, verlangen aber fundamental anderen KI-Einsatz.
Projektarbeit: Ein zeitlich begrenztes Dokument mit These, Recherche, Argumentation und Fazit. Die KI-Unterstützung ist hier prozessbegleitend: Feedback auf Gliederungsentwürfe, Argumentation, Quellennutzung und sprachliche Kohärenz. Die Frage, die die KI beantworten soll, lautet: “Was fehlt noch, was ist unklar, was widerspricht sich?”
Kompetenzportfolio: Eine kontinuierliche Sammlung von Nachweisen, dass eine Person bestimmte Kompetenzen entwickelt hat — oft über ein Schuljahr oder länger. Hier geht es weniger um Textqualität als um Reflexion und Strukturierung: Welche Kompetenz soll mit welchem Beleg nachgewiesen werden? Ist die Selbstreflexion konkret oder bleibt sie allgemein? Hat die Person deutlich gemacht, was sie aus einer Erfahrung gelernt hat — nicht nur, was sie gemacht hat?
Für Projektarbeiten eignen sich alle gängigen LLM-basierten Feedback-Tools. Für Kompetenzportfolios ist ein anderer Prompt nötig: Die KI bekommt die Kompetenzstruktur (z.B. ein Kompetenzraster) als Kontext und gibt Feedback, ob die dokumentierten Belege zu den beschriebenen Kompetenzen passen — und wo die Reflexion zu dünn bleibt.
Das ist eine andere Aufgabe. Wer beides in dasselbe System wirft, ohne den Prompt anzupassen, bekommt für das Portfolio generisches Schreibfeedback, das an der eigentlichen Aufgabe vorbeizielt.
Einschätzung auf einen Blick
Zeitersparnis — hoch (4/5)
Der deutlichste Hebel: Zwischenfeedback-Runden, die Lehrkräfte bislang in Sprechstunden oder als E-Mail-Korrespondenz abgewickelt haben, entfallen weitgehend. Was bleibt, ist das wertvolle inhaltliche Gespräch — das, was zwölf Minuten Sprechstunde sinnvoll macht, anstatt für formale Grundprobleme zu verbrauchen. Im Vergleich zu anderen Anwendungsfällen dieser Kategorie — etwa der Verwaltungsdokumentation — wirkt die Zeitersparnis pro Feedback-Runde kleiner, aber multipliziert sich auf 24 Schülerinnen stark.
Kosteneinsparung — sehr niedrig (1/5)
Weder spart die Schule direkt Geld, noch wird eine Stelle eingespart. Die Wirkung ist pädagogisch, nicht fiskalisch. Fobizz kostet 119 €/Jahr pro Lehrkraft (Tools-Flatrate) — das ist die einzig sinnvoll vergleichbare Zahl. In den meisten Bundesländern trägt das entweder der Schulträger oder die Lehrkraft selbst. Kosteneinsparung im eigentlichen Sinne findet nicht statt.
Schnelle Umsetzung — hoch (4/5)
Mit Fobizz oder direkt über ChatGPT und einem gut konfigurierten Feedback-Prompt kann eine erste Version in einer Unterrichtsstunde einsatzbereit sein — kein IT-Setup, keine Schülerkonten zwingend notwendig, kein Schulleiter-Genehmigungsmarathon (sofern ein Tool mit AVV gewählt wird). Die Einstiegshürde ist niedriger als bei fast allen anderen Anwendungsfällen in dieser Kategorie.
ROI-Sicherheit — mittel (3/5)
Der Nutzen ist real, aber der Nachweis ist schwierig. Lernleistung ist kein Messobjekt wie eine Fehlerrate. Eine 2025 veröffentlichte Meta-Analyse (41 Studien, ca. 4.800 Lernende) zeigt: KI-Feedback erzeugt keine signifikant besseren Lernergebnisse als menschliches Feedback — aber der Zeitgewinn für Lehrkräfte ist messbar, und die Reduzierung von Qualitätsstreuung innerhalb einer Klasse ist beobachtbar. Wer ROI in Euro messen will, findet hier wenig; wer ROI in Unterrichtsqualität denkt, findet Belege.
Skalierbarkeit — hoch (4/5)
Die KI arbeitet parallel für alle Schülerinnen gleichzeitig — kein Unterschied, ob zehn oder fünfzig Projektarbeiten eingereicht werden. Das ist der strukturelle Vorteil gegenüber menschlichem Feedback. Nicht ganz maximal bewertet, weil der Setup-Aufwand pro Aufgabentyp (Prompt, Rubrik) trotzdem bei der Lehrkraft liegt und bei neuen Projekten neu konfiguriert werden muss.
Richtwerte — stark abhängig von Schulform, gewähltem Tool und didaktischem Konzept der Lehrkraft.
Was das System konkret macht
Der Mechanismus hinter KI-Feedback für Projektarbeiten ist im Kern einfach: Eine Generative KI erhält drei Dinge gleichzeitig:
- Den Schülertext (Gliederung, Abschnitt, Zwischenstand)
- Die Aufgabenstellung (was die Schülerin leisten soll)
- Die Bewertungsrubrik (nach welchen Kriterien die Lehrkraft später bewertet)
Auf dieser Grundlage gibt die KI formatives Feedback — kein abschließendes Urteil, sondern gezielte Hinweise: “Der zweite Abschnitt führt ein neues Argument ein, ohne es mit der Ausgangsthese zu verbinden — überleg, ob du einen Übergang brauchst.” Oder: “Die Quelle in Fußnote 3 ist nicht vollständig angegeben — Verlag und Erscheinungsjahr fehlen.”
Was sie nicht tut: den Text neu schreiben. Gutes KI-Feedback für Lernzwecke ist anweisend, nicht produzierend. Es zeigt die Lücke und fragt nach der Lösung der Schülerin — nicht nach der eigenen.
Für Kompetenzportfolios ist der Kontext ein anderes Dokument: das Kompetenzraster oder der Bewertungsrahmen der Schule. Die KI prüft dann, ob ein Portfolioeintrag (“Ich habe in der AG Schach gelernt, strategisch zu denken”) eine ausreichende, konkrete Reflexion darstellt — oder ob er zu allgemein bleibt und konkreter Belege bedürfte.
KI als Lernunterstützung vs. Täuschungsversuch — die entscheidende Trennlinie
Das ist die Frage, die Schulleitungen, Eltern und Lehrkräfte am häufigsten stellen — und die selten klar genug beantwortet wird.
Erlaubt: Formatives Feedback einholen, das auf eigene Texte angewendet wird. Konkret: Die Schülerin schreibt selbst, reicht einen Zwischenstand ein und bekommt Rückmeldung zu Struktur und Argumentation. Sie überarbeitet dann selbst. Das ist pädagogisch dasselbe wie eine Sprechstunde bei der Lehrkraft — nur verfügbarer.
Nicht erlaubt: Die KI schreibt ganze Abschnitte oder formuliert Argumente, die die Schülerin dann als eigene Leistung einreicht. Das ist nach deutschem Prüfungsrecht ein Täuschungsversuch — das Verwaltungsgericht Kassel hat im Februar 2026 zwei entsprechende Entscheidungen der Universität Kassel bestätigt.
Die Grauzone: “Ich habe die KI gebeten, meinen Abschnitt ‘sprachlich zu verbessern’.” Das ist ein echter Grenzfall. Hier hilft eine schulinterne AI Policy, die festlegt: Wie muss KI-Nutzung in der Arbeit deklariert werden? Welche Nutzungsformen sind mit Deklaration erlaubt?
Was Lehrkräfte tun können: Den Unterschied in der Aufgabenstellung verankern. Wer “schreib einen argumentativen Aufsatz” fragt, lädt zur KI-Nutzung ein. Wer “beschreibe, wie du zu deiner These gekommen bist, und welche drei Quellen dich dabei überzeugend gemacht haben” fragt, fordert Reflexion, die KI nicht abnehmen kann.
Formatives KI-Feedback macht diesen Unterschied leichter zu kommunizieren — weil es das Gespräch von “hast du KI benutzt?” auf “hat dich das Feedback zu einer Überarbeitung bewegt?” verlagert. Der Prozess wird sichtbar, nicht nur das Endprodukt.
Konkrete Werkzeuge — was wann passt
Fobizz KI-Feedback — Die erste Wahl für Schulen in Deutschland, die auf der sicheren Seite sein wollen. Daten auf deutschen Servern, AVV standardmäßig verfügbar, keine Schüleranmeldung für viele Szenarien notwendig. Das Feedback-Tool erlaubt, Aufgabenstellung und Kriterien zu hinterlegen; Schülerinnen reichen per Link oder QR-Code ein. Preis: 119 €/Jahr Tools-Flatrate (Einzelperson) oder ab 500 €/Jahr Schullizenz. In mehreren Bundesländern über Staatslizenzen kostenlos. Einschränkung: weniger flexibel als direkter LLM-Zugang; bleibt bei inhaltlichen Fehlern (falsche Fakten) oft blind.
Fiete.ai — Spezialisierte KI-Feedback-Plattform mit iterativem Ansatz. Schülerinnen sehen nach Überarbeitung, ob sie sich verbessert haben — mit Fortschrittsbalken und mehreren Einreichungsrunden. Lehrkraft-Dashboard zeigt alle Einreichungen. EU-Serverinfrastruktur. Besonders geeignet für Projektarbeiten mit explizitem Überarbeitungsprozess als Lernziel. Preis: Schullizenzen auf Anfrage.
ChatGPT mit konfiguriertem Feedback-Prompt — Flexibelster Ansatz für Lehrkräfte mit etwas Prompt-Erfahrung. Die Stärke: vollständig anpassbar auf jedes Fach, jede Rubrik, jeden Projekttyp. Die Schwäche: Datenhaltung in den USA, kein AVV für Standardpläne — das macht den Schülereinsatz in Deutschland rechtlich problematisch, solange Schülerinnen personenbezogene Daten eingeben. Sinnvoll für: Lehrkräfte, die Feedback für eigene Unterrichtsplanung testen, oder für Pilotprojekte mit datenminimierten (anonymisierten) Texten.
Claude — Besonders gut für längere, komplexere Texte. Das Kontextfenster fasst sehr lange Dokumente, und die Feedbackqualität bei argumentativen Texten ist überdurchschnittlich präzise. Gleiches Datenschutzproblem wie ChatGPT für den direkten Schülereinsatz. Sinnvoll für Oberstufe und Seminarfacharbeiten, wo längere Texte mit komplexer Argumentationsstruktur geprüft werden sollen.
MagicSchool AI — Breites Werkzeugset für Lehrkräfte, das die Aufgabenstellung und Rubrikerstellung (nicht nur das Feedback) unterstützt. Nur auf Englisch. Datenhaltung USA. Für den direkten Schülereinsatz an deutschen Regelschulen nicht geeignet — für Lehrkräfte als Planungswerkzeug aber sehr produktiv.
Zusammenfassung: Wann welcher Ansatz
- Schulweiter DSGVO-konformer Einsatz → Fobizz
- Iterativer Überarbeitungsprozess als Lernziel → Fiete.ai
- Flexibler Pilot mit anonymisierten Texten → ChatGPT oder Claude mit Feedback-Prompt
- Lehrkraft-Unterstützung für Aufgaben- und Rubrikentwicklung → MagicSchool AI
DSGVO-Besonderheiten bei minderjährigen Schülerinnen
Schülerinnen sind in der Mehrzahl Minderjährige. Das macht den Datenschutz im Schulkontext komplizierter als bei erwachsenen Nutzern — und es gibt schulspezifische Regeln, die über den Standard-DSGVO-Hinweis “AVV anfordern” weit hinausgehen.
Art. 8 DSGVO und die Schulausnahme: Für Onlinedienste, die sich direkt an Kinder richten, gilt ab Alter 16 die Einwilligungspflicht der Eltern (in Deutschland: Länder können das Alter auf 13 senken). Im schulischen Kontext greift jedoch eine Ausnahme: Wenn die Nutzung durch die Schule als Institution legitimiert ist und auf einer Rechtsgrundlage (Erfüllung pädagogischer Aufgaben) basiert, braucht es keine individuelle Elterneinwilligung — das hat auch der Landesdatenschutzbeauftragte Rheinland-Pfalz bestätigt. Die Schule trägt dann aber die Verantwortung für die datenschutzkonforme Auswahl des Tools.
Keine personenbezogenen Daten in Prompts: Das wichtigste praktische Gebot — und das am häufigsten verletzte. Schülerinnen dürfen in KI-Feedback-Tools keine Texte eingeben, die Namen, Adressen, biographische Details oder andere personenbezogene Informationen enthalten, sofern kein EU-AVV vorliegt. Bei Kompetenzportfolios ist das kritisch: Portfolioeinträge enthalten oft persönliche Erlebnisse. Lehrkräfte müssen hier explizit anleiten, wie Texte für den KI-Einsatz anonymisiert werden.
AVV ist Pflicht — nicht Kür: Schulen, die KI-Tools für Schülerinnen einsetzen, müssen mit dem Anbieter einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO abschließen. Fobizz stellt diesen standardmäßig aus. ChatGPT und Claude stellen AVV erst ab Business-/Enterprise-Plänen aus. Für Schulen bedeutet das: Direktnutzung von Standard-ChatGPT für den Schülereinsatz ist rechtlich nicht abgesichert.
Datenschutzfolgenabschätzung bei hohem Risiko: Wenn personenbezogene Daten vieler Minderjähriger systematisch durch ein externes System verarbeitet werden sollen, kann nach Art. 35 DSGVO eine DSFA (Datenschutzfolgenabschätzung) erforderlich werden — das entscheidet der Datenschutzbeauftragte der Schule oder des Schulträgers.
Praktische Empfehlung: Für den Schulbetrieb ist Fobizz die einfachste DSGVO-konforme Lösung — AVV inklusive, deutsche Server, keine Schülerkonten erforderlich. Wer generische LLM-Tools einsetzen will, arbeitet mit anonymisierten Texten (Namen und Personenreferenzen entfernen) oder über Schul-Rahmenverträge, die ein AVV enthalten.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
- Fobizz-Einzellizenz (Lehrkraft): 119 €/Jahr
- Fobizz-Schullizenz (ab 5 Personen): ab 500 €/Jahr
- Staatslizenz (Bayern, Rheinland-Pfalz, Thüringen u.a.): kostenlos — erst prüfen!
- Setup-Zeit für Rubrik-Entwicklung und Prompt-Konfiguration: 2–4 Stunden pro Lehrkraft, einmalig
Laufende Kosten (monatlich)
- Fobizz Tools-Flatrate: entspricht ca. 10 €/Monat
- ChatGPT Plus für Lehrkraft (Pilotprojekte): 20 USD/Monat
- Fiete.ai Schullizenz: auf Anfrage (Größenordnung vergleichbar mit Fobizz)
Direkter Kostenvergleich im Bildungsbereich: Die direkte Kosteneinsparung in Euro ist im Bildungsbereich fast nicht messbar — keine Stelle wird eingespart, keine Lizenz abgelöst. Der Nutzen liegt in pädagogischer Qualität und Zeitverteilung der Lehrkraft. In privaten Nachhilfestudios, die Projektarbeit-Coaching anbieten, kostet eine Einzelsitzung 40–80 €/Stunde. KI-Feedback gibt vergleichbare Erstorientierung für Bruchteile dieser Kosten — der relevante Maßstab ist: Wie viel Chancengerechtigkeit kann die Schule durch den Einsatz herstellen?
Wie du den Nutzen tatsächlich misst: Vor der Einführung: Notendurchschnitt der Klasse bei Projektarbeiten, Streuung (Standardabweichung), und Anteil der Schülerinnen, die zu Sprechstunden kommen. Nach einem Schuljahr: dieselben Werte. Ein zuverlässigerer kurzfristiger Indikator ist die Nutzungsrate: Wie viele Schülerinnen nutzen das Feedback-Tool aktiv, wie viele Überarbeitungsrunden drehen sie im Schnitt?
Drei typische Einstiegsfehler
1. Feedback-Tool ohne klare Rubrik einsetzen. “Gib Feedback zu dieser Projektarbeit” — ohne Bewertungskriterien. Das Ergebnis ist generisches Feedback zu Sprache und Struktur, das für jede Arbeit gleich klingt und wenig mit dem zusammenhängt, was die Lehrkraft am Ende tatsächlich bewertet. Lösung: Immer die konkrete Bewertungsrubrik in den System-Prompt oder die Tool-Konfiguration eintragen. Das dauert 20 Minuten — und macht den Unterschied zwischen sinnlosem und echtem formativem Feedback.
2. Schülerinnen nutzen KI-Feedback, um den Text zu verbessern — aber nicht ihren Text. Das klassische Missverständnis: Die Schülerin fragt “Was soll ich schreiben?” statt “Was stimmt an meinem Entwurf nicht?” Das Tool schreibt einen Abschnitt neu — und die Schülerin übernimmt ihn. Das passiert nicht böswillig, sondern weil der Unterschied zwischen formativem Feedback und Ghostwriting für viele Schülerinnen nicht klar kommuniziert wurde. Lösung: Explizit in der Aufgabenstellung festhalten: “Das Tool darf Hinweise geben, aber keine vollständigen Sätze vorschlagen. Zeige mir in einer kurzen Notiz, wie du auf das Feedback reagiert hast.”
3. KI erkennt inhaltliche Fehler nicht — und das bleibt unbemerkt. Ein Praxistest von FelloFish (2025) mit drei KI-Feedback-Tools (darunter Fobizz und Fiete.ai) zeigte: Alle Tools erkannten sachlich falsche Aussagen und anachronistische Passagen in Texten nicht. Eine iPhone-Erwähnung in einem Drama des 18. Jahrhunderts — unbemerkt. Das ist der kritische blinde Fleck: KI-Feedback eignet sich für formale und strukturelle Rückmeldungen, nicht für Faktenprüfung. Wer das nicht kommuniziert, erzeugt falsche Sicherheit. Schülerinnen, die wissen “mein Feedback war gut”, können trotzdem inhaltliche Fehler eingebaut haben. Das Lehrkraft-Feedback muss inhaltliche Richtigkeit explizit abdecken — das übernimmt kein Tool.
Was mit der Einführung wirklich passiert — und was nicht
Die Technik ist schnell aufgesetzt. Das eigentliche Thema ist Vertrauen — auf beiden Seiten.
Schülerinnen nehmen KI-Feedback sehr unterschiedlich an. Wer gewohnt ist, Feedback von Lehrkräften als finales Urteil zu erleben, findet den iterativen Charakter von KI-Feedback zunächst seltsam: “Ich soll das jetzt drei Mal einreichen?” Der Schlüssel ist, den Unterschied zwischen formativem Feedback (lernen) und summativem Urteil (bewerten) explizit zu machen — am besten vor dem ersten Einsatz, mit einem konkreten Beispiel im Klassenverband.
Eltern reagieren manchmal mit Skepsis. “Darf die KI das eigentlich beurteilen?” ist eine berechtigte Frage. Wer vorab einen kurzen Brief mit der Erklärung schickt, was das Tool macht (und nicht macht), verhindert Eskalationen im Elterngespräch. Der Satz “Wir nutzen ein Feedback-Tool wie eine automatisierte Sprechstunde — die Bewertung liegt weiterhin vollständig bei der Lehrkraft” ist das, was Eltern beruhigt.
Lehrkräfte, die das Tool einführen, erleben zunächst Mehrarbeit. Rubrik aufsetzen, Schülerinnen einweisen, erste Rückmeldungen validieren — das dauert zwei bis drei Unterrichtsstunden im Pilotklassen-Modus. Ab dem zweiten Projektarbeitszyklus kehrt sich das um. Plane den Piloten explizit als “investierte Zeit”, nicht als sofortige Entlastung.
Was konkret hilft:
- Start mit einer Klasse und einer Projektarbeit — nicht gleich jahrgangsübergreifend
- Schülerinnen das Tool in der Unterrichtsstunde ausprobieren lassen, nicht als Hausaufgabe
- Explizit definieren, was mit dem KI-Feedback zu tun ist (z.B. “Schreib drei Sätze, wie du auf die Rückmeldung reagiert hast”)
- Nach der ersten Runde Feedback einholen: Was war hilfreich, was nicht?
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Werkzeugauswahl und Setup | Woche 1 | Tool wählen, AVV prüfen, Rubrik entwickeln, Muster-Prompt testen | Rubrik zu allgemein — Feedback bleibt generisch |
| Pilotklasse einweisen | Woche 2 | Aufgabenstellung erklären, Grenzen kommunizieren (formatives Feedback ≠ Ghostwriting), erste Einreichung | Schülerinnen verstehen den Unterschied nicht — braucht explizite Modellierung |
| Erste Feedback-Runde | Woche 2–4 | Schülerinnen reichen Zwischenstände ein und überarbeiten | Tool erkennt Inhaltsfehler nicht — Lehrkraft muss inhaltliche Kontrolle behalten |
| Auswertung Pilotklasse | Woche 5 | Nutzungsrate, Überarbeitungstiefe, Qualitätsdifferenz zur Vorjahresklasse | Geringe Nutzungsrate — Schülerinnen nutzen das Tool nicht selbstständig |
| Rollout auf weitere Klassen | ab Monat 2 | Zweite Klasse integrieren, Rubrik anpassen | Mehrere Lehrkräfte mit unterschiedlichen Erwartungen — Abstimmung nötig |
Häufige Einwände — und was dahintersteckt
“Die KI übernimmt das Schreiben.” Der Einwand ist berechtigt — aber er trifft das Tool, nicht den Ansatz. KI übernimmt das Schreiben, wenn der Prompt das erlaubt. KI gibt formatives Feedback, wenn der Prompt das vorschreibt. Der Unterschied liegt in der Aufgabenstellung — und die liegt bei der Lehrkraft. Ein Tool, das die Schülerin fragt “Was möchtest du mit diesem Abschnitt sagen?” statt den Abschnitt neu zu schreiben, ist kein Ghostwriter. Wer keine KI einführt, schützt Schülerinnen übrigens nicht vor Ghostwriting — das gibt es schon lange ohne KI.
“Das ist doch dieselbe Funktion wie ein KI-Tutor.” Nein — KI-Tutoren beantworten Inhaltsfragen rund um die Uhr. Formatives Feedback auf Projektarbeiten prüft die eigene Arbeit der Schülerin gegen eine Rubrik und gibt Hinweise zur Verbesserung. Das ist eine andere Aufgabe: nicht “Erkläre mir, was eine These ist”, sondern “Hier ist meine These — was fehlt?” Inhaltserklärung und Prozesskritik sind zwei verschiedene Dinge — auch wenn beide KI-unterstützt sein können.
“Bildungsforschung zeigt, dass KI-Feedback nicht besser ist als menschliches Feedback.” Das stimmt — die Meta-Analyse von 2025 (41 Studien, ca. 4.800 Lernende) zeigt keine signifikant besseren Lernergebnisse durch KI-Feedback. Was sie nicht untersucht: ob Lehrkräfte mehr Zeit für inhaltlich relevante Gespräche haben, wenn formale Grundprobleme vorab durch KI bearbeitet wurden. Und was nicht untersucht werden kann: die Auswirkung auf Chancengerechtigkeit im Vergleich zu Schülerinnen ohne jede Feedback-Ressource zu Hause. “Nicht schlechter als menschliches Feedback” bedeutet für Schülerinnen ohne Eltern-Feedback-Ressource: deutlich besser als nichts.
Woran du merkst, dass das zu dir passt
- Deine Schülerinnen haben mehrwöchige Projektarbeiten oder Seminarfacharbeiten, bei denen der Prozess mindestens so wichtig ist wie das Endprodukt
- Du erlebst, dass Sprechstunden im Wesentlichen formale Grundprobleme korrigieren — Gliederungsprobleme, fehlende Quellen, Kohärenzlücken — und kaum Zeit für inhaltliche Tiefe bleibt
- Du beobachtest deutliche Qualitätsunterschiede innerhalb einer Klasse, die plausiblerweise mit dem Elternhaus zusammenhängen, nicht mit der Schülerleistung
- Deine Schule hat eine klare Nutzungsrichtlinie (oder ist bereit, eine zu entwickeln), was erlaubte KI-Nutzung von Täuschungsversuchen trennt
- Du bist bereit, 2–4 Stunden in den Setup zu investieren, bevor Schülerinnen mit dem Tool arbeiten
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Keine definierte Bewertungsrubrik. KI-Feedback ohne Kriterien ist beliebig. Wer nicht sagen kann, woran eine gute Projektarbeit in deinem Fach gemessen wird — Gliederung, Quellen, Argumentation, Sprache, Quellenvielfalt — kann kein sinnvolles Feedback konfigurieren. Zuerst die Rubrik entwickeln, dann das Tool einführen.
-
Schülerinnen sollen personenbezogene Texte ohne DSGVO-konformes Tool eingeben. Kompetenzportfolios enthalten oft Namen, persönliche Erlebnisse und biographische Details. Diese dürfen nicht ohne AVV und EU-Hosting in US-basierte Tools eingegeben werden. Wer hier kein konformes Tool hat und die Anonymisierungsanweisung nicht konsequent umsetzt, riskiert eine DSGVO-Verletzung.
-
Keine schulinterne Einigkeit, was als Täuschungsversuch gilt. Wenn Lehrkräfte und Schulleitung keine gemeinsame Linie haben, führt jeder KI-Einsatz früher oder später zu Konflikten — mit Schülerinnen, die das Tool anders nutzen als vorgesehen, und mit Eltern, die sich falsch informiert fühlen. Ohne Konsens kein Rollout.
Das kannst du heute noch tun
Teste das Konzept sofort — mit einem Prompt in ChatGPT und einem anonymisierten Schülertext:
- Nimm eine echte, aber anonymisierte Schülerarbeit (Namen und Personenreferenzen entfernt)
- Schreibe deine Bewertungsrubrik auf (drei bis fünf Kriterien reichen)
- Nutze den Prompt unten — lass das System feedback geben und beurteile selbst, ob es das trifft, was du in einer Sprechstunde auch sagen würdest
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Meta-Studie Deng et al. (Dezember 2024): Übersichtsarbeit über 1.600 Studien zum KI-Einsatz im Bildungskontext; Effektstärke d = 0,62 für didaktisch geplanten KI-Einsatz. Zusammenfassung und pädagogische Einordnung: Klaus Zierer, Universität Augsburg (zitiert in: Deutsches Schulportal, 2025, sowie unterrichten.digital, 2025).
- Meta-Analyse KI-Feedback vs. menschliches Feedback (2025): 41 Studien, ca. 4.800 Lernende; Befund: kein signifikanter Unterschied in Lernergebnissen zwischen KI- und menschlichem Feedback. Primärquelle: veröffentlicht als Systematic Review, dokumentiert in unterrichten.digital (November 2025).
- FelloFish Praxistest (2025): “Wenn Algorithmen Feedback geben — Fiete, Fobizz und PEER im Praxistest.” Fellofish.com, 2025. Befund: Alle Tools erkannten Nonsense-Passagen in Schülertexten nicht; Feedbackqualität bleibt auf formale Elemente beschränkt.
- Verwaltungsgericht Kassel (25. Februar 2026): Zwei Entscheidungen bestätigen Prüfungsversagen wegen verbotener KI-Nutzung bei Hochschularbeiten (Quelle: efactory1.de, 2026).
- Fobizz Preise: Veröffentlichte Tarife der tools.fobizz GmbH (Stand Mai 2026): Tools-Flatrate 119 €/Jahr, Schullizenz ab 500 €/Jahr. Staatslizenz-Verfügbarkeit: fobizz.com/de/staatslizenz/.
- DSGVO Art. 8 und Schulausnahme: Datenschutz-Grundverordnung in der gültigen Fassung; Einschätzung des Landesdatenschutzbeauftragten Rheinland-Pfalz (dokumentiert auf datenschutz-schule.info, 2024).
- PISA und Bildungsgerechtigkeit: KMK-Bericht zur Bildungsgerechtigkeit 2024; PISA-Auswertungen Deutschland zu Schülerleistung und sozioökonomischer Herkunft.
Du willst wissen, welches Tool für deine konkrete Schulform und dein Fach am besten passt — oder wie du eine belastbare Bewertungsrubrik für KI-Feedback entwickelst? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Tutoren für Lernende
KI-gestützte Tutorsysteme beantworten Fragen von Schülern und Studierenden rund um die Uhr, erklären Inhalte auf verschiedenen Niveaustufen und passen sich dem Lernstand an.
Mehr erfahrenUnterrichtsplanung und Materialerstellung mit KI
KI erstellt Unterrichtsentwürfe, Arbeitsblätter, Quiz-Fragen und Erklärvideokonzepte — Lehrkräfte verbringen weniger Zeit mit Vorbereitung und mehr Zeit mit Schülern.
Mehr erfahrenAufgaben und Tests mit KI erstellen
KI generiert Aufgaben, Klausurfragen und Quiz auf verschiedenen Schwierigkeitsniveaus — in Minuten, inklusive Musterlösung und Bewertungshinweisen.
Mehr erfahren