Zum Inhalt springen
Bildung & Weiterbildung projektarbeitportfoliofeedback

KI-Unterstützung bei Projektarbeiten und Kompetenzportfolios

KI begleitet Schülerinnen durch mehrwöchige Projektarbeiten mit formativem Feedback zu Argumentationslogik, Gliederung und Quellennutzung — und unterstützt beim strukturierten Aufbau von Kompetenzportfolios. Vor dem finalen Lehrkraft-Urteil.

⚡ Auf einen Blick
Problem
Schülerinnen bei komplexen, mehrwöchigen Projektarbeiten individuell zu begleiten, kostet mehr Lehrkraftzeit, als im Schulbetrieb verfügbar ist. Qualität variiert stark — abhängig davon, ob Eltern Korrekturhilfe leisten können.
KI-Lösung
KI gibt formatives Feedback zu Zwischenständen: überprüft Argumentationslogik, identifiziert fehlende Quellen, schlägt Strukturverbesserungen vor. Als Lernunterstützung, nicht als Textersatz.
Typischer Nutzen
Projektarbeitsqualität im Klassendurchschnitt verbessern, Benachteiligung durch ungleiche Elternunterstützung reduzieren, Lehrkraft-Feedback auf die inhaltliche Tiefendimension konzentrieren.
Setup-Zeit
Einstieg mit Fobizz oder ChatGPT + Rubrik in einer Unterrichtsstunde möglich
Kosteneinschätzung
Keine direkten Kosten — Wirkung ist Qualitätssteigerung, nicht Geldersparnis
LLM mit Bewertungsrubrik-Kontext und formativem Feedback-Modus, datenschutzkonform für Schulumgebungen.
Worum geht's?

Es ist Freitagnachmittag, drei Wochen vor Abgabetermin der Seminarfacharbeit.

Lea, 17 Jahre, sitzt vor einem halbfertigen Google-Dokument. Die Gliederung steht — irgendwie. Der erste Abschnitt ist zweimal so lang wie alle anderen zusammen. Die Quellenangabe im zweiten Teil ist ein YouTube-Link ohne Titel. Und die Kernthese, die sie in der Einleitung formuliert hat, taucht im Fazit in einer anderen Variante auf, die inhaltlich nicht ganz dasselbe behauptet.

Leas Mutter ist Lehrerin, hat die Arbeit aber noch nicht gelesen. Ihr Vater ist Logistiker und findet: „Klingt doch gut.” Ihre Mitschülerin Amira sitzt im selben Kurs — aber Amiras Bruder studiert im vierten Semester und hat bereits drei Stunden mit ihr über Argumentationsstruktur gesprochen.

In zehn Tagen hat Deutschlehrerin Stefanie Hollweg eine kurze Sprechstunde für alle 24 Schülerinnen angesetzt. Das macht zwölf Minuten pro Person — wenn alles pünktlich ist. Das reicht für ein Wort zur Gliederung, nicht für eine echte Rückmeldung zur Argumentationslogik.

Dieses strukturelle Problem löst kein noch so engagierter Lehrkörper durch mehr Fleiß. Es ist der Moment, in dem KI-Feedback einen echten Unterschied macht — nicht weil die KI klüger ist als Stefanie Hollweg, sondern weil sie rund um die Uhr verfügbar ist und in zwei Minuten eine erste strukturierte Rückmeldung liefert, die Lea etwas Zeit kauft, um ihre Arbeit wirklich zu überarbeiten, bevor sie in die Sprechstunde geht.

Das echte Ausmaß des Problems

Projektarbeiten, Seminarfacharbeiten und Kompetenzportfolios sind das anspruchsvollste Format, das die meisten Schulen für die individuelle Leistungsbeurteilung kennen. Sie dauern Wochen, erfordern eigenständige Recherche, Quellenarbeit, Argumentation — und fallen oft in eine Zeit, in der Lehrkräfte im normalen Schulbetrieb kaum Kapazität für kontinuierliche Einzelbegleitung haben.

Das Ergebnis ist systematische Ungleichheit: Wer zu Hause jemanden hat, der Texte beurteilen, Gliederungen kommentieren und Quellen einschätzen kann, erbringt im Schnitt bessere Projektarbeiten als Schülerinnen ohne dieses Netz. Das ist kein Vorwurf gegenüber Familien — es ist eine strukturelle Schwäche des Formats.

Laut PISA-Auswertungen für Deutschland hat die sozioökonomische Herkunft einen der stärksten Einflüsse auf Schülerleistungen im internationalen Vergleich — auch bei aufwändigen Schreibaufgaben. Der KMK-Bericht 2024 zur Bildungsgerechtigkeit dokumentiert, dass Schülerinnen aus akademischen Haushalten im Schnitt deutlich mehr qualifizierte Textunterstützung außerhalb der Schule erhalten.

Das zweite, oft übersehene Problem: Lehrkräfte erhalten oft nur das Endprodukt zur Bewertung — und sehen nicht, was unterwegs passiert wäre, wenn jemand nach der dritten Gliederungsversion nachgefragt hätte. Formatives Feedback, das während des Arbeitsprozesses gegeben wird, verbessert nachweislich die Qualität von Endprodukten — eine Meta-Studie von Deng et al. (Dezember 2024) über 1.600 Studien zur KI im Bildungskontext zeigt eine Effektstärke von d = 0,62 für KI-unterstütztes Lernen unter didaktisch kontrollierten Bedingungen.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-Feedback-Unterstützung
Individuelles Zwischen-Feedback für jede SchülerinSelten möglich — 12 min./Person SprechstundeJederzeit, unbegrenzt, sofort
Verbesserungsschritte vor AbgabeØ 1–2 (wenn überhaupt)3–5 dokumentierte Überarbeitungsrunden
Qualitätsstreuung innerhalb der KlasseStark abhängig von ElternunterstützungSchere messbar kleiner (Praxisbericht Fobizz-Nutzende)
Lehrkraft-Feedback-QualitätAuf formale Mängel verteiltAuf inhaltliche Tiefe fokussiert
ChancengerechtigkeitStark elternabhängigModeriert durch niedrigschwelligen Zugang

¹ Eigene Beobachtungen aus Schulprojekten mit Fobizz-Einsatz (2024); keine repräsentative Studie, aber konsistentes Muster über mehrere Klassen.

Projektarbeit vs. Kompetenzportfolio — zwei unterschiedliche Anwendungsfälle

Diese beiden Formate werden im Schulalltag oft in einem Atemzug genannt, verlangen aber fundamental anderen KI-Einsatz.

Projektarbeit: Ein zeitlich begrenztes Dokument mit These, Recherche, Argumentation und Fazit. Die KI-Unterstützung ist hier prozessbegleitend: Feedback auf Gliederungsentwürfe, Argumentation, Quellennutzung und sprachliche Kohärenz. Die Frage, die die KI beantworten soll, lautet: “Was fehlt noch, was ist unklar, was widerspricht sich?”

Kompetenzportfolio: Eine kontinuierliche Sammlung von Nachweisen, dass eine Person bestimmte Kompetenzen entwickelt hat — oft über ein Schuljahr oder länger. Hier geht es weniger um Textqualität als um Reflexion und Strukturierung: Welche Kompetenz soll mit welchem Beleg nachgewiesen werden? Ist die Selbstreflexion konkret oder bleibt sie allgemein? Hat die Person deutlich gemacht, was sie aus einer Erfahrung gelernt hat — nicht nur, was sie gemacht hat?

Für Projektarbeiten eignen sich alle gängigen LLM-basierten Feedback-Tools. Für Kompetenzportfolios ist ein anderer Prompt nötig: Die KI bekommt die Kompetenzstruktur (z.B. ein Kompetenzraster) als Kontext und gibt Feedback, ob die dokumentierten Belege zu den beschriebenen Kompetenzen passen — und wo die Reflexion zu dünn bleibt.

Das ist eine andere Aufgabe. Wer beides in dasselbe System wirft, ohne den Prompt anzupassen, bekommt für das Portfolio generisches Schreibfeedback, das an der eigentlichen Aufgabe vorbeizielt.

Einschätzung auf einen Blick

Zeitersparnis — hoch (4/5)
Der deutlichste Hebel: Zwischenfeedback-Runden, die Lehrkräfte bislang in Sprechstunden oder als E-Mail-Korrespondenz abgewickelt haben, entfallen weitgehend. Was bleibt, ist das wertvolle inhaltliche Gespräch — das, was zwölf Minuten Sprechstunde sinnvoll macht, anstatt für formale Grundprobleme zu verbrauchen. Im Vergleich zu anderen Anwendungsfällen dieser Kategorie — etwa der Verwaltungsdokumentation — wirkt die Zeitersparnis pro Feedback-Runde kleiner, aber multipliziert sich auf 24 Schülerinnen stark.

Kosteneinsparung — sehr niedrig (1/5)
Weder spart die Schule direkt Geld, noch wird eine Stelle eingespart. Die Wirkung ist pädagogisch, nicht fiskalisch. Fobizz kostet 119 €/Jahr pro Lehrkraft (Tools-Flatrate) — das ist die einzig sinnvoll vergleichbare Zahl. In den meisten Bundesländern trägt das entweder der Schulträger oder die Lehrkraft selbst. Kosteneinsparung im eigentlichen Sinne findet nicht statt.

Schnelle Umsetzung — hoch (4/5)
Mit Fobizz oder direkt über ChatGPT und einem gut konfigurierten Feedback-Prompt kann eine erste Version in einer Unterrichtsstunde einsatzbereit sein — kein IT-Setup, keine Schülerkonten zwingend notwendig, kein Schulleiter-Genehmigungsmarathon (sofern ein Tool mit AVV gewählt wird). Die Einstiegshürde ist niedriger als bei fast allen anderen Anwendungsfällen in dieser Kategorie.

ROI-Sicherheit — mittel (3/5)
Der Nutzen ist real, aber der Nachweis ist schwierig. Lernleistung ist kein Messobjekt wie eine Fehlerrate. Eine 2025 veröffentlichte Meta-Analyse (41 Studien, ca. 4.800 Lernende) zeigt: KI-Feedback erzeugt keine signifikant besseren Lernergebnisse als menschliches Feedback — aber der Zeitgewinn für Lehrkräfte ist messbar, und die Reduzierung von Qualitätsstreuung innerhalb einer Klasse ist beobachtbar. Wer ROI in Euro messen will, findet hier wenig; wer ROI in Unterrichtsqualität denkt, findet Belege.

Skalierbarkeit — hoch (4/5)
Die KI arbeitet parallel für alle Schülerinnen gleichzeitig — kein Unterschied, ob zehn oder fünfzig Projektarbeiten eingereicht werden. Das ist der strukturelle Vorteil gegenüber menschlichem Feedback. Nicht ganz maximal bewertet, weil der Setup-Aufwand pro Aufgabentyp (Prompt, Rubrik) trotzdem bei der Lehrkraft liegt und bei neuen Projekten neu konfiguriert werden muss.

Richtwerte — stark abhängig von Schulform, gewähltem Tool und didaktischem Konzept der Lehrkraft.

Was das System konkret macht

Der Mechanismus hinter KI-Feedback für Projektarbeiten ist im Kern einfach: Eine Generative KI erhält drei Dinge gleichzeitig:

  1. Den Schülertext (Gliederung, Abschnitt, Zwischenstand)
  2. Die Aufgabenstellung (was die Schülerin leisten soll)
  3. Die Bewertungsrubrik (nach welchen Kriterien die Lehrkraft später bewertet)

Auf dieser Grundlage gibt die KI formatives Feedback — kein abschließendes Urteil, sondern gezielte Hinweise: “Der zweite Abschnitt führt ein neues Argument ein, ohne es mit der Ausgangsthese zu verbinden — überleg, ob du einen Übergang brauchst.” Oder: “Die Quelle in Fußnote 3 ist nicht vollständig angegeben — Verlag und Erscheinungsjahr fehlen.”

Was sie nicht tut: den Text neu schreiben. Gutes KI-Feedback für Lernzwecke ist anweisend, nicht produzierend. Es zeigt die Lücke und fragt nach der Lösung der Schülerin — nicht nach der eigenen.

Für Kompetenzportfolios ist der Kontext ein anderes Dokument: das Kompetenzraster oder der Bewertungsrahmen der Schule. Die KI prüft dann, ob ein Portfolioeintrag (“Ich habe in der AG Schach gelernt, strategisch zu denken”) eine ausreichende, konkrete Reflexion darstellt — oder ob er zu allgemein bleibt und konkreter Belege bedürfte.

KI als Lernunterstützung vs. Täuschungsversuch — die entscheidende Trennlinie

Das ist die Frage, die Schulleitungen, Eltern und Lehrkräfte am häufigsten stellen — und die selten klar genug beantwortet wird.

Erlaubt: Formatives Feedback einholen, das auf eigene Texte angewendet wird. Konkret: Die Schülerin schreibt selbst, reicht einen Zwischenstand ein und bekommt Rückmeldung zu Struktur und Argumentation. Sie überarbeitet dann selbst. Das ist pädagogisch dasselbe wie eine Sprechstunde bei der Lehrkraft — nur verfügbarer.

Nicht erlaubt: Die KI schreibt ganze Abschnitte oder formuliert Argumente, die die Schülerin dann als eigene Leistung einreicht. Das ist nach deutschem Prüfungsrecht ein Täuschungsversuch — das Verwaltungsgericht Kassel hat im Februar 2026 zwei entsprechende Entscheidungen der Universität Kassel bestätigt.

Die Grauzone: “Ich habe die KI gebeten, meinen Abschnitt ‘sprachlich zu verbessern’.” Das ist ein echter Grenzfall. Hier hilft eine schulinterne AI Policy, die festlegt: Wie muss KI-Nutzung in der Arbeit deklariert werden? Welche Nutzungsformen sind mit Deklaration erlaubt?

Was Lehrkräfte tun können: Den Unterschied in der Aufgabenstellung verankern. Wer “schreib einen argumentativen Aufsatz” fragt, lädt zur KI-Nutzung ein. Wer “beschreibe, wie du zu deiner These gekommen bist, und welche drei Quellen dich dabei überzeugend gemacht haben” fragt, fordert Reflexion, die KI nicht abnehmen kann.

Formatives KI-Feedback macht diesen Unterschied leichter zu kommunizieren — weil es das Gespräch von “hast du KI benutzt?” auf “hat dich das Feedback zu einer Überarbeitung bewegt?” verlagert. Der Prozess wird sichtbar, nicht nur das Endprodukt.

Konkrete Werkzeuge — was wann passt

Fobizz KI-Feedback — Die erste Wahl für Schulen in Deutschland, die auf der sicheren Seite sein wollen. Daten auf deutschen Servern, AVV standardmäßig verfügbar, keine Schüleranmeldung für viele Szenarien notwendig. Das Feedback-Tool erlaubt, Aufgabenstellung und Kriterien zu hinterlegen; Schülerinnen reichen per Link oder QR-Code ein. Preis: 119 €/Jahr Tools-Flatrate (Einzelperson) oder ab 500 €/Jahr Schullizenz. In mehreren Bundesländern über Staatslizenzen kostenlos. Einschränkung: weniger flexibel als direkter LLM-Zugang; bleibt bei inhaltlichen Fehlern (falsche Fakten) oft blind.

Fiete.ai — Spezialisierte KI-Feedback-Plattform mit iterativem Ansatz. Schülerinnen sehen nach Überarbeitung, ob sie sich verbessert haben — mit Fortschrittsbalken und mehreren Einreichungsrunden. Lehrkraft-Dashboard zeigt alle Einreichungen. EU-Serverinfrastruktur. Besonders geeignet für Projektarbeiten mit explizitem Überarbeitungsprozess als Lernziel. Preis: Schullizenzen auf Anfrage.

ChatGPT mit konfiguriertem Feedback-Prompt — Flexibelster Ansatz für Lehrkräfte mit etwas Prompt-Erfahrung. Die Stärke: vollständig anpassbar auf jedes Fach, jede Rubrik, jeden Projekttyp. Die Schwäche: Datenhaltung in den USA, kein AVV für Standardpläne — das macht den Schülereinsatz in Deutschland rechtlich problematisch, solange Schülerinnen personenbezogene Daten eingeben. Sinnvoll für: Lehrkräfte, die Feedback für eigene Unterrichtsplanung testen, oder für Pilotprojekte mit datenminimierten (anonymisierten) Texten.

Claude — Besonders gut für längere, komplexere Texte. Das Kontextfenster fasst sehr lange Dokumente, und die Feedbackqualität bei argumentativen Texten ist überdurchschnittlich präzise. Gleiches Datenschutzproblem wie ChatGPT für den direkten Schülereinsatz. Sinnvoll für Oberstufe und Seminarfacharbeiten, wo längere Texte mit komplexer Argumentationsstruktur geprüft werden sollen.

MagicSchool AI — Breites Werkzeugset für Lehrkräfte, das die Aufgabenstellung und Rubrikerstellung (nicht nur das Feedback) unterstützt. Nur auf Englisch. Datenhaltung USA. Für den direkten Schülereinsatz an deutschen Regelschulen nicht geeignet — für Lehrkräfte als Planungswerkzeug aber sehr produktiv.

Zusammenfassung: Wann welcher Ansatz

  • Schulweiter DSGVO-konformer Einsatz → Fobizz
  • Iterativer Überarbeitungsprozess als Lernziel → Fiete.ai
  • Flexibler Pilot mit anonymisierten Texten → ChatGPT oder Claude mit Feedback-Prompt
  • Lehrkraft-Unterstützung für Aufgaben- und Rubrikentwicklung → MagicSchool AI

DSGVO-Besonderheiten bei minderjährigen Schülerinnen

Schülerinnen sind in der Mehrzahl Minderjährige. Das macht den Datenschutz im Schulkontext komplizierter als bei erwachsenen Nutzern — und es gibt schulspezifische Regeln, die über den Standard-DSGVO-Hinweis “AVV anfordern” weit hinausgehen.

Art. 8 DSGVO und die Schulausnahme: Für Onlinedienste, die sich direkt an Kinder richten, gilt ab Alter 16 die Einwilligungspflicht der Eltern (in Deutschland: Länder können das Alter auf 13 senken). Im schulischen Kontext greift jedoch eine Ausnahme: Wenn die Nutzung durch die Schule als Institution legitimiert ist und auf einer Rechtsgrundlage (Erfüllung pädagogischer Aufgaben) basiert, braucht es keine individuelle Elterneinwilligung — das hat auch der Landesdatenschutzbeauftragte Rheinland-Pfalz bestätigt. Die Schule trägt dann aber die Verantwortung für die datenschutzkonforme Auswahl des Tools.

Keine personenbezogenen Daten in Prompts: Das wichtigste praktische Gebot — und das am häufigsten verletzte. Schülerinnen dürfen in KI-Feedback-Tools keine Texte eingeben, die Namen, Adressen, biographische Details oder andere personenbezogene Informationen enthalten, sofern kein EU-AVV vorliegt. Bei Kompetenzportfolios ist das kritisch: Portfolioeinträge enthalten oft persönliche Erlebnisse. Lehrkräfte müssen hier explizit anleiten, wie Texte für den KI-Einsatz anonymisiert werden.

AVV ist Pflicht — nicht Kür: Schulen, die KI-Tools für Schülerinnen einsetzen, müssen mit dem Anbieter einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO abschließen. Fobizz stellt diesen standardmäßig aus. ChatGPT und Claude stellen AVV erst ab Business-/Enterprise-Plänen aus. Für Schulen bedeutet das: Direktnutzung von Standard-ChatGPT für den Schülereinsatz ist rechtlich nicht abgesichert.

Datenschutzfolgenabschätzung bei hohem Risiko: Wenn personenbezogene Daten vieler Minderjähriger systematisch durch ein externes System verarbeitet werden sollen, kann nach Art. 35 DSGVO eine DSFA (Datenschutzfolgenabschätzung) erforderlich werden — das entscheidet der Datenschutzbeauftragte der Schule oder des Schulträgers.

Praktische Empfehlung: Für den Schulbetrieb ist Fobizz die einfachste DSGVO-konforme Lösung — AVV inklusive, deutsche Server, keine Schülerkonten erforderlich. Wer generische LLM-Tools einsetzen will, arbeitet mit anonymisierten Texten (Namen und Personenreferenzen entfernen) oder über Schul-Rahmenverträge, die ein AVV enthalten.

Was es kostet — realistisch gerechnet

Einmalige Einrichtungskosten

  • Fobizz-Einzellizenz (Lehrkraft): 119 €/Jahr
  • Fobizz-Schullizenz (ab 5 Personen): ab 500 €/Jahr
  • Staatslizenz (Bayern, Rheinland-Pfalz, Thüringen u.a.): kostenlos — erst prüfen!
  • Setup-Zeit für Rubrik-Entwicklung und Prompt-Konfiguration: 2–4 Stunden pro Lehrkraft, einmalig

Laufende Kosten (monatlich)

  • Fobizz Tools-Flatrate: entspricht ca. 10 €/Monat
  • ChatGPT Plus für Lehrkraft (Pilotprojekte): 20 USD/Monat
  • Fiete.ai Schullizenz: auf Anfrage (Größenordnung vergleichbar mit Fobizz)

Direkter Kostenvergleich im Bildungsbereich: Die direkte Kosteneinsparung in Euro ist im Bildungsbereich fast nicht messbar — keine Stelle wird eingespart, keine Lizenz abgelöst. Der Nutzen liegt in pädagogischer Qualität und Zeitverteilung der Lehrkraft. In privaten Nachhilfestudios, die Projektarbeit-Coaching anbieten, kostet eine Einzelsitzung 40–80 €/Stunde. KI-Feedback gibt vergleichbare Erstorientierung für Bruchteile dieser Kosten — der relevante Maßstab ist: Wie viel Chancengerechtigkeit kann die Schule durch den Einsatz herstellen?

Wie du den Nutzen tatsächlich misst: Vor der Einführung: Notendurchschnitt der Klasse bei Projektarbeiten, Streuung (Standardabweichung), und Anteil der Schülerinnen, die zu Sprechstunden kommen. Nach einem Schuljahr: dieselben Werte. Ein zuverlässigerer kurzfristiger Indikator ist die Nutzungsrate: Wie viele Schülerinnen nutzen das Feedback-Tool aktiv, wie viele Überarbeitungsrunden drehen sie im Schnitt?

Drei typische Einstiegsfehler

1. Feedback-Tool ohne klare Rubrik einsetzen. “Gib Feedback zu dieser Projektarbeit” — ohne Bewertungskriterien. Das Ergebnis ist generisches Feedback zu Sprache und Struktur, das für jede Arbeit gleich klingt und wenig mit dem zusammenhängt, was die Lehrkraft am Ende tatsächlich bewertet. Lösung: Immer die konkrete Bewertungsrubrik in den System-Prompt oder die Tool-Konfiguration eintragen. Das dauert 20 Minuten — und macht den Unterschied zwischen sinnlosem und echtem formativem Feedback.

2. Schülerinnen nutzen KI-Feedback, um den Text zu verbessern — aber nicht ihren Text. Das klassische Missverständnis: Die Schülerin fragt “Was soll ich schreiben?” statt “Was stimmt an meinem Entwurf nicht?” Das Tool schreibt einen Abschnitt neu — und die Schülerin übernimmt ihn. Das passiert nicht böswillig, sondern weil der Unterschied zwischen formativem Feedback und Ghostwriting für viele Schülerinnen nicht klar kommuniziert wurde. Lösung: Explizit in der Aufgabenstellung festhalten: “Das Tool darf Hinweise geben, aber keine vollständigen Sätze vorschlagen. Zeige mir in einer kurzen Notiz, wie du auf das Feedback reagiert hast.”

3. KI erkennt inhaltliche Fehler nicht — und das bleibt unbemerkt. Ein Praxistest von FelloFish (2025) mit drei KI-Feedback-Tools (darunter Fobizz und Fiete.ai) zeigte: Alle Tools erkannten sachlich falsche Aussagen und anachronistische Passagen in Texten nicht. Eine iPhone-Erwähnung in einem Drama des 18. Jahrhunderts — unbemerkt. Das ist der kritische blinde Fleck: KI-Feedback eignet sich für formale und strukturelle Rückmeldungen, nicht für Faktenprüfung. Wer das nicht kommuniziert, erzeugt falsche Sicherheit. Schülerinnen, die wissen “mein Feedback war gut”, können trotzdem inhaltliche Fehler eingebaut haben. Das Lehrkraft-Feedback muss inhaltliche Richtigkeit explizit abdecken — das übernimmt kein Tool.

Was mit der Einführung wirklich passiert — und was nicht

Die Technik ist schnell aufgesetzt. Das eigentliche Thema ist Vertrauen — auf beiden Seiten.

Schülerinnen nehmen KI-Feedback sehr unterschiedlich an. Wer gewohnt ist, Feedback von Lehrkräften als finales Urteil zu erleben, findet den iterativen Charakter von KI-Feedback zunächst seltsam: “Ich soll das jetzt drei Mal einreichen?” Der Schlüssel ist, den Unterschied zwischen formativem Feedback (lernen) und summativem Urteil (bewerten) explizit zu machen — am besten vor dem ersten Einsatz, mit einem konkreten Beispiel im Klassenverband.

Eltern reagieren manchmal mit Skepsis. “Darf die KI das eigentlich beurteilen?” ist eine berechtigte Frage. Wer vorab einen kurzen Brief mit der Erklärung schickt, was das Tool macht (und nicht macht), verhindert Eskalationen im Elterngespräch. Der Satz “Wir nutzen ein Feedback-Tool wie eine automatisierte Sprechstunde — die Bewertung liegt weiterhin vollständig bei der Lehrkraft” ist das, was Eltern beruhigt.

Lehrkräfte, die das Tool einführen, erleben zunächst Mehrarbeit. Rubrik aufsetzen, Schülerinnen einweisen, erste Rückmeldungen validieren — das dauert zwei bis drei Unterrichtsstunden im Pilotklassen-Modus. Ab dem zweiten Projektarbeitszyklus kehrt sich das um. Plane den Piloten explizit als “investierte Zeit”, nicht als sofortige Entlastung.

Was konkret hilft:

  • Start mit einer Klasse und einer Projektarbeit — nicht gleich jahrgangsübergreifend
  • Schülerinnen das Tool in der Unterrichtsstunde ausprobieren lassen, nicht als Hausaufgabe
  • Explizit definieren, was mit dem KI-Feedback zu tun ist (z.B. “Schreib drei Sätze, wie du auf die Rückmeldung reagiert hast”)
  • Nach der ersten Runde Feedback einholen: Was war hilfreich, was nicht?

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Werkzeugauswahl und SetupWoche 1Tool wählen, AVV prüfen, Rubrik entwickeln, Muster-Prompt testenRubrik zu allgemein — Feedback bleibt generisch
Pilotklasse einweisenWoche 2Aufgabenstellung erklären, Grenzen kommunizieren (formatives Feedback ≠ Ghostwriting), erste EinreichungSchülerinnen verstehen den Unterschied nicht — braucht explizite Modellierung
Erste Feedback-RundeWoche 2–4Schülerinnen reichen Zwischenstände ein und überarbeitenTool erkennt Inhaltsfehler nicht — Lehrkraft muss inhaltliche Kontrolle behalten
Auswertung PilotklasseWoche 5Nutzungsrate, Überarbeitungstiefe, Qualitätsdifferenz zur VorjahresklasseGeringe Nutzungsrate — Schülerinnen nutzen das Tool nicht selbstständig
Rollout auf weitere Klassenab Monat 2Zweite Klasse integrieren, Rubrik anpassenMehrere Lehrkräfte mit unterschiedlichen Erwartungen — Abstimmung nötig

Häufige Einwände — und was dahintersteckt

“Die KI übernimmt das Schreiben.” Der Einwand ist berechtigt — aber er trifft das Tool, nicht den Ansatz. KI übernimmt das Schreiben, wenn der Prompt das erlaubt. KI gibt formatives Feedback, wenn der Prompt das vorschreibt. Der Unterschied liegt in der Aufgabenstellung — und die liegt bei der Lehrkraft. Ein Tool, das die Schülerin fragt “Was möchtest du mit diesem Abschnitt sagen?” statt den Abschnitt neu zu schreiben, ist kein Ghostwriter. Wer keine KI einführt, schützt Schülerinnen übrigens nicht vor Ghostwriting — das gibt es schon lange ohne KI.

“Das ist doch dieselbe Funktion wie ein KI-Tutor.” Nein — KI-Tutoren beantworten Inhaltsfragen rund um die Uhr. Formatives Feedback auf Projektarbeiten prüft die eigene Arbeit der Schülerin gegen eine Rubrik und gibt Hinweise zur Verbesserung. Das ist eine andere Aufgabe: nicht “Erkläre mir, was eine These ist”, sondern “Hier ist meine These — was fehlt?” Inhaltserklärung und Prozesskritik sind zwei verschiedene Dinge — auch wenn beide KI-unterstützt sein können.

“Bildungsforschung zeigt, dass KI-Feedback nicht besser ist als menschliches Feedback.” Das stimmt — die Meta-Analyse von 2025 (41 Studien, ca. 4.800 Lernende) zeigt keine signifikant besseren Lernergebnisse durch KI-Feedback. Was sie nicht untersucht: ob Lehrkräfte mehr Zeit für inhaltlich relevante Gespräche haben, wenn formale Grundprobleme vorab durch KI bearbeitet wurden. Und was nicht untersucht werden kann: die Auswirkung auf Chancengerechtigkeit im Vergleich zu Schülerinnen ohne jede Feedback-Ressource zu Hause. “Nicht schlechter als menschliches Feedback” bedeutet für Schülerinnen ohne Eltern-Feedback-Ressource: deutlich besser als nichts.

Woran du merkst, dass das zu dir passt

  • Deine Schülerinnen haben mehrwöchige Projektarbeiten oder Seminarfacharbeiten, bei denen der Prozess mindestens so wichtig ist wie das Endprodukt
  • Du erlebst, dass Sprechstunden im Wesentlichen formale Grundprobleme korrigieren — Gliederungsprobleme, fehlende Quellen, Kohärenzlücken — und kaum Zeit für inhaltliche Tiefe bleibt
  • Du beobachtest deutliche Qualitätsunterschiede innerhalb einer Klasse, die plausiblerweise mit dem Elternhaus zusammenhängen, nicht mit der Schülerleistung
  • Deine Schule hat eine klare Nutzungsrichtlinie (oder ist bereit, eine zu entwickeln), was erlaubte KI-Nutzung von Täuschungsversuchen trennt
  • Du bist bereit, 2–4 Stunden in den Setup zu investieren, bevor Schülerinnen mit dem Tool arbeiten

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Keine definierte Bewertungsrubrik. KI-Feedback ohne Kriterien ist beliebig. Wer nicht sagen kann, woran eine gute Projektarbeit in deinem Fach gemessen wird — Gliederung, Quellen, Argumentation, Sprache, Quellenvielfalt — kann kein sinnvolles Feedback konfigurieren. Zuerst die Rubrik entwickeln, dann das Tool einführen.

  2. Schülerinnen sollen personenbezogene Texte ohne DSGVO-konformes Tool eingeben. Kompetenzportfolios enthalten oft Namen, persönliche Erlebnisse und biographische Details. Diese dürfen nicht ohne AVV und EU-Hosting in US-basierte Tools eingegeben werden. Wer hier kein konformes Tool hat und die Anonymisierungsanweisung nicht konsequent umsetzt, riskiert eine DSGVO-Verletzung.

  3. Keine schulinterne Einigkeit, was als Täuschungsversuch gilt. Wenn Lehrkräfte und Schulleitung keine gemeinsame Linie haben, führt jeder KI-Einsatz früher oder später zu Konflikten — mit Schülerinnen, die das Tool anders nutzen als vorgesehen, und mit Eltern, die sich falsch informiert fühlen. Ohne Konsens kein Rollout.

Das kannst du heute noch tun

Teste das Konzept sofort — mit einem Prompt in ChatGPT und einem anonymisierten Schülertext:

  1. Nimm eine echte, aber anonymisierte Schülerarbeit (Namen und Personenreferenzen entfernt)
  2. Schreibe deine Bewertungsrubrik auf (drei bis fünf Kriterien reichen)
  3. Nutze den Prompt unten — lass das System feedback geben und beurteile selbst, ob es das trifft, was du in einer Sprechstunde auch sagen würdest
Feedback-Prompt für Projektarbeiten (Lehrkraft-Setup)
Du bist ein pädagogischer Feedback-Assistent für Schülerinnen. Du gibst formatives Feedback zu einer Projektarbeit im Entstehen — keine abschließende Bewertung, sondern gezielte Hinweise zur Verbesserung. AUFGABENSTELLUNG FÜR DIESE PROJEKTARBEIT: [AUFGABENSTELLUNG HIER EINFÜGEN] BEWERTUNGSKRITERIEN: [HIER EINFÜGEN — z.B.: 1. Klare These und Gliederungslogik | 2. Vollständige und korrekte Quellenangaben | 3. Nachvollziehbare Argumentation | 4. Kohärenz zwischen Einleitung, Hauptteil und Fazit] WICHTIGE ANWEISUNGEN: - Schreibe KEINE vollständigen Textabschnitte um oder neu - Gib konkrete Hinweise, WAS fehlt oder unklar ist — nicht, WIE es lauten soll - Stelle Fragen, die die Schülerin zum Nachdenken bringen - Erkenne keine inhaltlichen Fakten als richtig oder falsch — das ist Aufgabe der Lehrkraft - Antworte auf Deutsch VORLIEGENDER TEXTSTAND DER SCHÜLERIN: [TEXT DER SCHÜLERIN HIER EINFÜGEN]
Funktioniert mit ChatGPT, Claude, Fobizz, Fiete.ai
Beispiel-Ausgabe

Mitarbeiter:in

Einleitung einer Seminararbeit: 'In dieser Arbeit beschäftige ich mich mit dem Thema Klimawandel. Der Klimawandel ist ein wichtiges Thema. Er betrifft uns alle. Ich werde verschiedene Aspekte untersuchen und am Ende ein Fazit ziehen.'

KI-Assistent

Feedback zu deiner Einleitung: **Zur Gliederungslogik:** Deine Einleitung nennt das Thema, sagt aber noch nicht, was du konkret untersuchen willst. Welche "verschiedenen Aspekte" wirst du untersuchen? Welche Frage willst du am Ende beantworten? **Zur These:** Eine starke Einleitung enthält eine Aussage, die du in der Arbeit belegen oder widerlegen willst — nicht nur eine Beschreibung des Themas. Was ist deine Position zum Klimawandel? Was behauptest du? **Fragen zum Weiterdenken:** - Was genau willst du am Ende verstanden haben, das du jetzt noch nicht weißt? - Welches Argument, welche Perspektive oder welchen Befund willst du deinen Leserinnen am Ende mitgegeben haben? - Warum ist das Thema für deine Altersgruppe oder deinen Schulort besonders relevant? **Hinweis zur Sprache:** Drei aufeinander folgende Sätze beginnen mit "Der/Er/Er" — das klingt abgehackt. Schreib gerne weiter so — die Formulierung kannst du noch in der Überarbeitung glätten, wenn der Inhalt sitzt. Inhaltliche Richtigkeitsprüfung erfolgt durch deine Lehrkraft.

Quellen & Methodik

  • Meta-Studie Deng et al. (Dezember 2024): Übersichtsarbeit über 1.600 Studien zum KI-Einsatz im Bildungskontext; Effektstärke d = 0,62 für didaktisch geplanten KI-Einsatz. Zusammenfassung und pädagogische Einordnung: Klaus Zierer, Universität Augsburg (zitiert in: Deutsches Schulportal, 2025, sowie unterrichten.digital, 2025).
  • Meta-Analyse KI-Feedback vs. menschliches Feedback (2025): 41 Studien, ca. 4.800 Lernende; Befund: kein signifikanter Unterschied in Lernergebnissen zwischen KI- und menschlichem Feedback. Primärquelle: veröffentlicht als Systematic Review, dokumentiert in unterrichten.digital (November 2025).
  • FelloFish Praxistest (2025): “Wenn Algorithmen Feedback geben — Fiete, Fobizz und PEER im Praxistest.” Fellofish.com, 2025. Befund: Alle Tools erkannten Nonsense-Passagen in Schülertexten nicht; Feedbackqualität bleibt auf formale Elemente beschränkt.
  • Verwaltungsgericht Kassel (25. Februar 2026): Zwei Entscheidungen bestätigen Prüfungsversagen wegen verbotener KI-Nutzung bei Hochschularbeiten (Quelle: efactory1.de, 2026).
  • Fobizz Preise: Veröffentlichte Tarife der tools.fobizz GmbH (Stand Mai 2026): Tools-Flatrate 119 €/Jahr, Schullizenz ab 500 €/Jahr. Staatslizenz-Verfügbarkeit: fobizz.com/de/staatslizenz/.
  • DSGVO Art. 8 und Schulausnahme: Datenschutz-Grundverordnung in der gültigen Fassung; Einschätzung des Landesdatenschutzbeauftragten Rheinland-Pfalz (dokumentiert auf datenschutz-schule.info, 2024).
  • PISA und Bildungsgerechtigkeit: KMK-Bericht zur Bildungsgerechtigkeit 2024; PISA-Auswertungen Deutschland zu Schülerleistung und sozioökonomischer Herkunft.

Du willst wissen, welches Tool für deine konkrete Schulform und dein Fach am besten passt — oder wie du eine belastbare Bewertungsrubrik für KI-Feedback entwickelst? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar