KI-gestützte Abwesenheits- und Lernrückstandsanalyse
KI analysiert Fehlzeiten-Muster und verknüpft sie mit Leistungsdaten — und gibt Lehrkräften frühzeitig einen Hinweis, welche Schüler durch Abwesenheiten kritische Lernlücken aufgebaut haben.
Es ist der 15. Februar, kurz vor der Halbjahreskonferenz der 8b.
Klassenlehrerin Maren Schultz sitzt mit dem Ausdruck aus WebUntis vor sich. Spalte für Spalte. Timo: 18 Fehltage, 12 entschuldigt. Lena: 7 Fehltage, alle entschuldigt. Jonas: 14 Fehltage, 9 unentschuldigt. Sie hat diese Liste schon dreimal gelesen. Aber sie hat nicht die Notenliste daneben. Die liegt in ihrer Handakte, ausgedruckt, von Dezember. Timos Mathe-Note ist von 3 auf 5 gefallen — aber stand das schon im Oktober? Sie weiß es nicht mehr genau.
Das Gespräch mit Timos Eltern ist in zwei Wochen. Sie wird aus dem Kopf berichten. Ungefähr. Meistens.
Was sie nicht weiß: In der Parallelklasse gibt es drei weitere Schüler mit demselben Muster — Fehlzeiten häufen sich, Noten kippen. Für die ist noch kein Gespräch geplant. Deren Klassenlehrer hat die Daten auch, aber separat, und die nächste Konferenz ist in sechs Wochen.
Das ist kein Versagen einzelner Lehrkräfte. Es ist das Ergebnis eines Systems, das Fehlzeiten und Leistungsentwicklung absichtlich getrennt verwaltet — und das erwartet, dass Lehrkräfte die Verbindung manuell herstellen, im Nebenbei, während sie vierzig andere Dinge tun.
Das echte Ausmaß des Problems
Schulabsentismus ist in Deutschland kein Randproblem. Schätzungen zufolge fehlen rund 300.000 Kinder und Jugendliche — etwa acht Prozent aller Schülerinnen und Schüler — mehr als zehn Tage pro Schuljahr unentschuldigt (laut Deutsches Schulportal, 2023). Fünf bis zehn Prozent fehlen regelmäßig im Unterricht. Und bei den Folgen: Rund sechs Prozent verlassen die Schule ohne Abschluss — ein Wert, der sich in den letzten Jahren kaum verbessert hat.
Was diese Zahlen verbergen: Der Abbruch kommt selten über Nacht. Er entsteht als Prozess über Monate — häufig beginnend mit einem Muster aus ansteigenden Fehlzeiten und gleichzeitig nachgebenden Noten. Das Hamburger Modellprojekt „Jeder Schultag zählt” (Joachim Herz Stiftung / Carl von Ossietzky Universität Oldenburg, 2019–2022) hat gezeigt: Wenn Schulen systematisch Anwesenheit erfassen und schnell auf Fehlzeiten reagieren, sinkt der Schulabsentismus messbar. Das Entscheidende war nicht neue Technik — es war die systematische Zusammenführung von Informationen, die alle Lehrkräfte schon hatten.
Genau hier liegt das heutige Problem. Viele Schulen in Deutschland nutzen WebUntis für die Stundenplanung und Fehlzeitenverwaltung, SchILD NRW (oder vergleichbare Landessysteme) für Noten und Zeugnisse — und beide Systeme reden nicht miteinander. Niemand ist dafür zuständig, die Verbindung herzustellen. In der Praxis heißt das: Die Information liegt vor, aber sie wird erst sichtbar, wenn jemand Zeit hat, sie manuell zusammenzuführen. Das passiert kurz vor Konferenzen, wenn es zu spät ist, um noch gezielt zu handeln.
Die Konsequenz in Zahlen:
- 17 Prozent aller Schülerinnen und Schüler haben nach einer Erhebung Fehlzeiten von 21 bis 40 Tagen pro Schuljahr (DGUV PlusPunkt, 2023)
- 8 Prozent weisen massive Fehlzeiten von mehr als 40 Tagen auf
- Chronisch fehlende Schüler holen den Stoff ohne gezielte Unterstützung in den seltensten Fällen allein auf — die Abwärtsspirale verstärkt sich selbst
Das Identifikationsproblem ist lösbar. Die Handlungskonsequenz danach — ein Elterngespräch, ein Fördergespräch, eine Beratung — braucht aber Menschen. KI schafft den ersten Schritt: sichtbar machen, was schon in den Daten steckt.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit KI-gestützter Analyse |
|---|---|---|
| Zeitpunkt der Risikoerkennung | Am Schuljahresende oder kurz vor Konferenzen | 4–8 Wochen früher, laufend |
| Datenbasis für Elterngespräche | Einzelne Ausdrucke, Gedächtnis der Lehrkraft | Verknüpfte Musteranalyse (Fehlzeiten + Notenentwicklung) |
| Aufwand für Konferenzvorbereitung | 1–3 Stunden manuelle Zusammenführung | 20–40 Minuten, Analyse liegt vor |
| Systemübergreifende Sichtbarkeit | Nicht vorhanden (Lehrkraft sieht nur eigene Klasse) | Schulweite Risikoliste möglich |
| Konsistenz der Identifikation | Stark abhängig von Aufmerksamkeit und Kapazität der Lehrkraft | Einheitliches Kriterium über alle Klassen |
Die Aussagekraft der Tabelle hat eine Grenze: Frühere Erkennung führt nur dann zu besseren Ergebnissen, wenn die Schule auch eine verlässliche Reaktion darauf hat. Das System identifiziert — handeln müssen Menschen. Dieser Unterschied ist zentral und wird im Abschnitt zur Einführungsrealität aufgegriffen.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5)
Der größte Gewinn liegt in der Konferenzvorbereitung: Statt zwei bis drei Stunden manuellem Abgleich steht die Analyse in zwanzig Minuten. Im Tagesgeschäft ist der Effekt kleiner — die laufende Analyse läuft im Hintergrund, nicht als tägliche Routineaufgabe. Wer täglich mit Fehlzeiten arbeitet (Schulleitung, Beratungslehrkräfte), profitiert stärker als Fachlehrkräfte, die nur gelegentlich nachschauen.
Kosteneinsparung — keine (1/5)
Es gibt keine direkt messbaren Kosteneinsparungen. Den Nutzen — weniger Schulabbrüche, frühere Förderung, bessere Abschlussquoten — kann man gesellschaftlich quantifizieren, aber nicht in Euro im Schulhaushalt. Das ist ehrlich und kein Mangel des Ansatzes. Das macht Kosteneinsparung in dieser Kategorie zum schwächsten Wert im Bildungsbereich.
Schnelle Umsetzung — niedrig (2/5)
Der größte Bremsklotz ist nicht Technik, sondern Verwaltung. Vor dem ersten produktiven Betrieb stehen: Datenschutzkonzept, Schulkonferenz, Elterninformation, Auftragsverarbeitungsvertrag mit dem Softwareanbieter, möglicherweise Abstimmung mit dem Schulträger. Realistisch sind 8–14 Wochen von der Entscheidung bis zum ersten Pilotbetrieb. Das ist deutlich langsamer als ein Tool für Unterrichtsplanung, das eine Lehrkraft am Nachmittag einrichtet.
ROI-Sicherheit — niedrig (2/5)
Outcomes im Schulbereich — Schulerfolg, Abbruchquoten, Benotungsentwicklung — sind nach einem Semester messbar, aber die Kausalzuschreibung bleibt schwer. Hat das Fördergespräch gewirkt? Hat die Analyse das Gespräch ausgelöst? Was wäre ohne das System passiert? Das Hamburger Projekt zeigte messbare Effekte, aber ein kurzfristiger ROI-Nachweis ist in dieser Kategorie nicht realistisch. Wer klare schnelle Messbarkeit braucht, wird woanders besser bedient.
Skalierbarkeit — hoch (4/5)
Ist das System einmal aufgesetzt, skaliert es ohne proportional steigenden Aufwand. Eine Analyse läuft für zehn Klassen genauso wie für fünfzig. Schulverbünde oder Schulträger können denselben Ansatz mit aggregierten Daten auf mehrere Schulen ausweiten — dort ist der Nutzen besonders hoch, weil schulübergreifende Muster sichtbar werden.
Richtwerte — stark abhängig von vorhandener Dateninfrastruktur, Schulform und Bundesland.
Was das System konkret macht
Das Grundprinzip ist einfach: Daten zusammenführen, die normalerweise getrennt liegen, und dann nach Mustern suchen, die Menschen im Alltag nicht sehen — nicht weil sie es nicht könnten, sondern weil die Zeit und die Verknüpfung fehlen.
In der Praxis läuft das in drei Schritten:
Schritt 1: Export aus den Schulverwaltungssystemen. WebUntis kann Fehlzeiten als CSV exportieren — nach Schüler, nach Zeitraum, nach Art (entschuldigt/unentschuldigt). SchILD NRW und ähnliche Systeme exportieren Notendaten. Die Exportfunktionen existieren — sie werden nur selten genutzt. Dieser Export wird regelmäßig durchgeführt, idealerweise wöchentlich oder vor jeder Konferenz.
Schritt 2: Musteranalyse. Die exportierten Daten werden in einem Analysetool — zum Beispiel Power BI oder einem einfachen KI-gestützten Tabellenanalyse-Tool — verknüpft. Die Analyse sucht nach: Schülern mit ansteigenden Fehlzeiten über den letzten Zeitraum; Schülern, bei denen Fehlzeiten mit einem Notenabfall in denselben Fächern korrelieren; Schülern, bei denen mehrere dieser Muster gleichzeitig auftreten (Risiko-Score).
Schritt 3: Handlungsempfehlung. Das Ergebnis ist keine automatische Diagnose, sondern eine priorisierte Aufmerksamkeitsliste für Lehrkräfte: „Diese fünf Schüler zeigen ein Muster, das eine Einschätzung rechtfertigt.” Ob ein Gespräch stattfindet, was besprochen wird und wie die Schule reagiert — das entscheiden Menschen.
Wichtig: Das System kann keine Ursache nennen. Es weiß nicht, ob Timo wegen Krankheit fehlt, wegen häuslicher Probleme oder wegen Schulvermeidung. Es zeigt nur das Muster. Die pädagogische Einschätzung, ob und wie gehandelt wird, liegt vollständig bei Lehrkräften und Schulleitung.
Was Schulen wirklich in ihren Daten haben
Bevor jemand an Analyse denkt, steht die Frage: Sind die Daten überhaupt nutzbar? In der Praxis ist das der am häufigsten unterschätzte Punkt.
Ein typischer Befund in deutschen Schulen:
- Fehlzeiten: Werden in WebUntis oder einem ähnlichen System digital erfasst — aber oft verzögert. Viele Lehrkräfte tragen Fehlzeiten erst am Ende der Woche ein, nicht täglich. Manche Schulen noch papierbasiert, die Daten kommen nur zur Zeugniserstellung ins System.
- Noten: Liegen in SchILD NRW, Zeugnissoftware oder — häufiger als man denkt — in persönlichen Excel-Tabellen einzelner Lehrkräfte. Kein zentrales System, keine einheitliche Aktualität.
- Klassenbuch: Häufig digital (z.B. in WebUntis oder Logineo NRW), aber Konsistenz der Einträge variiert stark nach Lehrkraft.
- Qualität der Entschuldigungen: Wer entschuldigt wird, variiert zwischen Lehrkräften. Was als „unentschuldigt” zählt, ist nicht immer einheitlich definiert.
Praktische Konsequenz: Wer mit diesem Ansatz starten will, muss zunächst zwei bis drei Wochen in die Datenqualität investieren. Welche Daten liegen in welchem Format vor? Wie aktuell sind sie? Wer trägt was ein, und wie konsistent? Diese Bestandsaufnahme ist kein IT-Projekt — sie ist ein Gespräch zwischen Schulleitung, Systembetreuung und Lehrerkonferenz. Ohne sie führt eine Analyse zu Ergebnissen, denen niemand vertraut.
Abgrenzung: Frühwarnung vs. Überwachung
Diese Diskussion wird an jeder Schule kommen, die diesen Ansatz einführt — und sie ist berechtigt.
Ein Frühwarnsystem für Fehlzeiten und Lernrückstände hat das Potenzial, als Überwachungsinstrument wahrgenommen zu werden: Schüler werden beobachtet, bewertet, mit Risiko-Scores versehen. Das ist ein realer pädagogischer und ethischer Einwand, den Lehrerverbände, Elternvertretungen und Datenschutzbehörden zu Recht stellen.
Der Unterschied zwischen Unterstützung und Überwachung liegt im Kontext und in der Nutzung:
Unterstützung: Das Muster ist ein Hinweis auf möglichen Hilfebedarf. Es löst ein Gespräch aus — auf Augenhöhe, im Interesse des Schülers. Die Information fließt in pädagogische Entscheidungen ein, die ohne das System auch getroffen würden — nur weniger informiert und oft zu spät.
Überwachung: Das Muster wird zur Grundlage für Sanktionen, für Stigmatisierung, für automatische Folgen. Der Schüler wird zum Datenpunkt, nicht zum Menschen mit einem Problem.
Das System selbst hat kein Bewusstsein davon — es rechnet. Die pädagogische Haltung, mit der die Schule die Ergebnisse nutzt, entscheidet über den Charakter des Projekts. Das muss vor der Einführung in der Lehrerkonferenz besprochen werden, nicht danach.
Ein konkreter Hinweis für die Praxis: Eltern und — je nach Alter — Schüler selbst sollten über die Analyse informiert werden. Nicht als Pflichtinformation am Rand, sondern als aktive Kommunikation: Was wird analysiert, warum, wer sieht die Ergebnisse, was folgt daraus? Transparenz ist hier kein Datenschutzformalismus, sondern Voraussetzung für Vertrauen.
Konkrete Werkzeuge — was wann passt
Die richtige Tool-Wahl hängt von einer zentralen Frage ab: Welche Schulverwaltungssoftware setzt die Schule ein, und was exportiert sie?
WebUntis — die Datenquelle, nicht das Analysetool
WebUntis enthält Fehlzeiten-Rohdaten und stellt einen CSV-Export sowie eine REST-API bereit. WebUntis selbst hat keine eingebaute Korrelationsanalyse mit Leistungsdaten. Es ist der Startpunkt, nicht das Ziel. Wichtig: Nur Fehlzeiten liegen hier — Noten kommen aus einem anderen System.
Power BI — für die Musteranalyse auf Schulebene
Power BI Desktop ist kostenlos und läuft ohne Cloud. Du lädst die CSV-Exporte aus WebUntis und dem Notensystem, verbindest sie über die Schüler-ID, und baust ein Dashboard: Wer hat in welchem Zeitraum wie viele Fehltage? Wo fällt gleichzeitig die Note? Power BI kann einfache Korrelationsdarstellungen ohne Programmierkenntnisse erstellen. EU-Datenhaltung ist möglich (Power BI Service in der EU-Region). Geeignet für Schulen mit jemandem, der bereit ist, zwei bis drei Stunden in die Einrichtung zu investieren.
Julius AI — nur für anonymisierte Analyse
Julius AI kann CSV-Exporte analysieren und Muster in natürlicher Sprache beschreiben. Es ist die schnellste Option für eine erste Analyse. Kritischer Punkt: Julius AI ist US-gehostet und darf nicht für personenbezogene Schülerdaten genutzt werden. Ausschließlich für anonymisierte oder aggregierte Daten (z.B. Klassenebene ohne Einzelnamen) — nicht für individuelle Risikobewertungen. Vor jedem Einsatz mit dem Datenschutzbeauftragten abklären.
ChatGPT / Claude — für Gesprächsvorbereitung und Interpretation
Mit einer anonymisierten Zusammenfassung der Musteranalyse (keine echten Namen, keine direkt identifizierbaren Daten) können diese Tools dabei helfen, einen Gesprächsleitfaden für das Elterngespräch zu entwickeln, Förderpläne zu strukturieren oder die Analyse zu interpretieren. Das ist eine sinnvolle Ergänzung — aber der Analyseschritt selbst sollte datenschutzkonform mit lokal verarbeiteten Daten passieren.
Was fehlt auf dem deutschen Markt
Eine spezialisierte, DSGVO-konforme Software für genau diesen Anwendungsfall — Abwesenheits- und Leistungskorrelation mit Schulverwaltungssystem-Integration, auf deutschen Schulservern oder zertifizierten deutschen Cloudanbietern gehostet — existiert bisher nicht als marktverfügbares Produkt für Einzelschulen. Panorama Education (US) macht genau das für US-Schulen, hat aber keine DSGVO-konforme EU-Variante. Das ist eine echte Marktlücke.
Wann welcher Ansatz:
- Erste Analyse zum Kennenlernen → Power BI Desktop mit anonymisierten Testdaten (kostenlos, lokal)
- Laufende Schulpraxis → Power BI Desktop + manuelle CSV-Exporte, monatlicher oder wöchentlicher Rhythmus
- Schulträger-Ebene (mehrere Schulen) → Power BI Service in EU-Region, zentrale Datenquelle
- Gesprächsvorbereitung mit KI → ChatGPT/Claude, nur mit anonymisierten Mustern
Datenschutz und Datenhaltung
Fehlzeiten und Noten von Schülerinnen und Schülern sind besonders schützenswerte personenbezogene Daten — und bei Minderjährigen gelten zusätzliche Anforderungen. Das ist kein bürokratischer Umweg, sondern der Kernpunkt für jede Schule, die diesen Ansatz verfolgt.
Was die DSGVO hier konkret bedeutet:
Schulen in Deutschland sind öffentliche oder anerkannte private Einrichtungen und verarbeiten Schülerdaten auf Basis von Schulgesetzen der Länder (§§ variieren je nach Bundesland). Die DSGVO gilt, wird aber durch die Landesdatenschutzgesetze ergänzt und in Teilen überlagert. Das bedeutet: Es gibt keine einheitliche Bundesregelung. Bayern, NRW, Hamburg — jedes Bundesland hat eigene Regelungen, wer schulische Daten wie verarbeiten darf.
Konkrete Anforderungen für diesen Anwendungsfall:
-
Kein Drittanbieter ohne AVV. Sobald ein externes Tool (Power BI Service, Julius AI) Schülerdaten verarbeitet, muss ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO vorliegen. Power BI Service (Microsoft) hat einen AVV — er muss aktiv angefordert und unterzeichnet werden. Julius AI ist US-basiert; für personenbezogene Daten reicht ein AVV allein nicht aus — es braucht eine Drittlandübermittlung nach Art. 46/49 DSGVO.
-
Einwilligung bei Minderjährigen. Schülerinnen und Schüler unter 14 Jahren: Einwilligung beider erziehungsberechtigter Personen erforderlich. Ab 14 Jahren: zusätzlich die Einwilligung der Schülerinnen und Schüler selbst. Wenn der Ansatz auf einer Schulgesetzdatenverarbeitungsgrundlage beruht (z.B. §§ Schulgesetz NRW), kann eine Einwilligung entfallen — aber das muss mit dem Datenschutzbeauftragten des Schulträgers geklärt werden, nicht eigenständig entschieden werden.
-
Schulkonferenz und Personalrat. Die Einführung eines Systems, das Schülerverhalten auswertet, berührt Mitbestimmungsrechte. Ohne Einbindung von Schulkonferenz und ggf. Personalrat riskiert die Schulleitung nicht nur Widerstände, sondern in manchen Bundesländern auch eine Rechtswidrigkeit der Datenverarbeitung.
-
Datenhaltung. WebUntis hostet EU-konform. SchILD NRW liegt in der Regel auf Schulservern oder bei Schulträgern. Power BI Desktop läuft lokal, keine Cloud. Das ist die datenschutzrechtlich sauberste Lösung für den Analyseschritt. Wer in die Cloud will, braucht EU-Rechenzentren und bestätigte Drittlandübermittlungsabsicherung.
Empfehlung: Vor dem ersten Datenexport: Gespräch mit dem/der Datenschutzbeauftragten des Schulträgers, Vorlage des Konzepts in der Schulkonferenz, schriftliche Dokumentation der Rechtsgrundlage. Das klingt nach viel — ist aber erfahrungsgemäß mit zwei bis drei fokussierten Besprechungen erledigt, wenn das Konzept klar ist.
Was es kostet — realistisch gerechnet
Die direkte Softwarerechnung ist bei diesem Anwendungsfall ungewöhnlich niedrig:
Laufende Kosten (Werkzeuge)
- WebUntis ist in vielen Schulen bereits vorhanden (Schullizenz, Preis auf Anfrage — typisch mehrere hundert Euro pro Jahr für eine Schule, oft vom Schulträger bezahlt)
- SchILD NRW: kostenlos für NRW-Schulen, vom Land bereitgestellt
- Power BI Desktop: kostenlos, lokal — kein monatlicher Kostenfaktor
- Power BI Pro (für gemeinsames Teilen innerhalb der Schule): 12,10 EUR/Nutzer/Monat; für 2–3 Personen in der Schulleitung: ca. 25–40 EUR/Monat
Einmaliger Einrichtungsaufwand
- Datenschutzkonzept erstellen und abstimmen: ca. 4–8 Stunden Schulleitung + ggf. externer Datenschutzberater (200–500 EUR)
- Datenmodell aufbauen (Verknüpfung der Exporte in Power BI): 3–6 Stunden, einmalig; macht jemand intern oder mit 1–2 Stunden externer Unterstützung
- Schulkonferenz und Dokumentation: 2–4 Stunden
Gesamtaufwand Einrichtung: ca. 10–20 Stunden intern, ggf. 500–1.000 EUR für externe Datenschutzberatung.
Was du dagegenrechnest — ehrlich
Direkte Kostenrechnung funktioniert hier nicht. Was zählt: Früher geführte Gespräche bedeuten mehr Zeit für Intervention bevor Noten kippen. Das Hamburger Projekt zeigt, dass systematische Anwesenheitskontrolle und schnelle Reaktion Schulabsentismus messbar reduziert — aber der Nachweis läuft über Schuljahre, nicht über Quartalsberichte. Wer einen Business Case mit schnellem ROI braucht, ist hier am falschen Platz. Wer Schüler früher erreichen will, ist am richtigen.
Wo Geld gespart werden kann
Kein neuer Softwarekauf nötig. Wenn WebUntis und SchILD (oder entsprechendes Landessystem) vorhanden sind, ist die Ausgangssituation gegeben. Die Investition ist Zeit — hauptsächlich für Datenschutz und Einrichtung.
Typische Einstiegsfehler
1. Mit der Analyse starten, bevor die Datenqualität geprüft ist.
Wenn Fehlzeiten in WebUntis nur sporadisch eingetragen werden — weil manche Lehrkräfte erst am Freitag nachtragen — spiegelt der Export nicht die Realität. Die Analyse sieht dann aus wie Zufall, und das Vertrauen in das System ist schnell weg. Lösung: Zwei bis drei Wochen vor dem ersten Pilotexport mit dem Kollegium besprechen, was eine verlässliche tägliche Eintragung bedeutet. Das ist eine Vereinbarung, kein technisches Problem.
2. Die Analyse als Automatismus verstehen.
Ein System, das Muster zeigt, ist kein Entscheidungssystem. Es ist ein Aufmerksamkeitssystem. Wenn Schulen anfangen, Schüler allein wegen eines Risiko-Scores anzusprechen, ohne pädagogische Einschätzung dazwischenzustellen, entsteht genau das, was Eltern und Schüler zu Recht befürchten: algorithmische Etikettierung. Ein gutes Einführungskonzept definiert von Anfang an: Was löst ein Gespräch aus? Wer führt es? Wie wird der Schüler einbezogen?
3. Die Datenschutzarbeit auf „später” verschieben.
Das ist der häufigste und folgenreichste Fehler. Schulen starten mit einem Tool-Test, die Daten laufen durch ein US-Cloud-Tool, niemand hat AVV unterschrieben — und dann fragt der Datenschutzbeauftragte nach. Alles muss gestoppt werden, das Vertrauen ist beschädigt. Lösung: Datenschutz ist Schritt 1, nicht Schritt 4. Es klingt umständlich, aber der Zeitaufwand ist überschaubar, wenn man ihn von Anfang an einplant.
4. Die Einführung ohne Rückenwind aus der Lehrerschaft starten.
Wenn die Schulleitung ein System einführt, das Lehrkräfte als zusätzliche Kontrollschicht erleben, bricht der Ansatz an der Nutzungsbereitschaft. Wer die Daten einträgt — Lehrkräfte — muss verstehen, wozu die Analyse dient. Nicht: „Ich werde jetzt ausgewertet.” Sondern: „Wir bekommen früher Hinweise, wen wir unterstützen müssen.” Das ist kein Kommunikationsproblem, das man mit einem Infozettel löst — das ist ein Kulturprojekt, das Gespräche braucht.
5. Das System einrichten und dann sich selbst überlassen.
Die Analyse läuft nicht von alleine auf dem neuesten Stand. Wer die Exporte nicht regelmäßig aktualisiert, analysiert alte Daten. Das Muster von Oktober sagt im März nichts Neues. Wer diesen Punkt nicht aktiv organisiert — wer exportiert wann, wer aktualisiert das Dashboard, wer schaut drauf — bekommt ein System, das nach drei Monaten niemand mehr benutzt.
Was mit der Einführung wirklich passiert — und was nicht
Die technische Einrichtung ist der einfache Teil. Das Schwierigere ist, was danach kommt.
Was passiert: Lehrkräfte sehen erstmals eine Gesamtschau, die sie selbst nie hatten. Manche reagieren mit „Aha, den hätte ich nie auf dem Schirm gehabt” — das ist der Moment, für den sich das System lohnt. Ein Schüler, der in vier Fächern gleichzeitig Fehlzeiten und Notenabfälle zeigt, fällt in der Einzelsicht von Fachlehrkräften nicht auf — weil jede von ihnen nur ihre Fachperspektive hat.
Was nicht passiert: Das System löst keine Handlungsbereitschaft aus, die vorher nicht da war. Wenn eine Schule keine etablierte Förderstruktur hat — kein Beratungslehrkraft-Konzept, kein klares Protokoll für Elterngespräche bei Risikomustern — wird die Analyse zu einer Liste, auf die niemand reagiert. Das Hamburger Projekt hat gezeigt: Was wirkt, ist die Kombination aus Erkennung und schneller, strukturierter Reaktion. Die Reaktion ist das Schwerere.
Häufige Widerstände in der Praxis:
Datenschutz als Blockade. „Das dürfen wir nicht.” Manchmal stimmt das — wenn die Rechtsgrundlage tatsächlich fehlt. Manchmal ist es ein Reflex, der die Auseinandersetzung vermeidet. Lösung: Frühzeitig den Datenschutzbeauftragten einbinden, ein schriftliches Konzept vorlegen und die Rechtsgrundlage klären. Das nimmt die Unsicherheit raus.
„Das haben wir immer schon gemacht.” Manche erfahrenen Klassenlehrkräfte haben ein sehr gutes intuitives Gespür für Schüler mit Problemen. Das stimmt — für ihre eigene Klasse. Die systemische Sicht über Klassen und Jahrgänge hinweg haben sie nicht. Das ist kein Angriff auf ihre Kompetenz, sondern eine Ergänzung.
Angst vor Mehrarbeit. Wenn die Analyse zu einer weiteren Pflichtaufgabe wird — wöchentliches Dashboard-Checken obendrauf auf alles andere — ist Widerstand berechtigt. Lösung: Die Analyse ersetzt den manuellen Abgleich vor Konferenzen, sie kommt nicht zusätzlich dazu. Das muss von Anfang an so kommuniziert und so praktiziert werden.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Bestandsaufnahme Daten | Woche 1–2 | Welche Daten liegen in welchem Format vor? Qualitätsprüfung, Exporttest | Daten inkonsistent oder veraltet — Fehlzeiteneinträge unvollständig |
| Datenschutzklärung | Woche 2–4 | Konzept erstellen, Datenschutzbeauftragten einbinden, Rechtsgrundlage dokumentieren | Schulträger-DSB nicht erreichbar oder fordert umfangreicheres Konzept |
| Schulkonferenz & Kommunikation | Woche 4–6 | Vorlage in der Schulkonferenz, Elterninformation vorbereiten, Kollegium informieren | Grundsatzdiskussion in der Konferenz verzögert die Einführung |
| Pilotaufbau | Woche 6–10 | Dashboard aufbauen, erster Testexport, ein bis zwei Klassen pilotieren | Technische Hürden bei der Datenverknüpfung — Schüler-IDs inkonsistent zwischen Systemen |
| Pilotbetrieb & Feedback | Woche 10–14 | Erste echte Analyse, Einschätzung durch Lehrkräfte, Anpassung | Nutzungsbereitschaft niedrig — fehlende Einbindung des Kollegiums in Entwicklung |
Der Zeitplan klingt lang. Er ist es, weil Schulen öffentliche Institutionen mit Mitbestimmungsstrukturen und Datenschutzanforderungen sind. Wer die Phasen überspringt, bekommt kein schnelleres Ergebnis — er bekommt spätere Probleme.
Häufige Einwände — und was dahintersteckt
„Wir dürfen Schülerdaten nicht so verwenden.”
Stimmt in manchen Bundesländern und bei manchen Tool-Kombinationen. Stimmt nicht pauschal. Schulen verarbeiten täglich dieselben Daten — Fehlzeiten und Noten — für Zeugnisse, Elterngespräche und Konferenzen. Die Frage ist nicht ob, sondern wie und mit welchem Tool. Eine lokale Power BI-Analyse auf einem schuleigenen Rechner mit DSGVO-konformer Basis ist grundsätzlich anders als eine US-Cloud-Lösung. Klärung mit dem Datenschutzbeauftragten, nicht pauschale Ablehnung.
„Unsere Lehrkräfte machen das schon intuitiv.”
Für die Klasse, die sie täglich sehen: ja. Für die Schülerin, die in drei verschiedenen Fächern leise kippt, von der aber jede Lehrkraft nur ein Puzzlestück sieht: nein. Dieses Problem ist strukturell, nicht eine Frage individueller Aufmerksamkeit. Und es wächst mit Schulgröße — an einer Schule mit 600 Schülern hat keine Einzelperson den Überblick.
„Was ist, wenn die Analyse falsch liegt?”
Sie zeigt Muster, keine Diagnosen. Ein erhöhter Risiko-Score ist kein Urteil — er ist ein Anlass für ein Gespräch, das möglicherweise klärt: alles in Ordnung, der Schüler hatte eine schwierige Phase, die überwunden ist. Das Gespräch hätte ohne die Analyse nicht stattgefunden. Selbst wenn es „unnötig” war, ist das kein Schaden.
„Wir haben keine Zeit für so ein Projekt.”
Das ist der ehrlichste Einwand. Wenn die Schulleitung und das Kollegium bereits am Limit sind, ist der Einführungsaufwand real und nicht trivial. Der Gegenvorschlag: nicht als Schulentwicklungsprojekt mit Kick-off und Steuergruppe starten, sondern als stilles Werkzeug in der Schulleitung — Schulleiter oder Beratungslehrkraft testet es für die eigene Klasse oder einen Jahrgang, ohne breiten Rollout. Wenn der Nutzen sichtbar ist, entsteht die Bereitschaft für den nächsten Schritt von selbst.
Woran du merkst, dass das zu dir passt
- Deine Schule nutzt bereits WebUntis oder SchILD und trägt Fehlzeiten und Noten digital ein — die Daten existieren, sie werden nur nicht verknüpft
- In der Konferenz läuft der Abgleich manuell: Jemand druckt die Fehlzeitenliste aus und vergleicht sie mit dem Erinnerungsgefühl der Lehrkräfte
- Förderbedarfe werden überwiegend am Schuljahresende oder nach der Zeugniskonferenz erkannt — nicht in der Mitte des Schuljahres, wenn noch Zeit zum Handeln wäre
- Beratungslehrkräfte berichten, dass Schüler zu ihnen kommen, wenn das Problem schon sehr ausgeprägt ist — nicht in frühen Phasen
- Es gibt eine Person in der Schulleitung oder ein Steuerteam, das bereit ist, Datenschutz, Einrichtung und Kollegiumsgespräch zu tragen — ohne diesen Anker geht der Ansatz nicht
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Fehlzeiten werden noch in Papierform oder inkonsistent digital erfasst. Wenn die Datengrundlage fehlt, fehlt alles. Kein Analysetool der Welt macht aus unvollständigen oder veralteten Einträgen zuverlässige Muster. Der sinnvollste erste Schritt ist dann: eine verlässliche digitale Fehlzeitenerfassung einrichten und das Kollegium auf konsistente Einträge verpflichten. Die KI-Analyse kommt danach.
-
Die Schule hat kein definiertes Reaktionsprotokoll für Schüler mit Risikomustern. Eine Analyse, die zeigt „diese drei Schüler haben ein auffälliges Muster”, ist wertlos, wenn unklar ist, wer danach was macht. Wenn die Beratungsstruktur fehlt oder überlastet ist, erzeugt die Analyse nur Frustration. Erst die Handlungsstruktur aufbauen, dann das Erkennungssystem.
-
Kein aktives Mandat für diesen Ansatz von Schulleitung und Schulkonferenz. Datenschutz, Mitbestimmung und Kollegiumskultur machen diesen Anwendungsfall zu einem, bei dem Autorität und Legitimation von oben und aus der Mitte kommen müssen — gleichzeitig. Eine Initiative einzelner engagierter Lehrkräfte ohne Schulleitung hinter sich hat keine stabile Basis und scheitert spätestens beim ersten Datenschutzgespräch.
Das kannst du heute noch tun
Der einfachste erste Schritt kostet nichts und verbrennt keine Brücken: einen Testexport machen.
Logge dich in WebUntis ein — du brauchst Administratorrechte — und exportiere die Fehlzeitendaten der letzten drei Monate für eine Klasse als CSV. Anonymisiere die Schülernamen (ersetze sie durch Nummern oder Initialen). Lade die Datei in Power BI Desktop (kostenloser Download) und erstelle eine einfache Balkengrafik: Fehltage pro Schüler im Zeitverlauf.
Das zeigt dir in einer Stunde, wie deine Daten aussehen — und ob das Konzept grundsätzlich funktioniert. Kein Tool-Kauf, keine Datenschutzfrage, keine Schulkonferenz.
Der zweite Schritt ist ein Gespräch: mit dem/der Datenschutzbeauftragten des Schulträgers. Nicht um Erlaubnis zu bitten — um zu klären, unter welcher Bedingung das rechtssicher ist. Wenn du das Gespräch mit einem klaren Konzept (was wird verarbeitet, wo bleibt es, wer sieht es) führst, ist das oft kürzer als erwartet.
Wenn du vorher verstehen willst, welche Muster in einer Fehlzeitenliste analytisch erkennbar sind, kannst du folgenden Prompt mit einer anonymisierten Beispieltabelle ausprobieren:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Schulabsentismus-Statistiken Deutschland: Deutsches Schulportal, „Schulabsentismus: Warum Kinder und Jugendliche die Schule schwänzen” (2023); DGUV PlusPunkt, „FAQs zum Schulabsentismus” (2023). Zahlen: 8 Prozent mit mehr als 10 unentschuldigten Fehltagen, 17 Prozent mit 21–40 Fehltagen, 6 Prozent ohne Schulabschluss.
- Hamburger Modellprojekt „Jeder Schultag zählt”: Joachim Herz Stiftung / Alfred Toepfer Stiftung / Carl von Ossietzky Universität Oldenburg (Prof. Heinrich Ricking), 2019–2022. Vier Hamburger Schulen. Ergebnis: Systematische Anwesenheitserfassung und schnelle strukturierte Reaktion reduziert Schulabsentismus messbar. Praxishandbuch verfügbar unter: joachim-herz-stiftung.de (Stand: 2024, dritte Auflage).
- Grenzen früher Warnsysteme: Education Week, „Most Schools Have Early-Warning Systems. Some Kids Are Still Getting Lost” (Februar 2024), Bezug auf Forscher Yusuf Canbolat: Systeme identifizieren, aber Ergebnisse verbessern sich nur wenn Intervention aktiv und ursachenbezogen ist; Systeme mit unzureichendem Coaching-Element zeigen inequitable Ergebnisse (Nutzen primär für einkommensstärkere Schüler).
- DSGVO Schulen / Minderjährige: DSGVO Art. 8, 28, 46/49; datenschutz-schule.info (2024): Einwilligungsgrenze 14 Jahre, besonderer Schutzbedarf personenbezogener Daten bei Minderjährigen; Datenschutz-Grundverordnung in aktuell gültiger Fassung.
- Tool-Preise: WebUntis (Untis GmbH, Schullizenz, Angebot auf Anfrage, Stand April 2026); SchILD NRW (kostenlos, bereitgestellt vom Land NRW); Power BI Desktop (kostenlos) / Pro (12,10 EUR/Nutzer/Monat, Microsoft, Stand April 2026).
Möchtest du wissen, welche Daten bei euch exportierbar sind und ob das Konzept für eure Schule rechtssicher umsetzbar ist? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Tutoren für Lernende
KI-gestützte Tutorsysteme beantworten Fragen von Schülern und Studierenden rund um die Uhr, erklären Inhalte auf verschiedenen Niveaustufen und passen sich dem Lernstand an.
Mehr erfahrenUnterrichtsplanung und Materialerstellung mit KI
KI erstellt Unterrichtsentwürfe, Arbeitsblätter, Quiz-Fragen und Erklärvideokonzepte — Lehrkräfte verbringen weniger Zeit mit Vorbereitung und mehr Zeit mit Schülern.
Mehr erfahrenAufgaben und Tests mit KI erstellen
KI generiert Aufgaben, Klausurfragen und Quiz auf verschiedenen Schwierigkeitsniveaus — in Minuten, inklusive Musterlösung und Bewertungshinweisen.
Mehr erfahren