Zwei Zahlen, die zusammen nicht aufgehen.
65 Prozent der Studierenden in Deutschland nutzen KI-Tools mindestens wöchentlich. Das hat das Centrum für Hochschulentwicklung (CHE) im Wintersemester 2024/25 unter rund 23.300 Studierenden an 165 Hochschulen erhoben. Nur sechs Prozent nutzen KI überhaupt nicht.
Gleichzeitig haben laut dem KI-Monitor 2025 des Stifterverbandes erst 43 Prozent der deutschen Hochschulen ihre Prüfungsordnungen an KI angepasst. Eigenständigkeitserklärungen haben 87 Prozent überarbeitet, aber eine aktualisierte Prüfungsordnung und ein angepasstes Formular sind nicht dasselbe.
Das bedeutet: An mehr als jeder zweiten deutschen Hochschule nutzen Studierende täglich Tools, für die es keine verlässliche Rechtslage gibt. Nicht weil sie Regeln brechen wollen. Sondern weil es kaum welche gibt, an denen man sich orientieren kann.
Was wirklich passiert, wenn jemand ChatGPT aufmacht
Die CHE-Befragung zeigt, wofür Studierende KI tatsächlich nutzen: Am häufigsten für Recherche und Themenüberblicke (45,9 %) und als Lernunterstützung beim Inhaltsverstehen (31,4 %). Was fehlt, ist jede systematische Prüfung, ob das auch funktioniert.
Das sind keine Betrugsmuster. Das sind Arbeitsweisen, die in jedem Büro der Welt gerade als Standardkompetenz etabliert werden.
Was auffällt: 68,6 Prozent der Studierenden wünschen sich laut CHE klare ethische Richtlinien und Datenschutzregeln von ihrer Hochschule. Die Studierenden wollen Orientierung. Sie bekommen sie nicht.
Die andere Zahl ist ernüchternder. Das KI-Angebot der Hochschulen bekommt von Studierenden im Schnitt 2,7 von 5 Sternen. 20,9 Prozent gaben einen Stern. Mehr als die Hälfte bewertet das institutionelle Angebot zur KI-Kompetenz als unzureichend.
Das Doppelbotschaftsproblem
Wer heute studiert, bekommt von zwei Seiten widersprüchliche Signale.
Von der Hochschule: KI ist in Prüfungskontexten heikel, Eigenständigkeit ist Pflicht, bei Verstößen drohen ernsthafte Konsequenzen. Von zukünftigen Arbeitgebern: Wer keine KI-Kompetenzen hat, wird es schwer haben.
Das ist kein konstruierter Widerspruch. Laut Stifterverband beschäftigen sich 96 Prozent der Hochschulen mit KI-Angeboten und Workshops. Fast 90 Prozent diskutieren KI-Kompetenzen als Lehrplanthema. Aber nur 15 Prozent haben eine fertige KI-Strategie verabschiedet, 50 Prozent befinden sich im Entwicklungsprozess.
Studierende navigieren also in einer Übergangsphase, die für sie persönlich keine Übergangsphase ist. Ihr Studium läuft jetzt. Ihre Abschlussarbeit ist jetzt. Ihr Einstieg in den Arbeitsmarkt ist in zwei Jahren.
Was das ethisch bedeutet: jenseits von Betrug
Die Debatte über KI an Hochschulen verengt sich schnell auf Täuschungserkennung. Das verfehlt das eigentliche Problem.
Die MIT Media Lab hat 2025 in einer Studie mit 54 Studierenden gemessen, was passiert, wenn KI die Denkarbeit übernimmt: Wer beim Schreiben direkt KI nutzte, erledigte Aufgaben messbar schneller — bestand aber den anschließenden Test zum Konzeptverständnis deutlich schlechter. Wie das KI als Lernbegleiter beschreibt, entscheidet die Reihenfolge: Wer zuerst selbst kämpft und dann KI nutzt, behält mehr als wer direkt fragt.
Das ethische Problem ist also nicht nur: Reiche ich fremde Arbeit als meine ein? Es ist auch: Trainiere ich überhaupt noch die Fähigkeit, die das Studium entwickeln soll?
Wer einen Essay mit KI fertigschreibt, lernt möglicherweise nicht zu schreiben. Und Schreiben ist kein Handwerk neben dem Inhalt: Es ist der Prozess, durch den Argumente klar werden. Wer das auslagert, bemerkt den Verlust oft erst, wenn er selbständig argumentieren muss.
Das ist keine Moralkeule. Es ist ein praktisches Risiko, das unabhängig von Prüfungsordnungen gilt.
Was du konkret daraus machen kannst
Der relevante Unterschied ist nicht KI benutzen oder nicht. Er ist: Wann und wie.
Erst selbst, dann KI. Schreib einen ersten Entwurf, bevor du KI fragst. Formuliere deine These, bevor du sie verifizieren lässt. Der MIT-Befund ist eindeutig: Wer zuerst kämpft, behält mehr. KI als Rückkopplungsschleife nach eigener Arbeit ist sinnvoll. KI als erster Schritt ist es nicht.
KI als kritisches Gegenüber nutzen. “Hier ist meine These, was sind die stärksten Gegenargumente?” ist eine andere Nutzungsweise als “Schreib mir einen Einleitungsabsatz zu Thema X.” Die erste schärft dein Argument. Die zweite ersetzt es.
Die institutionelle Vagheit aktiv auflösen. Wenn deine Hochschule keine klare Richtlinie hat, frag direkt nach — in der Lehrveranstaltung, per Mail, beim Prüfungsamt. “Was gilt in diesem Kurs für KI-Nutzung?” ist eine legitime Frage, keine Provokation. Du hast ein Interesse daran, die Antwort zu kennen, bevor du arbeitest.
Dokumentieren, wenn du KI nutzt. Unabhängig davon, ob deine Hochschule es verlangt: Halte fest, welche Tools du wofür genutzt hast. Nicht als Schuldeingeständnis, sondern als Reflexionspraxis. Wer seinen eigenen KI-Einsatz beschreiben kann, versteht ihn auch.
Warum die Hochschulen das Problem nicht wegregulieren können
Es gibt keine Regelung, die das Grundproblem löst. KI-Detektionstools funktionieren unzuverlässig und messen Stil, nicht Herkunft. Prüfungsformate, die KI ausschließen, werden immer schlechter widerspiegeln, wie tatsächlich gearbeitet wird. Und der Versuch, KI vollständig aus dem Studium herauszuhalten, produziert Absolvierende, die auf einen Arbeitsmarkt treffen, der sie erwartet.
Der Stifterverband fordert deshalb seit Februar 2025 in einem Positionspapier zur Bundestagswahl einen KI-Zukunftsfonds für Hochschulen mit dem Schwerpunkt: nicht Regulierung, sondern Kompetenzaufbau.
Das ist die sinnvollere Richtung. Aber sie braucht Zeit. Zeit, die das laufende Studium nicht hat.
Was bleibt: Du musst die Entscheidung selbst treffen. Diese Entscheidung ist nicht delegierbar. Keine Prüfungsordnung ersetzt das Urteilsvermögen, das du dabei brauchst.
Alle zwei Wochen Einordnungen zu KI — ohne Überforderung, ohne leere Versprechen. Abonniere den KI-Syndikat Newsletter und bleib informiert.