Zum Inhalt springen

Wie entstehen KI-Halluzinationen — und wie vermeidest du sie?

KI erfindet Fakten und Quellen — und klingt dabei absolut überzeugend. Warum das passiert und wie du dich davor schützt.

D
Daniel Sonnet
· · 5 Min. Lesezeit
Wie entstehen KI-Halluzinationen — und wie vermeidest du sie?

Stell dir vor: Du fragst ChatGPT nach einer wissenschaftlichen Studie zum Thema Schlaf und Lernleistung. Es antwortet sofort — mit Autorname, Zeitschrift, Jahreszahl, Seitenzahl. Alles klingt seriös. Du zitierst es in deiner Präsentation.

Später googelst du die Studie. Sie existiert nicht. Die Zeitschrift gibt es, den Autor gibt es — aber dieser Artikel wurde nie geschrieben.

Genau das ist eine KI-Halluzination. Und sie passiert nicht, weil die KI lügt. Sie passiert, weil sie gar nicht weiß, was eine Lüge ist.


Warum KI sich Dinge ausdenkt

Das klingt paradox: Wie kann ein System, das so viel weiß, gleichzeitig so sicher falsche Dinge behaupten?

Die Antwort liegt darin, wie Large Language Models grundsätzlich funktionieren. Ein LLM lernt nicht Fakten wie in einer Datenbank. Es lernt Muster — statistische Zusammenhänge zwischen Wörtern und Sätzen aus riesigen Mengen Text. Wenn du eine Frage stellst, berechnet es Wahrscheinlichkeiten: Welche Wörter kommen nach diesen Wörtern am häufigsten?

Das ist eine geniale Fähigkeit für viele Aufgaben. Aber es bedeutet auch: Das Modell hat kein inneres Konzept von “wahr” oder “falsch”. Es generiert plausible Fortsetzungen — nicht verifizierten Fakten.

Ein Zitat sieht für ein Sprachmodell wie jedes andere Zitat aus, das es in Trainingsdaten gesehen hat. Es weiß nicht, ob dieses spezifische Zitat existiert. Es weiß nur, wie Zitate im Allgemeinen aussehen.


Wann passiert es besonders oft?

Nicht alle Aufgaben sind gleich gefährdet. Halluzinationen treten besonders häufig auf bei:

Spezifischen Fakten, die selten vorkommen. Nischenstudien, weniger bekannte Personen, genaue Jahreszahlen, Gesetzesparagrafen. Je weniger Trainingsdaten zu einem Thema existieren, desto mehr muss das Modell “raten”.

Quellen- und Zitatanfragen. “Nenn mir drei Studien zu…” ist einer der verlässlichsten Wege, Halluzinationen zu provozieren. Das Modell kennt das Format eines Zitats sehr gut — und füllt es aus.

Aktuellen Ereignissen. Modelle haben ein Trainingsdatum. Was danach passiert ist, kennen sie nicht — aber sie antworten trotzdem, wenn du fragst.

Zahlen und Statistiken. “Wie hoch ist die Arbeitslosenquote in…?” klingt wie eine Faktenfrage. Das Modell gibt eine Zahl — aber die ist oft unzuverlässig.


Drei Strategien, die wirklich helfen

1. Lass die KI ihre Unsicherheit zeigen

Standardmäßig formuliert ein LLM Antworten mit Sicherheit — selbst wenn es unsicher ist. Du kannst das ändern.

Füge deinem Prompt hinzu: “Wenn du dir bei einer Aussage nicht sicher bist, sag das explizit. Schreib ‘Ich bin mir hier nicht sicher’ oder ‘Das solltest du verifizieren’.”

Das hilft nicht immer perfekt, aber es reduziert die Häufigkeit, mit der Modelle falsche Antworten mit falscher Sicherheit liefern.

2. Frag nach Quellen — und prüfe sie

Wenn du Fakten benötigst: Bitte das Modell, Quellen zu nennen. Dann prüfe jede einzelne davon. Ja, das kostet Zeit. Aber es ist der einzige zuverlässige Weg.

Noch besser: Nutze Tools, die Quellen direkt einbinden — Perplexity, Bing Copilot oder ChatGPT Browsing. Diese Systeme können auf aktuelle, verlinkbare Inhalte zugreifen und sind damit deutlich zuverlässiger bei Faktenfragen.

3. Nutze RAG für deine eigenen Daten

RAG steht für Retrieval-Augmented Generation. Das Prinzip: Du gibst dem Modell nicht nur eine Frage, sondern gleichzeitig die Dokumente, die es zur Beantwortung nutzen soll. So muss es keine Fakten aus dem Training abrufen — es liest in den Dokumenten nach.

Praktisch funktioniert das zum Beispiel so: Du lädst ein 50-seitiges Dokument hoch und fragst: “Was steht in diesem Dokument zu Paragraph 12?” Das Modell antwortet auf Basis des Textes, nicht aus dem Training. Die Fehlerrate sinkt deutlich. Für den Unternehmenseinsatz — etwa als interne Wissensdatenbank — ist das ein zentraler Baustein.


Was du immer doppelt prüfen solltest

Manche Kategorien sind so fehleranfällig, dass es keine Ausnahmen geben sollte:

Zitate und Studienreferenzen — immer in der Originalquelle nachschlagen. Gesetzestexte und Paragrafen — immer in der offiziellen Quelle prüfen. Zahlen, Statistiken, Prozentangaben — immer die Quelle finden, bevor du sie weitergibst. Medizinische und rechtliche Aussagen — hier ist Eigenrecherche Pflicht, keine Option.

Das klingt viel. Aber ehrlich gesagt: Diese Kategorien solltest du auch bei Google-Ergebnissen prüfen. KI macht das Problem nur sichtbarer, weil die Antworten so überzeugend formuliert sind.


Der Prompt, der dir hilft

Wenn du mit KI zu Themen arbeitest, bei denen Genauigkeit wichtig ist, probiere diesen Einstieg:

“Antworte nur auf Basis von Dingen, die du mit hoher Sicherheit weißt. Kennzeichne explizit, wenn du dir nicht sicher bist. Erfinde keine Quellen. Wenn du eine Quelle nicht kennst, sag das lieber, als eine zu erfinden.”

Das ist kein Wundermittel. Aber es verbessert die Qualität der Antworten messbar — vor allem bei Faktenfragen.

Mehr zu effektivem Prompt Engineering und wie du Prompts schreibst, die verlässlichere Ergebnisse liefern, findest du in unserem Grundlagen-Artikel.


Was bleibt trotzdem schwierig

Halluzinationen werden nicht verschwinden. Selbst die neuesten Modelle erfinden gelegentlich Dinge — sie werden nur besser darin, es überzeugender zu tun.

Das ist kein Argument gegen KI-Nutzung. Es ist ein Argument für kritisches Denken. KI ist kein Lexikon. Es ist ein denkender Assistent, der manchmal irrt — und der dir das nicht immer von sich aus sagt.

Wer das versteht, kann KI sinnvoll nutzen. Wer es vergisst, landet irgendwann mit einer nicht-existenten Studie in der Präsentation.


Wenn du auf dem Laufenden bleiben willst, was sich bei KI-Modellen und ihrer Zuverlässigkeit tut, ist der KI-Syndikat Newsletter die einfachste Möglichkeit. Kein Spam, nur das Wichtigste.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich am meisten? (Wähle 1–3 Themen)

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar