Zum Inhalt springen

KI im Journalismus: Werkzeug, Konkurrenz oder beides?

KI schreibt bereits Sportnachrichten bei AP und Reuters. Was das für Qualität, Jobs und die Glaubwürdigkeit von Medien bedeutet – und was KI nicht kann.

D
Daniel Sonnet
· · 5 Min. Lesezeit
KI im Journalismus: Werkzeug, Konkurrenz oder beides?

Im August 2023 erschien bei Sports Illustrated ein Artikel über Schwimmausrüstung. Die Autorin: Adrianna Lopez. Das Problem: Sie existierte nicht. Weder die Person noch das Foto. Beides war von einer KI generiert worden – und für Monate unentdeckt geblieben.

Das war kein technisches Versagen. Das war eine redaktionelle Entscheidung: Content günstig produzieren, Qualitätskontrolle weglassen. KI war das Werkzeug. Menschen haben entschieden, es so einzusetzen.

Diese Geschichte ist deshalb wichtig, weil sie zeigt, wie KI im Journalismus nicht eingesetzt werden sollte. Was sie nicht zeigt: die Fälle, in denen KI tatsächlich nützt.

Was KI im Journalismus heute schon tut

Einige der weltweit führenden Nachrichtenagenturen setzen KI seit Jahren ein – mit klarem Nutzen.

Automated Reports bei AP und Reuters. Die Associated Press und Reuters verwenden schon seit über einem Jahrzehnt automatisch generierte Berichte für bestimmte Nachrichtentypen. Börsenmeldungen, Quartalszahlen von Unternehmen, Ergebnisse aus dem Sport. Wenn die Cleveland Cavaliers 108:97 gewinnen, generiert ein System in Sekunden einen korrekten Spielbericht. Die Daten sind strukturiert, das Format vorhersehbar – ideal für Automatisierung. Redakteure prüfen Stichproben, schreiben die wichtigen Spiele selbst.

Transkription und Übersetzung. Interviews transkribieren, Pressekonferenzen aus fünf Sprachen gleichzeitig übersetzen, Archivmaterial aufbereiten – das sind Aufgaben, die Journalisten früher Stunden gekostet haben. Tools wie Whisper (Spracherkennung) oder DeepL (Übersetzung) erledigen das in Minuten. Das gibt Redaktionszeit frei für das, was Menschen besser können.

Investigativer Datenjournalismus. Datenlecks wie die Panama Papers oder Pandora Papers umfassen Millionen von Dokumenten. Kein Redaktionsteam kann das manuell durchsuchen. KI-Tools wie NotebookLM helfen dabei, Muster zu erkennen, Verbindungen herzustellen und relevante Dokumente zu priorisieren. Der Journalist entscheidet, was er damit macht. Die KI hilft, überhaupt erst anzufangen. Wie eine solche KI-gestützte Recherche in der Redaktionspraxis aussehen kann, zeigt unser Use Case KI-gestützte Recherche für Medien.

Wo KI im Journalismus schiefgeht

Das Problem beginnt, wenn KI nicht als Werkzeug eingesetzt wird, sondern als Ersatz für journalistische Arbeit.

Halluzinierte Zitate. Halluzinationen sind das gravierendste Problem. KI-Systeme erfinden Fakten, Zahlen, Zitate – und formulieren sie mit derselben Überzeugung, mit der sie korrekte Informationen formulieren. Ein Journalist, der KI-generierten Text ohne Prüfung veröffentlicht, trägt für die Fehler volle Verantwortung. Das ist kein hypothetisches Risiko: Es gibt belegte Fälle, in denen Richternamen, Gerichtsurteile und Expertenzitate schlicht erfunden waren – und in echten Publikationen erschienen.

Unkontrolliertes Recycling. KI-Systeme, die auf Basis bestehender Artikel neue Texte erstellen, können falsche Informationen aus ihren Quellen weitertragen und verstärken. Wenn eine fehlerhafte Erstmeldung breit zitiert wurde, kann ein KI-System diesen Fehler als Fakt behandeln.

Transparenzmangel. Wenn Leserinnen und Leser nicht wissen, welche Teile eines Artikels KI-generiert sind, ist das eine Frage der Glaubwürdigkeit. Einige Medien kennzeichnen KI-Inhalte, viele nicht. Die fehlende Transparenz untergräbt Vertrauen.

Was KI nicht kann

Es gibt eine Reihe von Dingen, die KI im Journalismus grundsätzlich nicht ersetzen kann – nicht wegen fehlender Technologie, sondern wegen der Natur der Aufgabe.

Quellen aufbauen. Investigativer Journalismus lebt von Vertrauen. Eine Whistleblowerin geht zu einem Journalisten, weil sie ihm vertraut – nicht weil er ein System mit guter API hat. Diese Beziehungen entstehen über Jahre. Sie sind nicht skalierbar und nicht automatisierbar.

Vor-Ort-Sein. Wenn ein Gericht ein Urteil spricht, eine Fabrik geschlossen wird oder ein Politiker eine Rede hält, ist menschliche Präsenz etwas anderes als ein Textprotokoll. Journalisten nehmen Stimmung, Kontext, Widersprüche wahr, die kein Transkript erfasst.

Redaktionelles Urteil. Welche Geschichte ist wichtig? Welche Quelle ist glaubwürdig? Welche Information schadet und sollte nicht veröffentlicht werden? Das sind Entscheidungen mit ethischer Dimension, die Kontext, Erfahrung und Verantwortungsbewusstsein erfordern.

Rechenschaft. Wenn ein Artikel falsch liegt, haftet ein Journalist dafür. Er kann verklagt werden, seine Reputation steht auf dem Spiel. KI ist kein Akteur, der zur Rechenschaft gezogen werden kann. Das ist kein Nebenaspekt – es ist strukturell wichtig für die Glaubwürdigkeit von Medien.

Die Geschäftsmodell-Frage: Was passiert mit Entry-Level-Jobs?

Das ist der schwierigste Teil der Diskussion.

Ein erheblicher Teil der Einstiegsjobs im Journalismus bestand aus genau den Aufgaben, die KI heute übernimmt: Pressemitteilungen aufbereiten, kurze Nachrichten schreiben, Sportergebnisse melden, einfache Interviews transkribieren. Diese Jobs waren nicht glamourös, aber sie waren Lernorte. Junge Journalisten haben dabei gelernt, wie Redaktionen funktionieren, wie man Quellen prüft, wie man Sprache für verschiedene Formate anpasst.

Wenn diese Jobs wegfallen, fällt eine Ausbildungsstufe weg. Das betrifft nicht nur individuelle Karrierewege – es hat Folgen für die Qualität des Journalismus in zehn Jahren. Wer lernt, wie man sorgfältig recherchiert, wenn der Einstieg in die Branche nicht mehr durch Grundlagenarbeit geht?

Einige Redaktionen haben begonnen, das bewusst zu adressieren: Einstiegspositionen bleiben erhalten, aber die Tätigkeit verschiebt sich. Statt Texte zu schreiben, lernen junge Journalisten, KI-Output zu prüfen, zu bewerten und zu veredeln. Das ist eine andere Ausbildung. Ob sie gleichwertig ist, wird sich zeigen.

Was für Medien mit ethischem Anspruch folgt

KI ist im Journalismus angekommen – und sie wird nicht verschwinden. Die Frage ist nicht ob, sondern wie.

Medien, die KI verantwortungsvoll einsetzen, können damit Zeit für wichtigere Arbeit gewinnen. Automatisierte Meldungen für strukturierte Daten sind legitim, wenn sie als solche erkennbar sind. KI-gestützte Recherche ist ein echtes Plus, wenn Journalisten das Ergebnis prüfen.

Medien, die KI nutzen, um Personalkosten zu sparen und Inhalte in großem Maßstab zu produzieren, ohne echte redaktionelle Kontrolle, riskieren ihre Glaubwürdigkeit – und tragen zu der Desinformationsproblematik bei, über die seriöser Journalismus eigentlich berichten sollte.

Der Unterschied liegt in der Frage: Setzt diese Redaktion KI ein, um besser zu berichten – oder um günstiger zu produzieren, ohne Qualität sicherzustellen?

Beides ist möglich. Es ist eine Entscheidung.

Zum breiteren Bild, wie KI gesellschaftliche Strukturen verändert, lohnt sich auch ein Blick in unsere Glossareinträge zu Automatisierung und Bias – zwei Konzepte, die für den Journalismus besonders relevant sind.


Wenn du die Entwicklung von KI in Gesellschaft und Medien verfolgen willst – mit klarem Blick statt Schlagzeilen – dann abonniere den KI-Syndikat-Newsletter. Einmal pro Woche, kein Hype, nur Substanz.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar