Zum Inhalt springen
Verlag & Medienproduktion recherchejournalismusredaktion

Rechercheassistent für die Redaktion

KI-Rechercheassistent durchsucht Quellen, fasst Fakten zusammen und erstellt Recherchememorandas für Journalisten.

Worum geht's?

Es ist Dienstag, 14:30 Uhr.

Mia arbeitet im Wirtschaftsressort eines Online-Magazins. Sie soll bis Donnerstag einen 2.500-Wörter-Artikel über die Entwicklung des deutschen Solarmarkts liefern. Sie beginnt mit dem, was immer gleich ist: BNetzA-Berichte durchsuchen, Marktzahlen aus BDEW-Statistiken herauslesen, drei Pressemitteilungen der großen Hersteller quergelesen, zwei Interviews aus dem Vorjahr nachgeschlagen, die wichtigsten Zitate herausgefiltert.

Um 17:45 hat sie 14 Browser-Tabs offen, neun Lesezeichen gesetzt und drei Seiten Notizen. Und das Gefühl, dass sie das Wesentliche noch nicht beisammen hat.

Dieser Teil ihrer Arbeit — Fakten zusammensuchen, Quellen querprüfen, Hintergrund aufbauen — ist der Zeit-intensivste und intellektuell am wenigsten befriedigende. Er ist auch der Teil, bei dem KI tatsächlich helfen kann.

Das echte Ausmaß des Problems

Journalisten verbringen laut einer Untersuchung des Reuters Institute (2025) im Schnitt 30–40 % ihrer Arbeitszeit mit Recherche und Quellenverifikation. Bei einem Vollzeit-Redakteur mit 40 Wochenstunden sind das 12–16 Stunden pro Woche — für Aufgaben, die zu einem erheblichen Teil aus strukturierter Informationssuche bestehen, nicht aus dem inhaltlichen Kern der journalistischen Arbeit.

Das ist nicht selbst verschuldet. Redaktionen arbeiten unter Tempo-Druck, haben keinen Zugang zu den teuren Fachdatenbanken, die Analysehäuser nutzen, und müssen mit öffentlich zugänglichen Quellen auskommen. Das kostet Zeit: BNetzA-Website, Statistisches Bundesamt, Branchenverbände, Wikipedia-Cross-Check, Google Scholar für Studien — jede Quelle hat ein eigenes Format, eine eigene Suchlogik, eine eigene Zuverlässigkeitsstufe.

Was ein KI-Rechercheassistent hier leisten kann:

  • Überblicksrecherche in Minuten statt Stunden: Wer eine Forschungsfrage stellt, bekommt von Perplexity oder Claude eine strukturierte Übersicht mit Quellenangaben — in der Zeit, die früher nur für das Aufrufen der ersten drei Websites nötig war
  • Automatische Zusammenfassung langer Dokumente: Ein 180-seitiger Branchenbericht in drei Schlüsselaussagen zusammengefasst in 30 Sekunden
  • Strukturiertes Briefing für den Interviewtermin: Hintergrundinfos zur Gesprächspartnerin, früheren Aussagen, dem Kontext ihres Unternehmens — in einer Seite statt in vier Stunden Recherche

Aber: KI recherchiert nicht unabhängig. Sie fasst zusammen, was in den Trainingsdaten oder durchsuchbaren Quellen vorhanden ist. Die Verifikation jeder zentralen Behauptung bleibt Aufgabe des Journalisten.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-UnterstützungMit KI-Rechercheassistenz
Zeit für Überblicksrecherche je Artikel2–4 Stunden30–60 Minuten
Artikel pro Redakteur und Woche2–3 (bei recherche-intensiven Themen)3–5
Qualität der Quellenvielfaltabhängig von Rechercheerfahrungstrukturiert, aber auf KI-Quellenbasis begrenzt
Halluzinationsrisiko bei Faktenkeine (klassische Recherche)vorhanden — Verifikation unverzichtbar
Einstiegsbarrierekeinemittel: Promptqualität und Quellenvertrauen müssen gelernt werden

Zeitwerte basieren auf Erfahrungsberichten von Journalisten und Redaktionsworkflow-Analysen. Keine repräsentative Erhebung.

Einschätzung auf einen Blick

Zeitersparnis — sehr hoch (5/5) Das ist der stärkste Hebel im Verlagsbereich. Recherche ist der zeitintensivste Teil des Schreibprozesses — und KI kann ihn auf ein Viertel bis ein Drittel der bisherigen Dauer reduzieren. Eine Recherche, die früher 3 Stunden dauerte, lässt sich mit gut formulierten Prompts auf 45 Minuten bringen. Das ist die stärkste direkte Zeitersparnis in diesem Branch — stärker als Lektorat-Unterstützung und stärker als SEO-Optimierung.

Kosteneinsparung — niedrig (2/5) Mehr Artikel pro Redakteur bedeutet nicht automatisch weniger Personal oder weniger Kosten. In den meisten Redaktionen wird die eingesparte Zeit für Qualitätsverbesserung oder mehr Themenvielfalt genutzt, nicht für Stellenabbau. Der wirtschaftliche Nutzen ist real — aber indirekter als bei Prozessen, wo Kosten direkt wegfallen.

Schnelle Umsetzung — mittel (3/5) Perplexity ist in 5 Minuten einsatzbereit. Aber: Ein sinnvoller Redaktions-Workflow mit klaren Verifikationsstandards, gutem Promptdesign und realistischen Erwartungen an KI-Quellen braucht Einarbeitung. Wer das Tool ohne Vorbereitung einführt, riskiert journalistische Fehler durch unkritisch übernommene KI-Aussagen. Das ist anders als SEO-Optimierung, die sehr schnell greifbare, messbare Ergebnisse liefert.

ROI-Sicherheit — mittel (3/5) Die Zeitersparnis ist real und messbar, wenn man die Recherchezeiten dokumentiert. Ob die Artikelqualität steigt, ist schwerer zu beweisen. Und ob die eingesparte Zeit für mehr Artikel oder mehr Tiefe genutzt wird, hängt vom Team ab. Der ROI ist vorhanden, aber seine Messung erfordert bewusste Dokumentation.

Skalierbarkeit — hoch (4/5) Ein einmal guter Recherche-Prompt-Workflow funktioniert für eine Person genauso wie für zehn. Tools wie Perplexity und NotebookLM kosten je Nutzer einen überschaubaren Fixbetrag — der Aufwand je Artikel bleibt konstant, egal ob die Redaktion wächst. Nicht ganz das Topniveau der SEO-Tools, weil die Zeitersparnis trotzdem von der individuellen Promptqualität abhängt.

Richtwerte — stark abhängig von Themengebiet, Recherchetiefe und Verifikationsstandards der Redaktion.

Was ein KI-Rechercheassistent konkret macht

Ein gut konfigurierter KI-Rechercheassistent deckt drei Phasen des journalistischen Prozesses ab:

Phase 1: Überblicksrecherche (Hintergrund aufbauen) Perplexity und Claude sind für strukturierte Überblicksrecherchen die stärksten Tools. Perplexity durchsucht aktuelle Webquellen in Echtzeit und gibt Quellenlinks direkt im Ergebnis mit — das ist der wichtigste Unterschied zu generativen Modellen ohne Web-Zugang. Eine Frage wie „Wie hat sich der Anteil erneuerbarer Energien in Deutschland von 2020 bis 2024 entwickelt?” liefert in 30 Sekunden eine strukturierte Übersicht mit Verweis auf BDEW, BNetzA und Statistisches Bundesamt.

Phase 2: Dokumentenanalyse (lange Berichte zusammenfassen) NotebookLM von Google ist für diesen Anwendungsfall besonders geeignet: PDFs und lange Dokumente hochladen, Fragen stellen, strukturierte Zusammenfassungen erhalten. Ein 200-seitiger Jahresbericht lässt sich in 3 Schlüsselaussagen verdichten — mit Quellenangabe auf die spezifische Seite. Das ist besonders für Wirtschafts- und Wissenschaftsredaktionen nützlich, wo umfangreiche Reports zur Standardrecherche gehören.

Phase 3: Interviewvorbereitung (Briefings erstellen) Ein LLM wie Claude kann aus öffentlich verfügbaren Informationen (frühere Interviews, Pressemitteilungen, Unternehmensberichte) ein kompaktes Briefing zur Gesprächspartnerin zusammenstellen: Wer ist sie, was hat sie in den letzten 12 Monaten gesagt, welche Aussagen könnten widersprüchlich sein? Das spart die Zeit, die sonst für das manuelle Zusammensuchen aus verschiedenen Quellen anfällt.

Was KI nicht macht:

  • Neue Quellen entdecken, die im Internet nicht zugänglich sind
  • Behördenanfragen stellen oder Dokumente anfordern
  • Investigativen Journalismus ersetzen — das geht nicht
  • Fakten ohne Verifikation als zuverlässig garantieren

Der häufigste Missbrauch ist die unkritische Übernahme von KI-Aussagen als Fakten. KI halluziniert — das ist keine Fehlfunktion, sondern ein inhärentes Merkmal der Technologie. Jede zentrale Behauptung, jede Zahl, jedes Zitat aus einem KI-Briefing muss an der Primärquelle verifiziert werden, bevor es im Artikel erscheint. Das ist nicht optional.

Konkrete Werkzeuge — was wann passt

Perplexity (freemium, Pro ca. 20 USD/Monat) Für Echtzeit-Webrecherche mit Quellenangaben. Die stärkste Option für tagesaktuelle Themen, Politikrecherche, Unternehmensberichte und Statistiken. Pro-Version durchsucht auch aktuelle Nachrichtenquellen und Premium-Inhalte. Kein EU-Hosting.

NotebookLM (kostenlos) Für die Analyse langer Dokumente. PDFs, Google Docs, YouTube-Links als Quellen hochladen, strukturierte Fragen stellen, Zusammenfassungen und Zitate erhalten. Besonders stark für wissenschaftliche Studien, Jahresberichte und Gesetzestexte. Kostenlos, Google-Konto nötig, US-Datenhaltung.

Claude (Pro ca. 18 €/Monat) Für strukturierte Analyse, Interviewvorbereitung und tiefere Recherche zu komplexen Themen. Claude versteht lange Dokumente (bis 200.000 Token) und liefert differenzierte Einschätzungen. Besonders gut für Gesprächspartner-Briefings und Hintergrundanalysen. US-Datenhaltung.

Elicit (freemium, Plus ca. 12 USD/Monat) Für wissenschaftlich fundierte Recherche: Durchsucht über 125 Millionen Paper aus Semantic Scholar und PubMed. Nur auf Englisch, keine aktuellen Nachrichtenquellen. Ideal für Gesundheits-, Wissenschafts- und Forschungsressorts.

Zusammenfassung:

  • Tagesaktuelle Überblicksrecherche → Perplexity Pro
  • Lange Dokumente und Studien analysieren → NotebookLM
  • Interviewvorbereitung und komplexe Hintergründe → Claude Pro
  • Wissenschaftliche Recherche → Elicit

Datenschutz und Datenhaltung

Für die meisten Rechercheaufgaben verarbeiten die Tools keine sensiblen oder personenbezogenen Daten — die Recherche bezieht sich auf öffentliche Informationen. Die DSGVO-Relevanz ist daher überschaubar.

Ausnahmen gibt es aber:

  • Dokumente mit personenbezogenen Daten: Wenn interne Unternehmensberichte, Gerichtsunterlagen oder Behördendokumente mit personenbezogenen Daten in KI-Systeme eingespielt werden, gelten DSGVO-Regeln und das Presseprivileg (§ 9c BDSG) — juristische Prüfung empfohlen.
  • Quellenschutz: Informationen, die Rückschlüsse auf geschützte Quellen zulassen, dürfen keinesfalls in kommerzielle Cloud-KI-Systeme eingegeben werden. Das ist eine absolute Grenze.
  • US-Datenhaltung: Alle empfohlenen Tools (Perplexity, NotebookLM, Claude, Elicit) hosten Daten in den USA. Für Standard-Recherchefragen ist das unkritisch. Für besonders sensitive Recherchen oder investigative Projekte empfehlen sich lokale LLM-Optionen.

Was es kostet — realistisch gerechnet

Einmalige Kosten

  • Prompt-Entwicklung und Team-Schulung: 2–3 Tage intern
  • Erstellung eines internen Rechercheleitfadens (welches Tool wann, Verifikationsstandards): 1 Tag

Laufende Kosten (5 Redakteure)

  • Perplexity Pro: ca. 100 USD/Monat (5 × 20 USD)
  • NotebookLM: kostenlos
  • Claude Pro: ca. 90 €/Monat (optional, für vertiefte Analysen)
  • Gesamt: ca. 190 €/Monat

ROI-Rechnung 5 Redakteure sparen je 2 Stunden pro Artikel durch KI-Recherche. Bei 3 Artikeln pro Woche je Person sind das 30 Stunden wöchentlich — 120 Stunden pro Monat.

Bei einem durchschnittlichen Redakteursgehalt von 3.200 €/Monat brutto (ca. 20 €/Stunde) entspricht das ca. 2.400 €/Monat eingespartem Aufwand. Oder — wahrscheinlicher in der Praxis — nicht Geld-Einsparung, sondern 50–60 % mehr Artikel-Output bei gleicher Kapazität.

Drei typische Einstiegsfehler

1. KI-Aussagen ohne Verifikation als Fakt übernehmen. Das ist der gefährlichste Fehler — und er passiert, wenn der Zeitdruck groß und die Routine gering ist. Perplexity gibt Quellenlinks an, das stimmt. Aber die Links verweisen manchmal auf Texte, die die behauptete Aussage gar nicht enthalten, oder auf Seiten, die seit dem KI-Training geändert wurden. Jede Zahl, jedes Zitat, jede spezifische Behauptung im KI-Briefing muss in der Primärquelle nachgeprüft werden. Kein Ausnahmen, kein „das klingt plausibel”. Das ist kein optionaler Qualitätsstandard, sondern Grundbedingung für die Integration dieser Tools in eine journalistische Redaktion.

2. Ein Tool für alles verwenden. Perplexity ist gut für aktuelle Webrecherche. NotebookLM ist gut für Dokument-Analyse. Claude ist gut für komplexe Hintergründe. Wer alle Aufgaben in ein Tool quetscht, bekommt für jeden Zweck ein mittelmäßiges Ergebnis. Die 30-Minuten-Investition, das richtige Tool für den richtigen Zweck zu lernen, zahlt sich langfristig aus.

3. Kein Verifikationsprotokoll definiert. Eine Redaktion, die KI-Recherchewerkzeuge einführt, ohne gleichzeitig schriftlich festzuhalten, welche Aussagen wie verifiziert werden müssen, hat ein latentes Qualitätsproblem aufgebaut. Das Protokoll muss vor der ersten redaktionellen KI-Nutzung existieren — nicht nach dem ersten publizierten Fehler.

Was mit der Einführung wirklich passiert — und was nicht

In Redaktionen gibt es zwei Reaktionsmuster auf KI-Recherche-Tools.

Die Begeisterten probieren Perplexity aus, bekommen in 30 Sekunden eine strukturierte Übersicht, sind sofort überzeugt — und übernehmen die nächsten drei KI-Antworten unkritisch in ihren Artikel. Hier braucht es eine Team-Norm, keine Überzeugungsarbeit.

Die Skeptischen sehen die Tools als Bedrohung für journalistische Sorgfalt oder als Abkürzung, die die Qualität untergräbt. Dieser Einwand ist berechtigt — für unkritische Nutzung. Für das beschriebene Modell (KI als Recherche-Vorbereitung, nicht als Quelle) trifft er nicht zu. Was hilft: nicht debattieren, sondern zeigen. Ein Live-Beispiel, bei dem der Assistent eine 180-seitige Studie in 3 Minuten zusammenfasst und dabei direkte Seitenverweise liefert, ist überzeugender als jede Diskussion.

Was strukturell hilft:

  • Klare Team-Norm einführen: „KI-Aussagen sind Hinweise, keine Fakten. Primärquelle immer.”
  • Einen wöchentlichen 15-Minuten-Slot für Prompt-Sharing einrichten: Wer einen besonders nützlichen Prompt gefunden hat, teilt ihn
  • Erste Ergebnisse messen: Wie viele Artikel pro Redakteur in Woche 4 vs. Woche 1? Das zeigt den echten Effekt
  • Offen kommunizieren: Das Ziel ist mehr Zeit für Tiefenrecherche, Interviews und Analyse — nicht mehr Artikel bei gleicher Qualität

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Tool-Einführung & SchulungWoche 1–2Perplexity, NotebookLM und Claude einrichten, Team-Schulung (halber Tag), Verifikationsprotokoll schreibenProtokoll wird als Bürokratie wahrgenommen — als Qualitätsstandard, nicht als Kontrolle kommunizieren
Pilot mit 2–3 RedakteurenWoche 2–4Erste Artikel vollständig mit KI-Recherche-Unterstützung erstellen, Erfahrungen dokumentierenEin Fehler schleicht sich durch KI-Übernahme ins Endprodukt — Retrospektive machen, nicht beschönigen
Prompt-Bibliothek aufbauenWoche 4–6Die besten Prompts für das eigene Themengebiet sammeln und für alle zugänglich machenPrompts werden nicht gepflegt — eine Person als Prompt-Verantwortliche benennen
Vollständiger RolloutWoche 6–10Alle Redakteure mit eigenem Workflow ausgestattet, regelmäßige RetrospektivenNutzung nimmt nach 3 Monaten ab — monatliches Sharing reaktiviert

Häufige Einwände — und was dahintersteckt

„KI erfindet Fakten — das ist für eine Redaktion inakzeptabel.” Das stimmt für KI als Quelle. Für KI als Recherche-Assistenz gilt: Das System zeigt, wo geschaut werden soll — nicht, was stimmt. Der Unterschied zwischen „Die Studie von X besagt Y” (ungeprüfte Übernahme) und „Perplexity verweist auf eine Studie von X — ich prüfe Seite 47” ist fundamental. Wenn das Verifikationsprotokoll steht und konsequent eingehalten wird, ist das Halluzinationsrisiko kontrolliert, nicht eliminiert.

„Unsere Themen sind zu speziell für KI-Recherche.” Für Nischenthemen, bei denen wenig öffentlich verfügbares Material existiert, ist das ein legitimer Einwand. Für Wirtschaft, Politik, Gesellschaft, Wissenschaft, Kultur und die meisten Verlagsthemen gilt er nicht: Das Primärmaterial (Pressemitteilungen, Berichte, Statistiken) ist meistens öffentlich und von KI gut verarbeitbar.

„Wir geben damit unsere Eigenrecherche auf.” Nein — im Gegenteil. Wenn die Überblicksrecherche von 3 Stunden auf 45 Minuten sinkt, bleiben 2,25 Stunden frei. Die können für tiefere Recherche, mehr Interviews, oder investigativere Ansätze genutzt werden. KI-gestützte Recherche ist kein Ersatz für eigene Quellen und eigenständiges Denken — sie ist die Freisetzung von Kapazität dafür.

Woran du merkst, dass das zu dir passt

  • Deine Redakteure verbringen mehr als 2 Stunden je Artikel mit Grundlagenrecherche — und beschreiben das als den frustrierendsten Teil ihrer Arbeit
  • Die Reaktionszeit auf aktuelle Themen ist zu langsam, weil die Recherchezeit die Publishing-Geschwindigkeit limitiert
  • Dein Team arbeitet regelmäßig mit langen Berichten, Studien oder Regulierungsdokumenten, die viel Lesezeit erfordern
  • Du willst mehr investigativen oder tiefgründigen Journalismus, aber die Kapazität steckt in Standardrecherche

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Das Team hat keine klaren Verifikationsstandards und keinen Willen, sie einzuführen. Ein KI-Recherche-Tool in einer Redaktion ohne Verifikationskultur ist eine Fehlermaschine. Der erste Schritt ist nicht das Tool, sondern das Protokoll. Wer das überspringt, riskiert publizierte Fehler und Glaubwürdigkeitsschäden.

  2. Weniger als 5 Artikel pro Woche in der gesamten Redaktion. Bei diesem Volumen ist der Nutzen marginal. Zeit- und Einarbeitungsaufwand übersteigen den Gewinn. Besser: einzelne Recherche-Prompts manuell nutzen, ohne dedizierten Workflow.

  3. Investigativer oder Quellen-basierter Journalismus als Kern. Wenn der Großteil der Redaktionsarbeit auf vertraulichen Quellen, Behördenanfragen und Off-the-Record-Gesprächen basiert — wie in investigativen Einheiten — dann ist KI-Recherche nicht der richtige Hebel. Diese Arbeit lässt sich nicht digitalisieren, ohne den Quellenschutz zu gefährden.

Das kannst du heute noch tun

Öffne Perplexity (kostenlos, kein Konto nötig). Stell eine Recherchefrage für einen Artikel, den du gerade schreibst oder geplant hast — so wie du sie einem guten Assistenten stellen würdest, nicht als Stichwortsuche.

Schau dann auf die Quellenlinks: Welche Quellen zieht das System? Stimmen sie? Fehlt etwas Wichtiges? Diese 15-Minuten-Test-Session zeigt dir sofort, wo das Tool für dein Themengebiet stark ist und wo du auf klassische Recherche setzen musst.

Hier ist ein Recherche-Briefing-Prompt, den du direkt in Claude oder ChatGPT einsetzen kannst:

Strukturiertes Recherche-Briefing
Ich bin Redakteur bei [MEDIENNAME] und schreibe einen Artikel über [THEMA]. Erstelle ein strukturiertes Recherche-Briefing mit diesen Abschnitten: 1. KONTEXT (3–4 Sätze): Was ist der aktuelle Stand des Themas? Welche Entwicklungen der letzten 6–12 Monate sind relevant? 2. SCHLÜSSELZAHLEN: 3–5 konkrete Zahlen oder Statistiken, die ich verifizieren sollte. Nenne für jede Zahl die wahrscheinliche Primärquelle (Behörde, Verband, Studie). 3. OFFENE FRAGEN: Was sind die 3 inhaltlich wichtigsten Fragen, die mein Artikel beantworten sollte? 4. STAKEHOLDER: Wer sind die 4–5 wichtigsten Akteure oder Institutionen zu diesem Thema? Je 1 Satz Einordnung. 5. VERIFIKATIONSHINWEIS: Welche Behauptungen zu diesem Thema klingen plausibel, sollten aber besonders sorgfältig geprüft werden? Wichtig: Alle Aussagen mit Quellenhinweis. Keine Fakten ohne Quellenangabe.
Funktioniert mit Claude, ChatGPT, Perplexity
Beispiel-Ausgabe

Mitarbeiter:in

Thema: Entwicklung des deutschen Fernwärmemarkts 2024–2025. Medium: Wirtschaftsfachmagazin.

KI-Assistent

KONTEXT: Der deutsche Fernwärmemarkt wächst im Kontext der Wärmewende stark. Nach dem Wärmeplanungsgesetz (2024) sind Kommunen verpflichtet, bis 2026–2028 kommunale Wärmepläne vorzulegen. Große Städte wie Hamburg, München und Berlin haben bereits ambitionierte Ausbaupläne angekündigt. Die Branche steht vor dem Spannungsfeld: stark steigendes Interesse, aber mangelnde Kapazitäten bei Planern und Handwerk. SCHLÜSSELZAHLEN: • Anteil Fernwärme am Wärmemarkt (~14 %): Primärquelle AGFW (Fernwärme-Branchenverband), Jahresstatistik • Investitionsbedarf bis 2030 (~30 Mrd. EUR): Primärquelle Prognos-Studie im Auftrag AGFW (qualifizieren!) • Zahl der versorgten Wohnungen: Primärquelle BDEW, Fernwärme-Bericht • Gaspreis-Entwicklung als Treiber: Destatis / Eurostat • Fördervolumen BEW (Bundesförderung effiziente Wärmenetze): BAFA OFFENE FRAGEN: 1. Wie wird der Ausbau der Fernwärme finanziell gestemmt — wer trägt die Investitionskosten? 2. Wie transparent sind die Fernwärme-Preise für Endkunden im Vergleich zu anderen Heizsystemen? 3. Welche Rolle spielen Abwärme aus Industrie und Rechenzentren als neue Quellen? STAKEHOLDER: • AGFW (Energieeffizienzverband für Wärme, Kälte und KWK): Interessenverband der Fernwärmewirtschaft • Kommunale Versorger (Stadtwerke-Verbund): regionale Akteure, sehr heterogen • Bundesnetzagentur: Regulierung und Monitoring • Bundesverband Wärmepumpe: Wettbewerber/Komplementär je nach Systemkonfiguration • BEW-Projektträger (Zuschussvergabe Wärmenetzausbau): BAFA VERIFIKATIONSHINWEIS: • Investitionszahlen (30 Mrd. EUR) stammen häufig aus Verbandsstudien, die Eigeninteresse haben — immer als "laut AGFW-Schätzung" kennzeichnen • Preisvergleiche Fernwärme vs. Gas/Wärmepumpe sind komplex (unterschiedliche Systemkosten) — Äpfel-Birnen-Vergleiche in Pressemitteilungen kritisch prüfen

Quellen & Methodik

  • Recherchezeit 30–40 % der Arbeitszeit: Reuters Institute for the Study of Journalism, „Generative AI and News Report 2025”, Oxford. Eigene Schätzungen für Recherche-intensive Ressorts bestätigen die Größenordnung.
  • KI im Journalismus — praktische Erfahrungen: DFJV, „Künstliche Intelligenz: Eine unglaubliche Zeitersparnis für Journalisten” (2024); media-lab.de; Nieman Journalism Lab (2025).
  • Halluzinationsrisiko bei LLMs: Columbia Journalism Review, „Can AI Tools Meet Journalistic Standards?” (2025) — bestätigt Verifikationspflicht als Standard.
  • Preisangaben Perplexity, NotebookLM, Claude, Elicit: Veröffentlichte Tarife der jeweiligen Anbieter (Stand April 2026).
  • Quellenschutz und KI: Empfehlung aus Diskussion von Presserat und DJV zu KI-Nutzung in Redaktionen.

Du willst wissen, welche Recherchetasks in eurer Redaktion am meisten Zeit kosten und wo KI konkret helfen könnte? Meld dich für ein kurzes Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar