Anfang 2026 kursierte in Deutschland ein Video, das einen bekannten Politiker dabei zeigte, wie er in einer privaten Runde zugab, öffentliche Fördermittel zweckentfremdet zu haben. Das Video war überzeugend — gute Bildqualität, authentische Körpersprache, glaubwürdige Umgebung. Es verbreitete sich innerhalb von Stunden tausendfach.
Es war vollständig KI-generiert und gefälscht.
Das ist kein Ausnahmefall mehr. Es ist der neue Alltag.
Was sich seit 2022 verändert hat
Wer sich noch an die ersten viralen Deepfakes erinnert — Nicolas Cage in fremden Filmen, holprige Gesichtsverzerrungen, flackernde Ränder um den Kopf — erkennt kaum wieder, wo wir heute stehen.
2022 brauchte man für einen halbwegs überzeugenden Deepfake noch Hunderte von Trainingsbildern, erhebliche Rechenleistung und einige Stunden Renderzeit. Das schränkte den Kreis der möglichen Angreifer stark ein.
2026 reichen ein paar Sekunden Videomaterial und ein kostenloser Online-Dienst. Aus einem einzigen Bild lässt sich ein sprechendes, sich bewegendes Gesicht erstellen. Stimmen werden aus zehn Sekunden Audioaufnahme geklont — so überzeugend, dass Familienangehörige den Unterschied nicht hören.
Die Technologie dahinter — Deep Learning und Generative Adversarial Networks — hat sich rasant verbessert. Gleichzeitig sind die Werkzeuge demokratisiert worden. Open-Source-Modelle wie Stable Diffusion sind für jedermann zugänglich und bilden die Basis für viele dieser Werkzeuge. Das ist das eigentliche Problem: nicht eine Handvoll staatlicher Akteure, sondern Millionen potenzieller Nutzer.
Warum sie jetzt so überzeugend sind
Das menschliche Gehirn ist nicht dafür gebaut, synthetische von realen Gesichtern zu unterscheiden. Wir haben Millionen Jahre Gesichtserkennung evolutionär verfeinert — aber für echte Gesichter, nicht für KI-generierte.
Moderne generative KI ist darauf trainiert, genau die Merkmale zu imitieren, die wir als “authentisch” wahrnehmen: minimale Kopfbewegungen, inkonsistentes Blinzeln, Mimik, die mit Sprache synchronisiert ist, leichte Unvollkommenheiten in Beleuchtung und Perspektive. Diese Unvollkommenheiten sind wichtig — zu perfekte Bilder lösen unser “Uncanny Valley”-Empfinden aus. Gute Deepfakes wirken unaufgeräumt absichtlich.
Hinzu kommt der Kontext. Ein Video, das in einer bekannten Umgebung spielt, mit einem Sprecher, den du kennst, über ein Thema, das du für plausibel hältst — das senkt deine kritische Wachheit erheblich.
Wie du Deepfakes erkennst — und was du dabei beachten musst
Es gibt Erkennungsmerkmale, aber sie werden schnell weniger zuverlässig.
Noch erkennbare Hinweise: Zähne, die seltsam wirken oder verschwimmen. Haaransätze mit unnatürlichen Rändern. Ohrringe oder Schmuck, der flackert. Augen, die zu selten oder zu regelmäßig blinzeln. Beleuchtung auf dem Gesicht, die nicht mit dem Hintergrund übereinstimmt. Bei Audioclips: leicht metallischer Klang, fehlende Atempausen, unnatürliche Intonation.
Aber: Verlasse dich nicht darauf. Diese Fehler verschwinden mit jeder Generation der Technologie schneller. Was heute noch zuverlässig ist, ist in sechs Monaten möglicherweise überholt.
Der zuverlässigere Ansatz ist nicht technische Inspektion, sondern Quellenprüfung. Wo erscheint dieses Video zuerst? Welche verifizierten Konten teilen es? Gibt es eine zweite unabhängige Quelle? Wird das Ereignis, das im Video behauptet wird, von nachprüfbaren Fakten gestützt?
Wenn ein Video ausschließlich über eine Kette unbekannter Accounts kursiert und in keiner Nachrichtenredaktion aufgetaucht ist — sei misstrauisch. Echte Ereignisse mit öffentlichem Interesse werden von Journalisten überprüft.
Was Unternehmen jetzt tun müssen
Der größte unterschätzte Risikofaktor für Unternehmen sind nicht gefälschte Videos von Politikern. Es sind interne Angriffe.
CEO-Fraud durch Deepfakes: Angreifer klonen die Stimme oder das Video eines Geschäftsführers und fordern einen Mitarbeiter auf, eine Zahlung zu veranlassen oder Zugangsdaten herauszugeben. Mehrere mittelständische Unternehmen in Deutschland haben in den letzten Monaten sechsstellige Beträge verloren, weil Mitarbeiter einem überzeugenden Telefonanruf mit der geklonten Stimme ihres Chefs geglaubt haben.
Was Unternehmen dagegen tun können:
Einführung von Codewörtern für sensible Anfragen. Ein vereinbartes Wort, das bei unerwarteten Anfragen per Telefon oder Video verifiziert werden muss — simpel, aber effektiv.
Vier-Augen-Prinzip für Finanztransaktionen auch dann, wenn eine hochrangige Person anordnet. “Mein Chef hat angerufen” ist kein ausreichender Autorisierungsprozess für Überweisungen über einem bestimmten Betrag.
Mitarbeiterschulungen zur Deepfake-Erkennung — nicht als technischen Kurs, sondern als Bewusstsein: “Wenn etwas ungewöhnlich ist, auch wenn es glaubwürdig klingt, ruf zur Bestätigung zurück.”
Klare interne Kommunikationsrichtlinien: Über welche Kanäle laufen sensible Anfragen? Interne Chat-Systeme mit Zwei-Faktor-Authentifizierung sind schwerer zu fälschen als Telefonanrufe.
Was Medienkompetenz 2026 bedeutet
Medienkompetenz hieß früher: Erkenne, ob eine Quelle seriös ist. Heute bedeutet es: Geh davon aus, dass jeder audiovisuelle Inhalt prinzipiell gefälscht sein könnte — und prüfe entsprechend.
Das klingt paranoid. Es ist es nicht. Es ist realistisch.
Die Konsequenz ist keine permanente Erschöpfungs-Skepsis, sondern ein anderes Prüfmuster. Nicht mehr: “Stimmt dieses Video nicht?” sondern: “Über welchen Weg bin ich zu diesem Video gekommen, und wie vertrauenswürdig ist dieser Weg?”
Primärquellen gewinnen wieder an Bedeutung. Wenn ein Ereignis real ist, gibt es eine Originalquelle — eine Behörde, ein Unternehmen, eine journalistisch arbeitende Redaktion, die es verifiziert hat. Wenn nur Social-Media-Reshares existieren, ist Vorsicht angebracht.
Reverse-Image-Search und Video-Verifikationstools wie InVID oder TinEye sind nicht perfekt, aber sinnvolle erste Schritte. KI-gestützte Recherchewerkzeuge wie Perplexity helfen beim schnellen Quellen-Crosscheck: einfach den Sachverhalt eingeben und schauen, welche verifizierten Quellen dazu existieren. Für professionelle Kontexte gibt es KI-gestützte Deepfake-Detektoren — deren Trefferquoten verbessern sich, bleiben aber hinter der Generierungsqualität zurück.
Redaktionen und Medienhäuser, die systematisch mit Quellenrecherche und Faktenchecks arbeiten, finden im Usecase KI-gestützte Recherche für Medien einen Überblick, welche Tools und Prozesse sich bewährt haben.
Was noch nicht funktioniert
Technische Deepfake-Erkennung ist kein gelöstes Problem. Die besten Detektoren erkennen heute einen Großteil bekannter Modelle — versagen aber bei neuen Generierungsmethoden, die sie nicht gesehen haben. Es ist ein Katz-und-Maus-Spiel.
Wasserzeichen für KI-generierte Inhalte, wie sie der EU AI Act perspektivisch fordert, sind ein wichtiger Schritt — aber kein vollständiger Schutz. Wasserzeichen lassen sich entfernen oder umgehen.
Die eigentliche Herausforderung ist gesellschaftlich, nicht technisch: Wir müssen kollektiv lernen, mit einer Welt zu leben, in der visuelle “Beweise” nicht mehr automatisch Beweise sind. Das verändert Vertrauen, Recht und öffentlichen Diskurs fundamental.
Wer das Thema KI und Recht tiefer verfolgen möchte, findet in unserem Artikel KI und Recht: Was Unternehmen 2026 beachten müssen wichtige Grundlagen — auch zu den Pflichten bei KI-generierten Inhalten.
Deepfakes, KI-Desinformation, gesellschaftliche Folgen von KI — das sind Themen, die wir regelmäßig im KI-Syndikat Newsletter aufgreifen. Wenn du orientiert bleiben möchtest ohne im Nachrichtenstrom zu versinken, ist das dein Anlaufpunkt.