Bei der letzten Bundestagswahl hat eine Partei Wahlwerbung auf Facebook ausgespielt, die sich je nach Nutzer komplett unterschied. Junge Großstädter sahen Klimaschutz-Botschaften, ältere Landbewohner sahen Argumente zur inneren Sicherheit. Der gleiche Kandidat, vollkommen verschiedene Versorgung. Das war keine Theorie — das war Wahlkampf 2025.
Das ist der Moment, in dem KI und Demokratie aufeinanderprallen. Nicht abstrakt, sondern ganz konkret in deinem Feed.
Wie Microtargeting in der Politik funktioniert
Politisches Microtargeting ist nicht neu. Aber KI hat es skaliert und präzisiert.
Der Mechanismus ist einfach erklärt: Parteien kaufen oder erheben Daten über Wählerinnen und Wähler — Alter, Wohnort, Konsumverhalten, welche Seiten du besuchst, was du likest. Ein Algorithmus segmentiert diese Zielgruppen und entscheidet, wer welche Botschaft sieht. Was früher ein Team aus Meinungsforschern und Werbern wochenlang beschäftigt hat, kann heute in Stunden laufen.
Das Problem dabei ist kein technisches, sondern ein demokratisches: Wenn jede Wählergruppe nur noch die Argumente hört, die sie bereits überzeugen, entsteht kein gemeinsamer Diskurs mehr. Jeder lebt in seiner eigenen politischen Realität.
KI-generierte politische Inhalte: Wenn man nicht mehr sieht, wer spricht
Im US-Wahlkampf 2024 tauchten Telefonanrufe auf, die die Stimme von Joe Biden imitierten und Demokraten davon abhielten, bei einer Vorwahl zu wählen. Der Anruf war gefälscht — synthetisch erzeugt mit KI.
Das ist das Extrembeispiel. Die alltäglichere Version sieht harmloser aus: KI-generierte Social-Media-Posts, die echte Nutzerprofile imitieren, automatisch kommentieren und Trends pushen. Manche davon sind erkennbar maschinell, viele nicht.
Das Tückische: Du brauchst keinen staatlichen Akteur dahinter. Ein entschlossener Einzelner mit 50 Dollar und einem Claude-API-Zugang kann tausend personalisierte Kommentare in einer Nacht erzeugen. Die Frage ist nicht mehr, ob politische Desinformation existiert — sondern wie du erkennst, wann du ihr begegnest.
Was Regierungen mit KI machen — die andere Seite
Staatlicher KI-Einsatz wird meist als Bedrohung erzählt. Aber der größte Teil davon ist deutlich unspektakulärer — und nützlich.
Das Bundesamt für Migration und Flüchtlinge nutzt KI-Tools, um Antragsunterlagen schneller vorzuprüfen. Die Steuerverwaltungen mehrerer Bundesländer setzen Machine Learning ein, um Steuererklärungen auf Auffälligkeiten zu scannen. Das Bundesministerium für Digitales hatte zwischenzeitlich Experimente mit KI-gestützter Bürgeranfragen-Bearbeitung.
Das ist alles legitim. Die Frage ist immer: Nach welchen Regeln trifft die KI eine Vorentscheidung? Wer kontrolliert das? Gibt es eine Möglichkeit, eine Entscheidung anzufechten? Gerade der EU AI Act hat hier Leitplanken gesetzt, die für Hochrisiko-Anwendungen im Behördenbereich verpflichtende Transparenz und menschliche Aufsicht fordern.
Wie ein KI-gestützter Bürgerservice konkret aussehen kann — und welche Anforderungen dabei zu beachten sind — zeigt unser Use-Case: Bürger-Chatbot in der Verwaltung.
Die positive Seite: KI für mehr Transparenz
Es gibt einen wenig beachteten Bereich, in dem KI der Demokratie tatsächlich nützt: politische Transparenz.
Das Projekt “OffenesParlament.de” analysiert automatisch Abstimmungsverhalten und macht es visualisierbar. Welcher Abgeordnete stimmt wie oft mit der Fraktion? Wer hat einen Gesetzentwurf eingebracht, der kurz vor der Wahl kaum öffentlich diskutiert wurde? Was früher stundenlange Protokoll-Analyse bedeutete, ist jetzt eine Sache von Minuten.
Ähnliches gibt es auf EU-Ebene: Tools, die Trilog-Dokumente systematisch auswerten und Änderungsanträge über verschiedene Lesungen hinweg vergleichen. Lobbyismus-Monitoring, das Änderungen in Gesetzentwürfen mit den veröffentlichten Positionen von Interessenverbänden abgleicht.
Das ist keine Revolution — aber es senkt die Schwelle für investigativen Journalismus und zivilgesellschaftliche Kontrolle erheblich.
Die entscheidende Frage: Wer kontrolliert die KI?
Alle diese Entwicklungen haben eines gemeinsam: Es kommt nicht darauf an, was die Technologie kann — sondern wer sie einsetzt, zu welchem Zweck und mit welcher Kontrolle.
Eine KI, die politische Werbung personalisiert, ist in den Händen einer Wahlbehörde etwas anderes als in den Händen einer Partei. Ein Algorithmus, der Bürgeranfragen sortiert, ist transparent und anfechtbar — oder eine Black Box ohne Rechenschaftspflicht.
Demokratie ist immer eine Machtfrage. KI verschiebt keine Macht von alleine. Sie verstärkt die Macht derer, die sie kontrollieren. Die Frage, die sich für jeden demokratischen Rechtsstaat stellt: Wer kontrolliert, wer sie einsetzen darf?
Was du als Bürgerin oder Bürger tun kannst
Du wirst politisches Microtargeting nicht abschalten. Aber du kannst bestimmte Dinge tun, die deine Medienwahrnehmung weniger manipulierbar machen.
Erstens: Bewusst Quellen wechseln. Wenn du einen Artikel zu einem politischen Thema liest, such dir eine Quelle mit entgegengesetzter Tendenz. Nicht, um zu wechseln — sondern um zu verstehen, welche Argumente wirklich existieren.
Zweitens: Reverse-Image-Search und Faktenchecks nutzen. Fragwürdige Bilder in wenigen Sekunden prüfen. Correctiv, Mimikama und das ARD-Faktenfinder-Angebot sind konkrete Anlaufstellen.
Drittens: KI-generierte Texte auf ihre Struktur hin lesen. Sind da konkrete Orte, Personen, Daten? Oder klingt es wie eine rhetorisch perfekte, aber irgendwie leere Argumentation? Generative KI produziert oft gut klingende Texte, die bei näherer Betrachtung nichts Nachprüfbares enthalten.
Viertens: Politische Werbefinanzierung ist öffentlich — schau nach, wer eine Anzeige bezahlt hat. Auf Facebook gibt es dafür eine “Ad Library”, auf der alle aktuell laufenden Anzeigen inklusive Auftraggeber öffentlich einsehbar sind.
Kein Grund zur Panik, aber zum Hinschauen
KI macht politische Manipulation einfacher und billiger. Das ist eine ernste Entwicklung. Gleichzeitig gibt es immer mehr Werkzeuge, die politische Transparenz verbessern — und Bürgerinnen und Bürger, die genauer hinschauen.
Das Eine hebt das Andere nicht auf. Aber es zeigt: Die Frage ist nicht, ob KI gut oder schlecht für die Demokratie ist. Sie ist beides — je nachdem, wer sie gerade benutzt.
Wenn du verstehen willst, wie KI-Agenten zunehmend auch in politischen Kontexten eingesetzt werden, lohnt sich der Artikel über KI-Agenten und die Zukunft der Automatisierung. Und wer wissen will, was der EU AI Act konkret für den Bereich staatlicher KI-Nutzung bedeutet, findet dort eine praxisnahe Einordnung: EU AI Act — was jetzt gilt.
Wenn du keine wichtigen Entwicklungen zu KI und Gesellschaft verpassen willst, schau beim Newsletter vorbei. Keine Algorithmen entscheiden dort, was du siehst — nur du.