Zum Inhalt springen
Öffentliche Verwaltung verkehrampelstadtplanung

Stadtverkehrsfluss-Optimierungsanalyse

KI analysiert Sensordaten aus Induktionsschleifen, Kameras und Floating Car Data, erkennt Engpassmuster und empfiehlt Ampelzeitoptimierungen — bevor der nächste Stau entsteht.

Worum geht's?

Es ist Donnerstag, 16:40 Uhr. Verkehrsplanerin Claudia Neumann sitzt vor zwei Bildschirmen: links eine Tabelle mit Zähldaten aus der Herbstkampagne — manuell erfasst an sieben Kreuzungen über drei Wochen im Oktober — rechts der Lageplan des Ostringes, wo die Straßenbahn seit Wochen jeden Nachmittag im Stau steckt.

Die Zähldaten zeigen: Dienstagvormittag war Spitze. Aber es ist Donnerstagnachmittag, und der Stau passiert täglich. Niemand hat die Zählung an einem Donnerstag um halb fünf gemacht. Claudia schätzt, wie lang die Grünphase für die Ausfahrt aus dem Gewerbegebiet sein müsste — und schreibt eine Empfehlung, die auf einer Oktober-Erhebung und einem Erfahrungswert basiert.

Drei Wochen später wird die Schaltung angepasst. Ob es etwas gebracht hat? Sie wird es nicht wissen — denn die nächste Zählung ist für März geplant.

Das ist nicht das Problem einer einzelnen Behörde. Das ist der Standardmodus kommunaler Verkehrsplanung in Deutschland.

Das echte Ausmaß des Problems

Stau kostet. Das klingt banal, ist aber messbar: Das ADAC schätzt, dass Staus in Deutschland jährlich Schäden von mehr als 100 Milliarden Euro verursachen — summiert aus Kraftstoffmehrverbrauch, entgangener Produktivzeit und erhöhten Lieferkosten. Der Anteil, der in Städten entsteht, liegt deutlich über 50 Prozent, weil städtische Netze enger getaktet sind und Störungen sich schneller fortpflanzen.

Das eigentliche Problem ist nicht der Stau selbst — es ist die strukturelle Blindheit der Systeme, die ihn steuern sollen. Klassische Signalsteuerung arbeitet nach fixen Schaltplänen, die aus Zählkampagnen abgeleitet wurden. Diese Kampagnen laufen typisch zwei bis vier Wochen im Jahr, zu ausgewählten Jahreszeiten, an einer Auswahl der Kreuzungen. Dazwischen: kein Datenstrom.

Schon heute liegen in vielen Städten mehr Daten vor als je genutzt werden: Induktionsschleifen in der Fahrbahn, Kamerasysteme mit automatischer Fahrzeugerfassung, GPS-basierte Floating Car Data aus Navigationsgeräten und Mobiltelefonen. Das Problem ist nicht Datenmangel — es ist fehlende Infrastruktur, um diese Daten kontinuierlich zu analysieren und in Handlungen zu übersetzen.

Konkret: Wo eine gut eingerichtete KI-Verkehrsanalyse eingesetzt wurde, zeigen Pilotergebnisse deutliche Effekte. Das Hamburger #transmove-Projekt — entwickelt vom Landesbetrieb Straßen, Brücken und Gewässer (LSBG) gemeinsam mit PTV Group und Workplace Solutions — hat multimodale Mobilitätsprognosen für Verkehrskoordinatoren und Planungsbehörden entwickelt und gewann 2025 den Deutschen Ingenieurpreis. In Pittsburgh reduzierte das adaptive Surtrac-System von Carnegie Mellon University (CMU) unter der Leitung von Dr. Stephen Smith die Reisezeiten auf den Pilotkorridoren um 25 Prozent, die Wartezeiten um 40 Prozent.

Der Weg dorthin verläuft aber nicht durch die Wahl des richtigen Algorithmus — er verläuft durch die Datenbasis.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-Verkehrsanalyse
Datengrundlage für PlanungsentscheidungenZählkampagnen, 2–4 Wochen/JahrKontinuierliche Sensorauswertung, 365 Tage
Zeit für manuelle Musteranalyse8–20 Std./Woche je Planerin2–5 Std./Woche (KI liefert Muster, Mensch entscheidet)
Reaktionszeit auf StauproblemeWochen bis Monate (Kampagne → Analyse → Beschluss)Tage bis Wochen (laufende Analyse, sofortige Anomalieanzeige)
Erkannte EngpassmusterSaisonale StichprobenTageszeitlich, wochentagsabhängig, witterungssensitiv
Prognosequalität für InfrastrukturplanungHoch unsicher (Extrapolation aus Stichproben)Deutlich belastbarer durch kontinuierliche Datenbasis

Die Zeitersparnis für Verkehrsplanung ist real, aber nicht spektakulär. Der eigentliche Unterschied liegt in der Entscheidungsqualität: Planungsentscheidungen, die heute auf zwei Oktober-Wochen basieren, können künftig auf zwölf Monate aufbauen. Das ändert nicht die Arbeit an sich — es ändert, wie gut die Ergebnisse dieser Arbeit sein können.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5)
Verkehrsplanerinnen und -planer sparen messbar Zeit bei der manuellen Musterauswertung — grob 3 bis 6 Stunden pro Woche weniger manuelle Tabellenwertung. Das ist real, aber im Vergleich zu anderen verwaltung-Anwendungsfällen kein dominanter Hebel. Bürgerkommunikation, Bescheidgenerierung oder Protokollierung sparen in der täglichen Routinearbeit deutlich mehr Zeit pro Mitarbeitenden. Hier ist der Hauptnutzen Entscheidungsqualität, nicht Stundenersparnis.

Kosteneinsparung — mittel (3/5)
Reduzierter Stau hat realen volkswirtschaftlichen Wert — weniger Kraftstoffverbrauch, kürzere Lieferzeiten, weniger CO₂-Emissionen. Aber diese Einsparungen landen nicht im Haushalt des Straßenverkehrsamts. Die Stadt trägt die Investitionskosten, die Einsparungen entstehen bei Bürgerinnen und Unternehmen. Das macht die klassische Haushaltsvorteilsrechnung schwierig. Wer den Fördermittelweg geht (BMDV, Landesverkehrsministerien), ändert das Bild: Wenn 70–80 % der Kosten gefördert sind, verändert sich der eigene Aufwand erheblich.

Schnelle Umsetzung — niedrig (2/5)
Das ist der schwierigste Wert im Vergleich. Sensordaten müssen vorhanden, zugänglich und in ausreichender Dichte sein. Modelle müssen trainiert werden. Die technische Integration zwischen Sensornetz, Analyseplattform und Verkehrsleitzentrale braucht Zeit. Realistisch sind 10–16 Wochen bis zu einem produktiven Pilotbetrieb — mit allen Abhängigkeiten, die dabei auftreten. Kein Anwendungsfall in der verwaltung-Kategorie hat eine kompliziertere technische Voraussetzungskette.

ROI-Sicherheit — niedrig (2/5)
Das ist die ehrlichste Bewertung in dieser Kategorie. Stauzeiten sinken nach einer Schaltungsoptimierung — aber liegt das an der KI, am Wetter, am Baustellenende auf der Parallelstraße oder an der Schulferien? Isolierte Attribution ist schwer. Anders als bei der Antragsstau-Engpasserkennung, wo Bearbeitungszeiten direkt gemessen werden, operiert Verkehrsflussoptimierung in einem System mit vielen Störvariablen. Wer einen klaren ROI-Nachweis für den Gemeinderat braucht, steht vor einem harten Kommunikationsproblem.

Skalierbarkeit — hoch (4/5)
Das System skaliert gut: Ein Pilotbetrieb auf einem Korridor kann auf das gesamte Stadtgebiet ausgedehnt werden, sobald die Datenbasis und die Validierung stimmen. Neue Sensordaten (zusätzliche Kameras, neue Zählstellen) verbessern das Modell kontinuierlich, ohne dass das System neu entwickelt werden muss. Wer die initiale Infrastrukturarbeit geleistet hat, profitiert bei jeder Erweiterung. Nicht bewertet mit 5, weil der Sensor-Rollout für flächendeckende Abdeckung weiterhin Investitionen benötigt.

Richtwerte — stark abhängig von vorhandener Sensorinfrastruktur, Stadtgröße und Netzabdeckung.

Open Data und proprietäre Sensoren: Warum die Datenfrage vor der Algorithmusfrage kommt

Ein Fehler, den viele Kommunen beim Einstieg in KI-Verkehrsanalyse machen: Sie suchen zuerst nach der richtigen Software und fragen danach, welche Daten benötigt werden. Die richtige Reihenfolge ist umgekehrt.

Welche Sensordaten gibt es?

Kommunen haben typisch Zugang zu drei Quellen, die sich in Datenqualität und Zugangsbarrieren erheblich unterscheiden:

Induktionsschleifen sind in deutschen Städten die älteste und verbreitetste Infrastruktur. Sie zählen Fahrzeuge und messen Geschwindigkeiten zuverlässig — haben aber bekannte Schwächen: Reversierende Fahrzeuge oder Fahrzeuge, die nur kurz in den Detektionsbereich einfahren (z.B. an geschlossenen Bahnschranken), lösen falsche Zählimpulse aus. Außerdem sind sie punktuell — sie sehen nur die Schleifen-Position, nicht den Raum dazwischen.

Kamerabasierte Systeme mit KI-Auswertung (z.B. Isarsoft Perception) liefern deutlich reichhaltigere Daten: Fahrzeugklassifizierung (Pkw, LKW, Fahrrad, Fußgänger), Bewegungsrichtungen, Spurauslastung. Sie arbeiten mit vorhandenen Kameras, brauchen aber gute Ausleuchtung und günstige Kamerawinkel. In der Nacht oder bei Gegenlicht sinkt die Erkennungsgenauigkeit.

Floating Car Data (FCD) — GPS-basierte Bewegungsprofile aus Navigationsgeräten (Here Technologies, TomTom) und Mobiltelefonen — deckt das gesamte Netz ab, auch wo keine stationären Sensoren existieren. Qualitätsproblem: Fahrzeughersteller sind oft nicht bereit, ihre Rohdaten zu teilen. Und: FCD aus kommerziellen Quellen kostet Geld und liegt in proprietären Formaten vor. Traffic Technology Today identifizierte in einem Fachbeitrag (März 2024) diese Datenzugangsproblematik explizit als Haupthemmnis für präzise KI-Verkehrsmodelle.

Open Data als Einstieg

Der Deutscher Wetterdienst stellt über DWD Open Data kostenlos Wetterdaten zur Verfügung — Witterungsbedingungen erklären oft 15–30 % der Varianz im Verkehrsaufkommen (Regen steigert Pkw-Nutzung, Frost reduziert Radverkehr). Diese Daten sollten in jedes Verkehrsmodell eingeflossen sein, kosten nichts und sind einfach integrierbar.

OpenStreetMap (OSM) liefert das Straßennetz als freie Geodaten. Viele Kommunen verfügen auch über GTFS-Daten ihres ÖPNV (offiziell zur freien Nutzung), die Linienführungen, Haltestellen und Fahrtzeiten enthalten.

Die Entscheidungsregel: Bevor die Algorithmusfrage gestellt wird, muss geklärt sein: Für wie viele Prozent des Netzes gibt es Echtzeit-Detektionsdaten? Unter 40 bis 50 Prozent der neuralgischen Knotenpunkte ist eine netzwerkweite KI-Optimierung kaum sinnvoll — das System “sieht” zu wenig, um gute Entscheidungen zu treffen.

Was die KI-Verkehrsanalyse konkret macht

Der technische Kern: Machine Learning-Modelle — meist Varianten von zeitreihen-basierten Neuronalen Netzen oder Gradient-Boosting-Ensembles — lernen aus historischen Sensordaten, wie sich Verkehrsflüsse zu verschiedenen Tageszeiten, Wochentagen und Witterungsbedingungen verhalten.

Das ergibt zwei Nutzungsmodi:

Rückblickende Musteranalyse (für Verkehrsplanung): Das System identifiziert systematische Engpässe — “Kreuzung X ist werktags zwischen 17:00 und 17:45 Uhr regelmäßig übersättigt, weil das Linkabbieger-Volumen aus dem Gewerbegebiet die zugeteilte Grünphase überschreitet” — ohne dass ein Mensch stundenlang Tabellen auswerten muss. Diese Erkenntnisse werden als Empfehlungen für Schaltungsanpassungen ausgegeben, die ein menschlicher Verkehrsplaner bewertet und freigibt.

Kurzfristige Prognose und adaptive Steuerung (für Verkehrsleitzentralen): Das System prognostiziert das Verkehrsaufkommen für die nächsten 15–60 Minuten und passt Signalschaltungen proaktiv an. Das ist der Betriebsmodus von Yunex Traffic (Yutraffic Fusion), den das Landesverkehrsministerium Baden-Württemberg seit 2024 in Ellwangen pilotiert: Zwölf Signalanlagen an der B290 und der südlichen Umgehungsstraße werden auf Basis von Echtzeit-Sensordaten und Kurzfristprognosen gesteuert — ohne manuellen Eingriff des Leitzentrums.

Die wichtige Unterscheidung: Analyse-Systeme (was passiert?) und Steuerungs-Systeme (was soll passieren?) sind unterschiedliche Produkte mit unterschiedlichen Anforderungen. Die meisten Kommunen sind besser beraten, mit dem Analyse-Modus zu starten — erst das Muster verstehen, dann optimieren.

Für die Planungsarbeit ist PTV Visum der Industriestandard in deutschen Straßenverkehrsämtern: Mehr als 2.500 Städte weltweit — darunter Hamburg, München und Berlin — nutzen PTV-Lösungen für Nachfragemodellierung und Szenario-Simulation. Das Tool rechnet nicht in Echtzeit, aber es erlaubt, “Was wäre wenn”-Fragen zu beantworten: Was passiert mit dem Netz, wenn eine Baustelle die Hauptachse für sechs Monate halbiert? Welche Querstraßen übernehmen den Verkehr, und reicht deren Kapazität?

Konkrete Werkzeuge — was wann passt

Isarsoft Perception — wenn vorhandene Kameras vorhanden sind und kontinuierliche Zähldaten gebraucht werden. Das Münchner Unternehmen analysiert Videodaten in Echtzeit, klassifiziert Fahrzeugarten und liefert Bewegungsprofile für Kreuzungen und Korridore. Kein neues Sensorhardware nötig. Einstieg: Pilot mit 2–5 Kameras über 4–6 Wochen. Preise auf Anfrage, SaaS-Modell. Geeignet für: Ersterhebungen, Planungsgrundlagen, Verkehrszählungen vor Infrastrukturentscheidungen.

PTV Visum — wenn eine strategische Planungsbasis aufgebaut werden soll. Marktstandard in deutschen Straßenverkehrsämtern, Jahreslizenzen typisch 5.000–20.000 €. Nicht für Echtzeit-Steuerung, sondern für Szenario-Simulation und langfristige Netzplanung. Geeignet für: Verkehrsplanerinnen und -planer mit quantitativem Hintergrund, größere Städte mit eigenem Verkehrsmodell.

Yunex Traffic (Yutraffic Fusion) — wenn adaptive Echtzeit-Signalsteuerung das Ziel ist. Das Produkt wurde als erstes dieser Art in Deutschland in Ellwangen pilotiert (2024), Kosten ca. 200.000 € für 12 Signalanlagen inkl. Hardware und Konfiguration. Nur sinnvoll mit vorhandener Verkehrsleitzentrale und guter Sensordichte. Geeignet für: mittelgroße bis große Städte mit konkretem Stau-Korridorproblem und Förderperspektive.

Grafana — als Dashboard-Schicht über vorhandene Sensordatenquellen. Open Source, selbst hostbar, verbindet sich mit den meisten Zeitreihendatenbanken. Ermöglicht Echtzeit-Visualisierung von Sensorwerten, historische Trendanalyse und Alerting bei Anomalien — für Behörden mit eigenem IT-Team ein kosteneffizienter Einstieg in Verkehrsmonitoring ohne proprietäre Plattform. Kein ML, aber gute Sichtbarkeit.

Power BI — wenn die Verkehrsauswertung in eine bestehende Microsoft-365-Infrastruktur integriert werden soll. Ermöglicht Berichte und Dashboards aus aufbereiteten Sensordaten für Führungskräfte und Gemeinderäte. Ab 10 €/Person/Monat (Pro). Geeignet für: Berichtswesen und Präsentation von Analyseergebnissen, nicht für Echtzeit-Steuerung.

Zusammenfassung: Wann welcher Ansatz

  • Vorhandene Kameras, erste Datenbasis aufbauen → Isarsoft Perception
  • Strategische Netzplanung und Szenario-Simulation → PTV Visum
  • Adaptive Echtzeit-Signalsteuerung auf Pilotkorridoren → Yunex Traffic
  • Dashboarding und Monitoring über Sensordaten → Grafana (Open Source) oder Power BI (M365-integriert)

Datenschutz und Datenhaltung

Verkehrsdaten sind in der Regel keine personenbezogenen Daten im Sinne der DSGVO — sofern keine Kennzeichen oder Gesichter erfasst werden. Das ist der Standardbetrieb: KI-Systeme wie Isarsoft Perception anonymisieren Fahrzeugbilder direkt am Sensor und liefern nur aggregierte Zählwerte und Bewegungsprofile. Einzelne Fahrzeuge sind nicht rückverfolgbar.

Kritischer wird es an zwei Stellen:

Floating Car Data (FCD): GPS-Daten aus Mobiltelefonen und Fahrzeugen können personenbezogen sein, wenn einzelne Bewegungsprofile rückverfolgbar sind. Kommerzielle FCD-Anbieter (HERE Technologies, TomTom) liefern aggregierte, anonymisierte Daten — aber die AVV-Prüfung mit dem behördlichen Datenschutzbeauftragten ist Pflicht, bevor diese Daten in Systeme eingespeist werden.

Kamerabasierte Erfassung: Sofern Kameras öffentlichen Raum erfassen und Menschen erkennbar sind, greift das Recht auf informationelle Selbstbestimmung. Systeme wie Isarsoft Perception arbeiten gezielt ohne Gesichtserkennung — die entsprechende technische Konfiguration muss aber dokumentiert und vom Datenschutzbeauftragten geprüft sein.

Für öffentliche Behörden gilt: Alle Datenverarbeitungen sind ohnehin im Verarbeitungsverzeichnis nach Art. 30 DSGVO zu dokumentieren. Neu hinzukommende Datenquellen — auch wenn sie anonym erscheinen — gehören dort eingetragen. Beim Einsatz externer Anbieter (z.B. Yunex Traffic, PTV Visum) ist ein AVV nach Art. 28 DSGVO abzuschließen — alle genannten Anbieter stellen EU-konforme Vertragsunterlagen bereit, aber die Behörde muss die Unterschrift aktiv anfordern und das Dokument archivieren.

Technisch bevorzugt: Alle genannten Werkzeuge sind EU-gehostet oder on-premise einsetzbar. Für Grafana ist die Community-Edition komplett selbst hostbar — kein Drittanbieter, keine Datenübertragung.

Was es kostet — realistisch gerechnet

Verkehrsanalyse-Projekte sind keine SaaS-Abonnements, bei denen man eine Kreditkarte hinterlegt und loslegt. Sie haben eine Projektstruktur mit initialen Investitionen und laufenden Betriebskosten.

Einmalige Kosten

Sensordaten-Infrastruktur (wenn noch nicht vorhanden):

  • Nachrüstung einer Kamera-Zählstelle: 5.000–15.000 € je Knotenpunkt (Hardware + Installation)
  • Anbindung vorhandener Kameras an Analyseplattform: 2.000–8.000 € je Kamera (je nach Systemintegration)
  • PTV Visum Erstmodellierung: 20.000–60.000 € für ein kommunales Netzmodell (extern vergeben oder intern mit Lizenz)

Für ein Pilotprojekt auf einem Korridor mit 8–12 Kreuzungen und vorhandener Kamerainfrastruktur:
Realistische Gesamtkosten: 40.000–120.000 € (externe Einrichtung, Lizenzkosten, Integration).

Der Ellwangen-Pilot (Yunex Traffic Yutraffic Fusion, 12 Signalanlagen) kostete ca. 200.000 € — vollständig vom Land Baden-Württemberg getragen. Das ist ein Referenzwert für volladaptive KI-Steuerung einschließlich Hardware-Erweiterung.

Laufende Kosten

  • Isarsoft Perception: Projektbasiert, SaaS, Preise auf Anfrage — typisch niedriger fünfstelliger Bereich/Jahr für städtische Piloten
  • PTV Visum: 5.000–20.000 €/Jahr Jahreslizenzen
  • Grafana Open Source: keine Lizenzkosten, Hosting-Infrastruktur je nach Ansatz
  • Yunex Traffic Wartung/Betrieb: abhängig von Projektgröße, individuell verhandelt

Förderkulisse

Das Bundesministerium für Digitales und Verkehr (BMDV) fördert Verkehrsdigitalisierungsprojekte über verschiedene Programme (z.B. Modellprojekte Smart Cities, Digitalisierung kommunaler Verkehrsinfrastruktur). Der Hamburger #transmove-Pilot wurde vollständig durch BMDV und die Hamburger Verkehrsbehörde gefördert. Wer den Projektaufwand nicht allein tragen kann, sollte die Förderantragsphase vor dem Piloten einplanen — typisch 3–6 Monate Vorlauf.

Was du dagegenrechnen kannst
Der direkteste Nutzen für die Behörde selbst: Planungsentscheidungen, die heute auf zwei Messwochen basieren, werden auf 12 Monate Datenbasis gestellt. Das reduziert die Wahrscheinlichkeit teurer Fehlentscheidungen — Kreuzungsumbau, der nach zwei Jahren wieder geändert werden muss, weil er auf unvollständigen Daten basierte. Für Infrastrukturprojekte, die im Millionenbereich kosten, ist eine bessere Planungsgrundlage der messbarste Hebel.

Drei typische Einstiegsfehler

1. Das Tool kaufen, bevor die Datenbasis geprüft ist.
Der häufigste Fehler: Eine Analysesoftware wird beschafft und dann festgestellt, dass die vorhandenen Sensordaten lückenhaft, veraltet oder in inkompatiblen Formaten vorliegen. Ein Verkehrsanalysesystem, das nur 30 % der neuralgischen Kreuzungen “sieht”, wird suboptimale Muster ausgeben — nicht weil der Algorithmus schlecht ist, sondern weil die Eingabedaten unvollständig sind. Lösung: Vor der Software-Auswahl eine Sensorbestandsaufnahme durchführen. Was liegt vor? Welche Kreuzungen haben digitale Detektoren? Wo gibt es Kameras, die umgenutzt werden könnten?

2. Analyse und Steuerung in einem Schritt.
Adaptive Echtzeit-Steuerung ist der attraktive Use Case — aber er setzt voraus, dass die Analysebasis stimmt. Wer direkt mit einem vollautomatisierten Steuerungssystem startet, ohne die Datenbasis validiert zu haben, riskiert eine KI, die auf Basis mangelhafter Daten Ampelphasen verkürzt und damit den Verkehr aktiv verschlechtert. Empfehlung: Erst analysieren, dann steuern. Erster Schritt immer die Musteranalyse.

3. Die Wartungspflicht unterschätzen.
Sensorinfrastruktur verschleißt. Induktionsschleifen werden durch schwere Fahrzeuge beschädigt, Kameras verdrehen sich bei Wind, Firmware-Updates von Steuergeräten können die Datenformate verändern. Ein Verkehrsanalyse-System, das mit degradierten Sensordaten arbeitet, liefert degradierte Empfehlungen — ohne dass das auf den ersten Blick auffällt. Lösung: Von Anfang an Sensor-Monitoring einplanen (z.B. automatischer Alert bei Ausfall einer Zählstelle über Grafana) und eine klare Zuständigkeit für die Infrastrukturpflege definieren.

4. Den Unterschied zwischen Korrelation und Kausalität in der Ergebnisinterpretation ignorieren.
Das Modell zeigt: An Kreuzung X sind Haltezeiten werktags zwischen 16:30 und 17:30 Uhr doppelt so hoch wie an Wochenenden. Das stimmt — aber die Ursache ist die Grundschule 300 Meter weiter, nicht die Schaltung. Eine Schaltungsoptimierung hilft hier wenig; was helfen würde, wäre eine Eltern-Hol-Zone. KI liefert Muster, keine Diagnosen. Die Interpretation liegt beim Menschen. Wer das nicht versteht, optimiert am falschen Hebel.

Was mit der Einführung wirklich passiert — und was nicht

Das größte Missverständnis bei KI-Verkehrsanalyse: Das System wird als Lösung wahrgenommen, dabei ist es ein Werkzeug. Die Lösung entsteht erst dadurch, dass jemand mit dem Werkzeug arbeitet.

In der Praxis zeigen sich drei Widerstands- und Enttäuschungsmuster:

Die Erwartungsschere. Politische Auftraggeber erwarten nach der Pilotphase messbar verbesserte Verkehrsflüsse auf dem gesamten Stadtgebiet. Das System liefert: bessere Daten zu einem Korridor. Die Transformation vom Datengewinn zum Verkehrsnutzen braucht die Planungsentscheidung dazwischen — und die hat ihre eigenen Zyklen (Gemeinderatsbeschlüsse, Fördermittelanträge, Ausschreibungen). Der Zeitraum zwischen “wir haben jetzt gute Daten” und “der Verkehr fließt besser” beträgt in der Praxis 12–24 Monate, selbst wenn alles gut läuft.

Der IT-Datengraben. Sensordaten liegen im Straßenverkehrsamt, Planungsdaten im Stadtplanungsamt, Fördermittelinformationen im Kämmerei-Amt. Keine dieser Stellen hat Zugriff auf die Daten der anderen. Ein KI-Verkehrssystem, das wirklich optimal funktioniert, braucht Koordination über Amtsgrenzen hinweg — und das ist oft der härteste Teil der Einführung, nicht die Technik. Empfehlung: Die Stakeholder-Karte vor dem ersten Deployment zeichnen. Wessen Daten braucht das System? Wessen Entscheidungshoheit ist betroffen?

Die “Wir optimieren Autos”-Kritik. Kommunale Verkehrsplanung steht unter dem politischen Druck, Mobilitätswende voranzutreiben. KI-Verkehrsanalyse, die primär den Pkw-Fluss optimiert, kann in diesem Kontext als falsches Signal wahrgenommen werden — selbst wenn dieselben Daten auch Rad- und Fußgängerverkehr verbessern würden. Empfehlung: Die Kommunikation von Anfang an multimodal ausrichten. Was tut das System für Fahrräder? Für Busse? Für Fußgänger? Systeme wie Yunex Traffic und Isarsoft Perception erfassen ausdrücklich alle Verkehrsteilnehmertypen — das muss im Pilotdesign explizit gemacht werden.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
SensorbestandsaufnahmeWoche 1–2Inventarisierung vorhandener Detektoren, Kamerasysteme und Datenzugänge; Identifikation von DatenlückenMehr Lücken als erwartet — Pilotkorridorauswahl muss angepasst werden
Daten-Assessment und Korridor-AuswahlWoche 3–4Datenqualität prüfen, Pilotstandort mit ausreichend Sensorabdeckung auswählen, Fördermittelperspektive klärenKorridor ohne ausreichende Sensordichte — Hardware-Nachrüstung nötig (verlängert Zeitplan)
System-Setup und DatenintegrationWoche 5–8Softwarelizenz beschaffen, Datenquellen anbinden (Induktionsschleifen, Kameras, FCD), erste Datenqualitätsprüfung durch Isarsoft Perception oder GrafanaInkompatible Datenformate von Altinfrastruktur — händische Transformation notwendig
Modelltraining und ValidierungWoche 9–12ML-Modell auf Basislinie trainieren, Prognosen gegen reale Beobachtungen validieren, erste MusterberichteDatenlücken im Trainingszeitraum (Baustellenphasen, Zählausfälle) — Modell muss Ausreißer explizit handhaben
PilotbetriebWoche 13–16Echtbetrieb auf Pilotkorridor, erste Optimierungsempfehlungen an Verkehrsplanungsteam, Basiskennzahlen dokumentierenSchaltungsanpassungen brauchen Amtsbeschluss — Umsetzungsverzögerung entkoppelt Empfehlung von Wirkung
Evaluierung und SkalierungsentscheidungAb Woche 17Ergebnisauswertung, Entscheidung über Ausweitung auf weitere KorridoreFehlende Kontrollgruppe erschwert Kausalitätsnachweis — politische Kommunikation der Ergebnisse vorbereiten

Wichtig: Dieser Zeitplan gilt für einen Analyse-Piloten auf einem vorbereiteten Korridor mit vorhandener Sensorinfrastruktur. Ein adaptives Steuerungssystem wie Yunex Traffic benötigt zusätzlich Zeit für Verkehrsleitzentralen-Integration und Hardware-Erweiterung.

Häufige Einwände — und was dahintersteckt

„Wir haben keine freien Haushaltsmittel.”
Das stimmt in den meisten kommunalen Haushalten. Der realistische Weg führt nicht über den eigenen Haushalt, sondern über Förderprogramme. Das BMDV fördert kommunale Verkehrsdigitalisierung, mehrere Bundesländer haben eigene Programme (wie Baden-Württembergs Pilotprojekt in Ellwangen). Der Zeitaufwand für die Förderantragsstellung — typisch 3–6 Monate — ist erheblich, aber die Förderquoten von 70–90 % verändern die Rechnung grundlegend. Wer keine internen Kapazitäten für die Antragsstellung hat, kann das an spezialisierte Fördermittelberater für den öffentlichen Sektor vergeben.

„Unsere Sensordaten sind zu alt / zu lückenhaft.”
Das ist der ehrlichste Einwand in dieser Liste — und oft der berechtigste. Wenn weniger als 40 bis 50 Prozent der neuralgischen Knotenpunkte digitale Detektoren haben, ist KI-Verkehrsoptimierung verfrüht. Der sinnvolle erste Schritt ist dann nicht die Analysesoftware, sondern die Sensor-Nachrüstung. Kamerabasierte Lösungen wie Isarsoft Perception bieten hier einen günstigeren Einstieg als neue Induktionsschleifen — sofern Kameras an den relevanten Kreuzungen hängen.

„Der Gemeinderat sieht keinen direkten Nutzen für die Bürgerinnen und Bürger.”
Das ist ein Kommunikationsproblem, kein Sachproblem. Der direkte Nutzen ist messbar: 15–25 Prozent weniger Haltezeiten auf optimierten Korridoren (belegt durch Pittsburgh/Surtrac und den Londoner Yunex Traffic-Einsatz) bedeuten täglich weniger Abgasemissionen, weniger Kraftstoffverbrauch und kürzere Fahrten für Tausende von Pendlerinnen und Pendlern. Was nicht gut kommuniziert werden kann: der Zeitraum zwischen Datengewinn und spürbarer Wirkung. Wer im Gemeinderat mit einer realistischen Timeline — 12 bis 24 Monate von Pilot bis Wirkung — kommuniziert statt mit Versprechen für das nächste Quartal, erhält langfristig mehr politischen Rückhalt.

Woran du merkst, dass das zu dir passt

  • Eure Stadt hat mehr als 50.000 Einwohner und wiederkehrende Staumuster auf definierten Korridoren (Einfallstraßen, Gewerbegebietsanbindungen, ÖPNV-Trassen)
  • Ihr habt bereits digitale Detektoren (Induktionsschleifen oder Kameras) an mindestens 40–60 Prozent der neuralgischen Kreuzungen eures Zielkorridors
  • Eure Verkehrsplanung arbeitet aktuell auf Zählkampagnen-Basis — saisonale Stichproben, die für strategische Entscheidungen extrapoliert werden
  • Es gibt eine Person oder ein kleines Team, das für Verkehrsanalyse und -planung zuständig ist und technische Auswertungen versteht
  • Ihr habt eine Förderkulisse oder zumindest Bereitschaft, einen Förderantrag zu stellen — rein aus dem laufenden Haushalt ohne Förderung ist der Einstieg für die meisten Kommunen schwer darstellbar

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Stadt unter 50.000 Einwohnern ohne ausgeprägte Staukorridore. In kleineren Netzen sind Verkehrsmuster einfach genug, dass konventionelle adaptive Steuerung (SCOOT, SCATS) ähnliche Ergebnisse zu einem Bruchteil der Kosten liefert. ML-Optimierung entfaltet seinen Vorteil erst bei ausreichender Netztiefe und Mustervielfalt. Wer hier investiert, zahlt für Komplexität, die das Netz nicht braucht.

  2. Keine Echtzeit-Sensordaten und keine Infrastruktur für Nachrüstung. Eine KI, die nur auf jährliche Zählkampagnen zugreifen kann, ist keine KI-Verkehrsoptimierung — sie ist teure Statistik. Wer keine funktionierende Sensor-Grundlage hat und auch keine Mittel für Nachrüstung, sollte diesen Use Case noch nicht angehen. Erst Infrastruktur, dann Intelligenz.

  3. Keine dauerhafte interne Kapazität für Systembetreuung und Dateninterpretation. Ein Verkehrsanalyse-System, das eingeführt und dann intern nicht betreut wird, liefert nach 12–18 Monaten Ergebnisse auf Basis degradierter Sensordaten — ohne dass das sofort auffällt. Schlechte Sensorwerte erzeugen schlechte Modellausgaben, die gut aussehen und falsch sind. Das braucht eine zuständige Person: nicht die IT, nicht “alle”, sondern jemand im Verkehrsamt, der regelmäßig Datenqualität prüft und Anomalien eskaliert.

Das kannst du heute noch tun

Der erste Schritt ist kein Software-Kauf. Es ist eine Bestandsaufnahme: Welche Sensordaten liegen für euren Stadtbereich bereits vor?

In vielen Kommunen gibt es mehr als gedacht: Zähldaten aus vergangenen Kampagnen, Kamerasysteme aus dem Ordnungsamt, ÖPNV-GPS-Daten aus dem Verkehrsverbund. Diese Daten muss niemand kaufen — sie existieren schon. Ob sie gut genug sind, um ein ML-Modell sinnvoll zu trainieren, zeigt die Bestandsaufnahme.

Hier ist ein Prompt, den du in ChatGPT, Claude oder Gemini eintragen kannst, um eine erste strukturierte Analyse deiner vorhandenen Datensituation zu machen:

Prompt: Verkehrsdaten-Bestandsaufnahme
Du bist ein erfahrener Berater für kommunale Verkehrsdigitalisierung in Deutschland. Ich bin [DEINE ROLLE, z.B. Sachbearbeiter Straßenverkehrsamt, Mobilitätsreferent] in [STADTNAME, Größe: ca. X Einwohner]. Hilf mir, eine strukturierte Bestandsaufnahme unserer Verkehrsdaten zu erstellen: **Schritt 1: Sensordaten-Inventar** - Wir haben folgende Datenquellen: [LISTE: z.B. "Induktionsschleifen an 15 Kreuzungen, letzte Kalibrierung 2022", "Kamerasystem Ordnungsamt an 8 Standorten, keine automatische Auswertung", "manuelle Zählkampagne Oktober 2024 an 7 Kreuzungen"] - Bitte kategorisiere die Datenquellen nach: Qualität (gut/mittel/schwach), Kontinuität (Echtzeit/periodisch/Einmalig), Abdeckung (Anteil der neuralgischen Kreuzungen) **Schritt 2: Lückenanalyse** - Diese Staus/Engpässe bereiten uns konkrete Probleme: [BESCHREIBE SPEZIFISCHEN KORRIDOR, z.B. "Einfahrt Gewerbegebiet West, werktags 16-18 Uhr, Rückstau bis Hauptstraße"] - Welche Daten fehlen, um diesen Engpass KI-gestützt zu analysieren? **Schritt 3: Realismusprüfung** - Bin ich mit dieser Datenbasis für einen KI-Analyse-Piloten bereit, oder brauche ich zuerst Sensor-Nachrüstung? - Was wäre der kleinste sinnvolle erste Schritt?
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Wir haben Induktionsschleifen an 18 Kreuzungen, davon 12 an der Hauptachse Ost-West. Letzte Kalibrierung 2021. Dazu Kamerasystem Ordnungsamt an 5 Punkten, keine automatische Auswertung. Hauptproblem: Einfahrt Gewerbegebiet Süd, werktags 16:30 bis 17:45 Uhr, Rückstau bis zur Bundesstraße, Straßenbahn Linie 4 verliert regelmäßig 8-12 Minuten.

KI-Assistent

**Bestandsaufnahme — Einschätzung** Datenquellen-Bewertung: - Induktionsschleifen (18 Kreuzungen, 12 auf Hauptachse): MITTEL — gute Abdeckung der Hauptachse, aber Kalibrierung 2021 sollte geprüft werden. Defekte Schleifen sind häufig und werden oft nicht gemeldet. - Kamerasystem Ordnungsamt (5 Standorte, keine Auswertung): POTENZIAL — vorhandene Hardware, die kostenlos mehr liefern könnte, wenn eine Analysesoftware (z.B. Isarsoft Perception) angebunden wird. Lückenanalyse für Gewerbegebiet Süd: - Fehlend: Detektoren an der Ausfahrt selbst (nicht nur der Kreuzung) — der Rückstau entsteht wahrscheinlich durch eine zu kurze Grünphase für Linksabbieger, aber ohne Schleife dort ist das Schätzen. - Fehlend: ÖPNV-GPS-Daten der Linie 4. Wenn ihr die bekommt (ÖPNV-Verbund anfragen), kann die 8-12 Minuten Verspätung direkt dem Stau zugeordnet werden — das ist ein starkes Argument für den Gemeinderat. Realismusprüfung: - Mit dieser Basis: Analyse-Pilot machbar, aber zuerst Kalibrierungsprüfung der Induktionsschleifen und Anbindung Ordnungsamts-Kameras (Isarsoft-Pilot kostenlos evaluierbar). - Empfohlener nächster Schritt: Kalibrierung der 18 Schleifen prüfen (intern, 1–2 Stunden pro Standort) und Isarsoft Demo-Call mit einem Kamera-Feed vom Gewerbegebiet-Knotenpunkt buchen. Zeithorizont bis Pilotbetrieb: 10–14 Wochen ab Abschluss der Kalibrierungsprüfung.

Quellen & Methodik

  • Hamburg #transmove: LSBG Hamburg / Landesbetrieb Straßen, Brücken und Gewässer, Projektbeschreibung Digilab #transmove (2024). Kooperationsprojekt mit PTV Group und Workplace Solutions, gefördert durch BMDV und Hamburger Behörde für Verkehr und Mobilitätswende. Gewinner Deutscher Ingenieurpreis 2025. lsbg.hamburg.de/digilab/transmove
  • Ellwangen Yutraffic Fusion Pilot: Yunex Traffic GmbH / Ministerium für Verkehr Baden-Württemberg, Pressemitteilung „Land startet Testfeld mit KI-gesteuerten Ampeln in Ellwangen” (2024). Projektkosten ca. 200.000 € (vollständig Landesförderung). vm.baden-wuerttemberg.de und yunextraffic.com/newsroom
  • Pittsburgh Surtrac: Dr. Stephen Smith, Carnegie Mellon University Robotics Institute. Pilotbetrieb ab 2012 im East Liberty-Viertel, Pittsburgh. 25 % weniger Reisezeit, 40 % weniger Wartezeit, 20 % weniger Emissionen. Kommerzialisiert durch Rapid Flow Technologies. CMU News (Oktober 2019): cmu.edu/news/stories/archives/2019/october/traffic-moves-at-speed-of-technology.html
  • Sensor-Datenfehler: Traffic Technology Today, Feature-Artikel „Why AI traffic modeling is only as smart as the data we feed it” (März 2024, TTi Magazin). Thematisiert OEM-Datenzugangsbarrieren und Sensorqualitätsproblematik als Haupthemmnis für präzise KI-Verkehrsmodelle.
  • Induktionsschleifen-Zählfehler: Fachdokumentation Stadlmayr, „Fahrzeugzählung mit Induktionsschleifen” (2024) — dokumentiert systematische Zählfehler bei reversierenden Fahrzeugen und kurzweiligem Befahren.
  • Staukosten Deutschland: ADAC-Staustatistik 2023/2024; eigene Hochrechnung.
  • PTV Group Marktangaben: PTV Group Unternehmensseite (April 2026) — 2.500+ Städte weltweit.
  • Preisangaben: Veröffentlichte Tarife und Projektdokumentation der jeweiligen Anbieter (Stand April 2026). Einzel-Pilotpreise basieren auf öffentlich berichteten Projekten und Erfahrungswerten kommunaler Beschaffungen.

Du willst wissen, ob eure Sensordaten für einen KI-Analyse-Piloten ausreichen — oder welche Förderkulisse für eure Gemeinde realistisch ist? Das klären wir gerne in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar