Zum Inhalt springen
Verkehr & Logistik leerfahrtenstrukturanalyseclustering

Leerfahrten-Strukturanalyse

KI clustert historische Tourdaten und deckt auf, welche Relationen, Zeitfenster und Kundenmuster systematisch Leerfahrten erzeugen — damit Disponenten Ursachen adressieren, nicht nur Symptome.

Worum geht's?

Es ist Donnerstagmorgen, 7:54 Uhr.

Disponentin Katharina Sommer schaut auf die Wochenauswertung ihrer Spedition in Bielefeld — 38 Fahrzeuge, Schwerpunkt Einzel- und Teilladungsverkehre in NRW und Niedersachsen. Die Leerfahrtenquote liegt diese Woche bei 31 Prozent. Letzte Woche waren es 29, die Woche davor 33. Der Schnitt über die letzten sechs Monate: 30,4 Prozent.

Katharina weiß das. Ihr Chef weiß das. Alle wissen es.

Was niemand weiß: Warum. Welche Relationen sorgen für diesen Wert? Ist es die Freitagnacht-Rückfahrt von Osnabrück? Die Montagstouren ins Sauerland, die immer ohne Rückladung enden? Liegt es an einem bestimmten Großkunden, der nur einseitige Transporte bucht? Oder an der Zeitfensterpolitik zweier Verlader, die sich gegenseitig blockieren?

Katharina hält die Zahlen in der Hand — aber die Zahlen sagen ihr nicht, wo sie ansetzen soll.

Das ist kein Einzelfall. Das ist der Normalzustand in deutschen Speditionen: Man kennt die Quote, aber nicht die Struktur dahinter.

Das echte Ausmaß des Problems

Leerfahrten sind keine Randerscheinung im deutschen Güterkraftverkehr. Laut Kraftfahrt-Bundesamt lag der Anteil der Leerfahrten an allen mit deutschen Lastkraftfahrzeugen durchgeführten Fahrten im Jahr 2023 bei 37,8 Prozent — mehr als jede dritte Fahrt ohne Ladung. Das entspricht einem wirtschaftlichen Schaden in Milliardenhöhe: Bei einem Vollkostensatz von ca. 1,40–1,80 EUR pro Kilometer für einen typischen Sattelzug (Kraftstoff, Fahrerlohn, Abschreibung, Maut, Versicherung) kostet eine 400-km-Leerfahrt zwischen 560 und 720 Euro in direkten Kosten — ohne einen Cent Erlös dagegen.

Für eine mittelgroße Spedition mit 30 Fahrzeugen, die täglich durchschnittlich je 300 Kilometer ohne Ladung fahren, summiert sich das auf Jahreskosten von über 1,3 Millionen Euro an nicht gegenfinanzierten Fahrzeugkilometern. Diese Zahl steht so in keiner Kostenübersicht — sie verteilt sich auf Kraftstoffposten, Fahrergehälter, Mautabrechnungen.

Das eigentliche Problem ist nicht die Leerfahrtenquote selbst — sondern ihre Undurchsichtigkeit. Disponenten und Geschäftsführer sehen den Gesamtwert, aber nicht die Zusammensetzung:

  • Welche Relation produziert systematisch Leerfahrten auf der Rücktour?
  • Welcher Wochentag oder welches Zeitfenster macht Rückladungen strukturell unmöglich?
  • Welcher Kunde oder welches Kundensegment bucht so, dass einseitige Transporte entstehen?
  • Welches Depot hat ein geografisch ungünstiges Einzugsgebiet, das Leerfahrten strukturell erzwingt?

Ohne Antworten auf diese Fragen bleibt jede Optimierungsmaßnahme ein Versuch im Dunkeln. Man kann täglich besser disponieren — aber wenn die strukturellen Ursachen unbekannt bleiben, pendelt die Quote weiter um denselben Wert.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-AnalyseMit Strukturanalyse
Sichtbarkeit auf UrsachenebeneGesamtquote bekannt, Treiber unklarTop-5-Treiber nach Relation, Zeitfenster, Kunde
DispositionsentscheidungenErfahrungsbasiert, reaktivDatengestützt, präventiv auf Hochlastrelationen
Zeit für manuelle Auswertung3–5 Stunden wöchentlich, unvollständig30–60 Minuten Dashboard-Pflege
Leerfahrtenquote (realistischer Effekt)Stagnierende Baseline ±2–3 %15–25 % Reduktion auf adressierten Relationen ¹
Verhandlungsposition mit KundenBauchgefühlBelegbare Einseitigkeitsquote je Kunde

¹ Orientierungswert aus Branchenerfahrungen bei Speditionen mit systematischer Rückladungssteuerung, vgl. Cargonexx-Angaben (2023): Aktivierung von ca. einem Drittel ungenutzter Kapazität bei vergleichbaren Strukturen. Die tatsächliche Einsparung hängt stark vom bestehenden Baseline-Wert und der geografischen Marktlage ab.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Disponenten sparen signifikant Analysezeit, weil repetitive Auswertungen automatisch laufen statt manuell in Tabellen nachgezogen zu werden. Zwei bis vier Stunden wöchentlich, die bisher in unstrukturierten Excel-Auswertungen verschwinden, werden frei für operative Entscheidungen. Das ist real, aber verglichen mit Use Cases wie Echtzeit-Routenoptimierung oder dem Dispositionsassistenten adressiert die Strukturanalyse strategische Zyklen, keine täglichen Arbeitsstunden.

Kosteneinsparung — sehr hoch (5/5) Das ist der stärkste direkte Kostenhebel in dieser Kategorie. Jeder vermiedene Leer-Kilometer senkt Kraftstoffkosten, Mautkosten, Fahrerlohn und CO2-Abgaben unmittelbar und dauerhaft. Anders als bei vielen KI-Anwendungen, wo der Nutzen indirekt oder schwer messbar ist, lässt sich hier jede eingesparte Leerfahrt in Euro ausrechnen. Bei einem Sattelzug entspricht eine vermiedene 400-km-Leerfahrt ca. 560–720 Euro — täglich, auf jeder adressierten Relation.

Schnelle Umsetzung — niedrig (2/5) Das ist keine Plug-and-play-Lösung. Bevor die erste Clusteranalyse läuft, braucht es: saubere Tourdaten aus dem TMS exportiert, bereinigte Adressen und Zeitstempel, ein Analyseskript oder ein BI-Tool, und jemanden, der die Ergebnisse interpretiert. Realistisch vergehen 8–14 Wochen bis zu ersten belastbaren Handlungsempfehlungen. Wer schnelle Wins sucht, ist bei Echtzeit-Routenoptimierung besser aufgehoben.

ROI-Sicherheit — hoch (4/5) Was hier gemessen wird — Leer-km je Relation, Rückladungsquote je Wochentag, Kostenersparnis je Tour — ist direkt in Zahlen greifbar. Kein indirekter Effekt wie bei Kundendienstoptimierung, kein Schätzen von Produktivitätsgewinnen. Die Frage, ob die Maßnahmen greifen, lässt sich mit denselben TMS-Daten beantworten, die die Analyse befüttert haben. Nicht ganz auf 5, weil ein Teil der Leerfahrten strukturell unvermeidbar ist (einseitige Märkte, geografische Zwangspunkte) — und man das vorher nicht immer weiß.

Skalierbarkeit — hoch (4/5) Die Analyse skaliert linear mit Depots und Relationen: ein Depot mehr bedeutet einen weiteren Datensatz im Cluster, kein neues System. Einmal aufgesetzt, läuft die Auswertung für 5 Depots genauso automatisiert wie für eines. Nicht ganz 5, weil größere Netze auch komplexere Querabhängigkeiten erzeugen, die das Interpretationsmodell komplizieren.

Richtwerte — stark abhängig von Flottengröße, Routennetz und Qualität der TMS-Datenbasis.

Was das System konkret macht

Der Kern dieser Anwendung ist Machine Learning-Clustering — kein prädiktives Modell, das Zukunftswerte voraussagt, sondern eine deskriptive Analyse, die in historischen Tourdaten Muster sichtbar macht, die das menschliche Auge nicht erkennen kann, wenn es mit 12.000 Touren pro Jahr arbeitet.

Schritt 1: Datenaggregation. Das System liest die TMS-Tourenhistorie ein — typisch 12–24 Monate. Jede Fahrt wird als Datenpunkt erfasst: Abfahrtsdepot, Zieladresse (geocodiert), Datum und Uhrzeit, geladen oder leer, Auftraggeber, ggf. Fahrzeugtyp und Fahrerdaten.

Schritt 2: Clustering nach strukturellen Dimensionen. Machine-Learning-Algorithmen wie K-Means oder DBSCAN gruppieren Touren nach Ähnlichkeitsdimensionen: geografischer Cluster (Relationen), zeitlicher Cluster (Wochentag, Tageszeit, Saison), Kundensegment. Das Ziel ist nicht, Leerfahrten vorherzusagen — sondern die Frage zu beantworten: “Welche Kombination aus Relation + Zeitfenster + Kundentyp produziert überdurchschnittlich viele Leerfahrten?”

Schritt 3: Treiber-Identifikation. Das Ergebnis sind keine Prozentzahlen, sondern konkrete Gruppen: “Die Freitag-Nachmittag-Touren von Depot Bielefeld in den Kreis Paderborn haben eine Leerfahrtenquote von 67 % — bei allen anderen Relationen liegt sie unter 28 %. Der Unterschied ist statistisch signifikant über 18 Monate.” Oder: “Aufträge von Kunde Müller GmbH haben zu 89 % keine Rückladung — bei vergleichbaren Tonnagen anderer Kunden sind es 41 %.”

Was das System nicht macht: Es bucht keine Rückladungen, ändert keine Touren und verhandelt keine Kundenbedingungen. Die Analyse liefert Entscheidungsgrundlagen — die operative Umsetzung bleibt Disponenten-Arbeit. Das ist kein Mangel, sondern eine bewusste Grenze: Disponenten kennen die Marktlage, Kundenbeziehungen und Spezialkonditionen, die kein Clustering-Algorithmus abbildet.

Datenexport aus dem TMS — der erste und unterschätzte Schritt

Vor jeder Analyse steht eine unbequeme Wahrheit: Die meisten TMS-Systeme wurden nicht für den Export von Analyse-Rohdaten gebaut. Sie sind optimiert für operative Steuerung — nicht für retrospektive Musteranalyse.

Was das in der Praxis bedeutet:

  • Leer/Laden-Status ist oft nicht zuverlässig je Einzelfahrt erfasst. Viele Systeme erfassen den Auslastungsstatus als Auftragsattribut — aber wenn ein Fahrer einen Auftrag unterbricht oder umdisponiert wird, fehlt der korrekte Statusstempel für die Rücktour.
  • Adressen sind häufig nicht geocodiert. “Industriegebiet Paderborn Nord” und “Paderborner Straße 14-16” können dieselbe Lieferstelle sein — im System stehen sie als zwei verschiedene Relationen. Clustering auf nicht normalisierten Adressen produziert Phantomdaten.
  • Zeitstempel sind unvollständig. Wenn Fahrer Abfahrtszeiten erst beim Rückstempeln im Depot nachtragen, verzerren sich alle zeitfensterbezogenen Analysen.

Die Bundesvereinigung Logistik (BVL) beschreibt Datenqualität in TMS-Systemen als “never ending story bei der Digitalisierung” — operative Mitarbeitende legen lieber neue Adressen an, als bestehende zu suchen und zu korrigieren. Das Ergebnis sind TMS-Datenbanken, in denen dieselbe Relation unter sechs verschiedenen Schreibweisen existiert.

Was das für die Projektvorbereitung bedeutet:

Vor dem Analyseprojekt solltest du mit deinem TMS-Anbieter oder einem Daten-Dienstleister drei Wochen für Datenaudit einplanen:

  1. Exportformat klären: Kann das System Einzelfahrtdaten (nicht nur Auftragsdaten) mit Leer/Laden-Status, Zeitstempeln und geocodierten Koordinaten exportieren — oder braucht es einen API-Zugang?
  2. Vollständigkeit prüfen: Wie groß ist der Anteil an Touren ohne vollständigen Zeitstempel oder ohne Statusattribut? Über 20 % fehlende Daten machen eine Clusteranalyse unzuverlässig.
  3. Adress-Normalisierung: Entweder über Google Maps Geocoding API oder einen Datenbereinigungsdienst — Adressen müssen auf Koordinatenebene standardisiert werden, bevor geclustert wird.

Wer diesen Schritt unterschätzt, bekommt eine Analyse, die echte Strukturprobleme mit Datenmüll vermischt.

Konkrete Werkzeuge — was wann passt

Es gibt keinen “Leerfahrten-Analyse-Knopf” in einem Tool. Die Analyse besteht aus drei Komponenten: Datenaggregation, Clustermodell, Visualisierung/Reporting.

Python mit pandas + scikit-learn — wenn du technischen Ressourcen hast Die flexibelste und leistungsfähigste Option. Python ist kostenlos, und die Bibliotheken für Clustering (scikit-learn), geografische Analyse (geopandas) und Datenbereinigung (pandas) sind ausgereift. Ein Analyst oder Data Engineer baut in 2–4 Wochen ein Clustering-Skript, das TMS-Exportdaten einliest, bereinigt, clustert und Ergebnisse in ein Dashboard-freundliches Format ausgibt. Vorteil: vollständige Kontrolle über die Methodik und keine laufenden Lizenzkosten. Nachteil: Wartungsaufwand liegt intern, keine grafische Oberfläche ohne separates BI-Tool.

Power BI — für die Visualisierung und wiederkehrende Berichte Power BI Desktop ist kostenlos und verbindet sich direkt mit TMS-Exportdateien (Excel, CSV) oder SQL-Datenbanken. Für die Visualisierung — interaktive Karten nach Relation, Zeitfenster-Heatmaps, Kundenvergleiche — ist Power BI die kostengünstigste Option, die Disponenten auch ohne Python-Kenntnisse bedienen können. Power BI hat eingebaute Clustering-Funktion (K-Means) für einfache Szenarien; für komplexere Analyse sollte Python die Voraggregation übernehmen und Power BI nur die Visualisierung.

Tableau — wenn hohe Visualisierungsqualität entscheidend ist Tableau ist teurer als Power BI (ab ca. 42 USD Creator/Monat), aber seine geografischen Darstellungen und interaktiven Dashboards sind überlegen. Für Geschäftsführungen, die Entscheidungen auf Basis visueller Karten treffen wollen, ist Tableau oft die überzeugendere Präsentationsschicht. Für Disponenten als Arbeitstool ist Power BI die pragmatischere Wahl.

Webfleet — für Telematikdaten als Ergänzung zum TMS Wenn das TMS keine zuverlässigen Leer/Laden-Statusinformationen liefert, kann Webfleet als Datenquelle dienen: GPS-Tracks, Fahrzeugauslastungsprofile und tatsächliche Fahrtzeiten lassen sich mit dem TMS-Datensatz verknüpfen. Webfleet hat eine API und kann Rohdaten für Analysezwecke exportieren. Voraussetzung: Webfleet-Nutzung in der Flotte.

TIMOCOM — für die Umsetzungsphase nach der Analyse Sobald die Analyse zeigt, welche Relationen strukturell leer sind, braucht es eine Antwort: Wo findet man auf diesen Relationen Rückladungen? TIMOCOM ist Europas größte Frachtenbörse — über 58.000 verifizierte Unternehmen, täglich bis zu 1 Million Fracht- und Laderaumangebote. Disponenten können gezielt auf den identifizierten Problemrelationen nach Rückladungen suchen, anstatt die Plattform ungefiltert zu durchsuchen. TIMOCOM ist kein Analyse-Tool, aber der operative Hebel, der aus Analyseergebnissen direkte Erlöse macht.

OptimoRoute — wenn Leerfahrten durch tägliche Routenplanung reduziert werden sollen Für Betriebe, bei denen die Strukturanalyse zeigt, dass die Ursache in suboptimaler täglicher Dispositionslogik liegt (nicht in Marktstruktur oder Kundenverhalten), ist OptimoRoute der nächste Schritt. OptimoRoute optimiert täglich die Routenzuweisung — was die Strukturanalyse als systematisches Problem benennt, setzt OptimoRoute operativ um. Keine deutschsprachige Oberfläche, US-Datenhaltung.

Wann welcher Ansatz:

  • Technische Ressource intern vorhanden → Python für Clustering, Power BI für Dashboards
  • Kein Entwickler intern, aber BI-Tool vorhanden → Power BI mit eingebautem Clustering
  • Analyse fertig, Rückladungen gesucht → TIMOCOM auf identifizierten Relationen
  • Analyse zeigt Dispositionslogik als Ursache → OptimoRoute für Tagesplanung

Datenschutz und Datenhaltung

TMS-Daten enthalten grundsätzlich Fahreridentifikatoren — GPS-Positionen, Fahrtzeiten, Stopps — die als personenbezogene Daten im Sinne der DSGVO gelten. Für die Leerfahrten-Strukturanalyse ist das relevant in zwei Dimensionen:

Fahrerdatenschutz bei Telematikdaten: Wenn Webfleet oder ähnliche Telematikdaten verwendet werden, greift zwingend der betriebsverfassungsrechtliche Rahmen: Mitarbeitendenvertretungen (Betriebsrat, sofern vorhanden) müssen der Verarbeitung von standort- und zeitbezogenen Fahrtdaten für Analysezwecke zustimmen. Das ist kein optionaler Schritt — §87 Abs. 1 Nr. 6 BetrVG macht die Einführung technischer Überwachungssysteme mitbestimmungspflichtig. Webfleet stellt Muster-Betriebsvereinbarungen bereit, die als Ausgangspunkt dienen. Prüfe vorab mit deiner Rechtsberatung, ob die geplante Verwendung unter diese Pflicht fällt.

TMS-Exportdaten und AVV: Wer TMS-Daten an einen externen Dienstleister für die Analyse übergibt, muss einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO abschließen. Das gilt für Freelance-Analysten genauso wie für Softwareanbieter. Standard-Cloud-Plattformen wie Power BI (Microsoft, EU-Datenhaltung verfügbar) erfüllen diese Anforderung über das Microsoft Online Services Data Protection Addendum.

Empfehlungen:

  • Wenn möglich, Fahrerdaten vor der Analyse pseudonymisieren — für Leerfahrtenanalyse braucht man keine Fahreridentität, sondern nur Fahrzeug-ID und Zeitstempel
  • TMS-Export nur auf notwendige Felder beschränken (Relation, Zeitstempel, Leer/Laden-Status, Kundenkategorie); keine Vollexporte von Kundenstammdaten
  • Für EU-konforme Analyseumgebungen: Power BI mit EU-Datenhaltung oder lokal mit Python auf unternehmensinternen Servern

Was es kostet — realistisch gerechnet

Einmalige Kosten (Analyse-Aufbau)

KomponenteKostenrahmen
Datenaudit und TMS-Export-Bereinigung3.000–8.000 € (Dienstleister) oder 3–5 Wochen intern
Clustering-Skript (Python) oder BI-Konfiguration2.000–6.000 € extern, oder 2–3 Wochen Analyst intern
Dokumentation und Interpretationsworkshop500–1.500 €
Gesamt Einmalig5.500–15.500 €

Laufende Kosten (monatlich)

KomponenteKosten
Power BI Pro (für Sharing)ab 12 € / Nutzer / Monat
Python-Infra (Cloud oder lokal)0–200 € je nach Setup
Webfleet (falls neu, für Datenquelle)ab 15–35 € / Fahrzeug / Monat
Gesamt Laufend50–500 € / Monat (ohne Webfleet-Neueinführung)

Wie du den ROI tatsächlich misst

Den theoretischen ROI kennt jeder — aber wie weißt du, ob die Maßnahmen tatsächlich gewirkt haben? Die sauberste Methode ist ein Kontrollgruppendesign: Du adressierst zuerst nur die Top-3-Treiber-Relationen (die die Analyse identifiziert hat), lässt die anderen Relationen unverändert, und vergleichst die Leerfahrtenquote nach 90 Tagen. Wenn die Testgruppe sich signifikant verbessert und die Kontrollgruppe stabil bleibt, hast du einen belastbaren Nachweis.

Konservatives Rechenbeispiel: 30 Fahrzeuge, aktuell 30 % Leerfahrtenquote, durchschnittlich 200 km täglich je Fahrzeug, 250 Arbeitstage. Das sind 30 × 200 × 0,30 × 250 = 450.000 Leer-km pro Jahr. Bei 1,50 €/km Vollkosten: 675.000 € nicht gegenfinanzierte Fahrzeugkilometer. Eine 20-prozentige Reduktion dieser Leerkilometer spart 90.000 € — die Einmalkosten sind nach wenigen Monaten amortisiert.

Drei typische Einstiegsfehler

1. Mit der Analyse starten, bevor die TMS-Datenqualität bekannt ist. Der häufigste Fehler: Man exportiert 18 Monate Tourdaten, übergibt sie dem Analysten — und merkt Wochen später, dass 35 % der Touren keinen validen Leer/Laden-Status haben, weil das Feld im TMS nicht obligatorisch ist. Das Clustering läuft dann auf unvollständigen Daten und produziert Cluster, die mit echten Strukturproblemen nichts zu tun haben. Die Lösung ist nicht mehr Daten — es ist vorher ein Datenaudit. Zwei Wochen Vorlauf für Vollständigkeitsprüfung zahlen sich immer aus.

2. Die Analyse als einmalige Aufgabe behandeln — nicht als dauerhaftes Steuerungsinstrument. Leerfahrtmuster sind nicht statisch. Ein neuer Großkunde, ein verlorener Rückladungspartner, ein geändertes Zeitfenster bei einem Verlader — all das verändert die Strukturmuster innerhalb weniger Monate. Wer die Analyse einmal macht und dann für zwei Jahre in eine Schublade legt, wird schnell mit Empfehlungen arbeiten, die auf vergangenen Strukturen basieren. Das richtige Modell ist ein quartalsweise aktualisiertes Dashboard, das Disponenten dauerhaft informiert — nicht eine projektbezogene Einmalanalyse.

3. Aus Strukturmustern sofort operative Entscheidungen ableiten — ohne die Marktlogik dahinter zu prüfen. Die Analyse zeigt: “Freitagstouren in den Kreis Minden haben 72 % Leerquote.” Das ist eine Beobachtung, keine Entscheidungsgrundlage. Bevor Disponenten dort Routen streichen oder Preise erhöhen, braucht es das Kontextwissen: Gibt es auf dieser Relation überhaupt Rückladungspotenzial? Ist der Verlader dort ein Vertragspartner, bei dem Preisänderungen den Gesamtvertrag gefährden? Ist der hohe Leerfahrtanteil bereits einkalkuliert und durch Vorlaufpreis abgedeckt? Die Analyse sagt “hier ist ein Muster” — die Disponenten-Erfahrung sagt, was man damit macht. Wer ohne diese zweite Ebene automatisch optimiert, riskiert Kollateralschäden an profitablen Kundenbeziehungen.

Was mit der Einführung wirklich passiert — und was nicht

Das Einführungsrisiko bei der Leerfahrten-Strukturanalyse liegt nicht in der Technik. Es liegt in der organisationalen Akzeptanz der Ergebnisse.

Szenario 1: Die Analyse zeigt, dass ein wichtiger Bestandskunde strukturell problematisch ist. Wenn die Daten zeigen, dass Kunde Müller GmbH seit drei Jahren zu 87 % nur einseitige Transporte bucht und damit überproportional zur Leerfahrtenquote beiträgt, entsteht eine Spannung: Vertrieb und Geschäftsführung zögern, datenbasierte Erkenntnisse gegen eine langjährige Kundenbeziehung auszuspielen. Das ist keine Schwäche des Analysetools — das ist eine legitime betriebswirtschaftliche Abwägung. Die Empfehlung: Die Analyse zeigt das Problem, die Verhandlungsstrategie ist Führungssache. Disponenten sollten nicht in die Situation gebracht werden, Kundendaten selbst zu eskalieren.

Szenario 2: Die Ergebnisse widersprechen Disponenten-Erfahrungen. Wenn ein Disponent seit zehn Jahren weiß, dass die Freitagstouren nach Paderborn immer problematisch sind — und die Analyse zeigt, dass das Problem statistisch gar nicht dort liegt, sondern auf einer anderen Relation — entsteht Skepsis: “Das Tool versteht unser Geschäft nicht.” Das ist ein valider Einwand, der ernst genommen werden muss. In solchen Fällen lohnt es sich, die Rohdaten gemeinsam zu prüfen: Entweder hat der Disponent einen blinden Fleck — oder die Datenbasis hat einen Fehler. Beide Möglichkeiten sind real.

Was konkret hilft:

  • Disponenten früh in die Datenprüfungsphase einbinden — sie kennen die Besonderheiten der Touren und merken sofort, wenn Daten falsch sind
  • Ergebnisse immer als Diskussionsgrundlage präsentieren, nicht als Entscheidungsautomatismus
  • Einen gemeinsamen Workshop nach der ersten Analyse durchführen: Was überrascht uns? Was bestätigt unsere Erfahrung? Was können wir sofort adressieren?
  • Eine klare Grenze ziehen: Die Analyse empfiehlt, die Menschen entscheiden

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datenaudit und VorbereitungWoche 1–3TMS-Exportformat prüfen, Vollständigkeit messen, Adress-Normalisierung, Betriebsrat informierenLeer/Laden-Status in 30–40 % der Touren unvollständig — Nacherfassung nötig oder Analyse auf Teilmenge
Datenbereinigung und Clustering-AufbauWoche 4–7Adressen geocodieren, Clustering-Skript schreiben oder BI-Tool konfigurieren, erste PilotläufeAdress-Normalisierung dauert länger als erwartet; Google-Geocoding-Kosten für große Datensätze
Ergebnisinterpretation und ValidierungWoche 8–10Cluster-Ergebnisse mit Disponenten besprechen, Top-3-Treiber benennen, Datenanomalien identifizierenErgebnisse widersprechen Disponentenerfahrung — gemeinsame Prüfung nötig
Handlungsempfehlungen und PilotmaßnahmenWoche 11–14Konkrete Maßnahmen je Treiber definieren (Zeitfensterwechsel, Rückladungssuche, Kundengespräch), Kontrollgruppen-Design einrichtenMaßnahmen stoßen auf internen Widerstand; Zeitplan für Umsetzung unrealistisch
Dashboard-RegelbetriebAb Woche 14Quartalsweise Aktualisierung, Monitoring der adressierten RelationenDashboard wird nicht gepflegt; Erkenntnisse veralten nach 6–12 Monaten

Häufige Einwände — und was dahintersteckt

“Wir wissen schon, wo unsere Leerfahrten entstehen.” Das ist meistens keine Kenntnis — das ist Hypothese. Disponenten haben durch jahrelange Erfahrung ein Gefühl für problematische Relationen. Aber Gefühl und Datenrealität weichen oft erheblich voneinander ab: Erkenntnisse aus Clustering-Projekten in Logistikunternehmen zeigen regelmäßig, dass die “bekannte” Problemrelation gar nicht die größte Treiberin ist — das eigentliche strukturelle Problem liegt auf einer anderen, weniger im Bewusstsein verankerten Route. Erfahrung ist wertvoll — sie ersetzt aber keine 18-monatige Datenanalyse.

“Leerfahrten gehören zum Geschäft, das kann man nicht wegoptimieren.” Stimmt — für einen Teil davon. Geografische Zwangspunkte, Zeitfensterkonflikte und einseitige Marktstrukturen lassen sich nicht immer auflösen. Aber der Anteil strukturell vermeidbarer Leerfahrten ist in den meisten Speditionen höher als erwartet. Cargonexx, das hamburgische Logistik-Startup, das Machine Learning zur Ladungsoptimierung einsetzt, gibt an, etwa ein Drittel bisher ungenutzter Kapazität aktivieren zu können. Das ist kein Beweis für jeden Einzelfall — aber ein Indiz, dass das Potenzial real und nicht trivial ist.

“Wir haben keine IT-Ressourcen für sowas.” Das ist ein valides Hindernis — aber kein Ausschlussgrund. Es gibt drei Wege ohne interne Entwickler: Erstens ein spezialisierter Logistik-Datendienstleister, der das Projekt schlüsselfertig übernimmt (Kosten: höher, aber kein interner Aufwand). Zweitens Power BI mit eingebautem K-Means-Clustering, das ein Disponent nach ein bis zwei Tagen Schulung selbst bedienen kann. Drittens ein Freelance-Analyst für den einmaligen Aufbau, der das System dann dokumentiert und übergibt. Keiner der drei Wege erfordert eine interne Data-Science-Abteilung.

Woran du merkst, dass das zu dir passt

  • Du kennst deine Leerfahrtenquote — aber wenn du gefragt wirst, welche drei Relationen dafür hauptverantwortlich sind, kannst du es nicht mit Daten belegen
  • Du hast eine TMS-Tourenhistorie von mindestens 12 Monaten mit Leer/Laden-Status je Tour
  • Deine Flotte hat mindestens 10–15 Fahrzeuge, damit statistische Cluster entstehen können — unter 10 Fahrzeugen ist die Datenmenge für belastbare Muster zu dünn
  • Du hast mindestens eine Person, die Analysearbeit lesen und in operative Entscheidungen übersetzen kann — Disponent, Betriebsleiter, Fuhrparkmanager
  • Deine Leerfahrtenquote liegt dauerhaft über 20 % und du hast das Gefühl, dass Routineoptimierung die Nadel nicht mehr verschiebt
  • Du disponierst Netzverkehre oder Relationsverkehre mit mehreren Depots — dort sind Strukturmuster besonders ausgeprägt und die Analyseergebnisse konkreter handhabbar

Wann es sich noch nicht lohnt — drei harte Ausschlusskriterien:

  1. Unter 10 Fahrzeugen oder weniger als 12 Monate TMS-Daten. Für belastbare Cluster braucht man Stichprobengrößen: bei kleinen Flotten enthält eine Relation vielleicht 15 Touren im Jahr — das reicht nicht für statistisch aussagekräftige Mustererkennung. Hier lohnt eine Handauswertung der Top-10-Relationen eher.

  2. TMS wird erst seit Kurzem eingesetzt oder Leer/Laden-Status wird nicht systematisch erfasst. Clustering auf unvollständigen Statusdaten produziert Artefakte, keine Erkenntnisse. Zuerst die Datenerfassungsdisziplin verbessern, dann analysieren — in dieser Reihenfolge.

  3. Alle oder fast alle Leerfahrten entstehen aus einem einzigen, bekannten Grund (z.B. Single-Client-Depot mit geografisch bedingter Einseitigkeit). Wenn du bereits weißt, dass 80 % deiner Leerfahrten eine einzige Ursache haben, die du nicht ändern kannst, löst eine Strukturanalyse kein Problem — sie bestätigt nur, was du weißt. Der nächste sinnvolle Schritt wäre dann die Echtzeit-Routenoptimierung, um das verbleibende Potenzial zu heben.

Das kannst du heute noch tun

Bevor du in Tools und Dienstleister investierst: Überprüfe in drei Schritten, ob dein TMS-Datensatz überhaupt analysierbar ist.

Schritt 1: Exportiere alle Touren der letzten 90 Tage aus dem TMS als CSV oder Excel. Welche Felder sind dabei — gibt es einen Leer/Laden-Status je Einzelfahrt?

Schritt 2: Zähle, bei wie viel Prozent der Touren der Leer/Laden-Status fehlt oder als “unbekannt” markiert ist. Über 25 % fehlend bedeutet: erst Datenerfassung verbessern, dann analysieren.

Schritt 3: Sortiere die Touren nach Abfahrtsort + Ziel-PLZ und schau, welche fünf Relationen im Export am häufigsten vorkommen. Berechne manuell die Leerquote dieser fünf Relationen. Das ist dein erster Strukturblick — kein KI, kein Tool, aber ein konkreter Ausgangspunkt.

Wenn du nach diesem Check das Gefühl hast, dass da mehr drin steckt — hier ist ein Prompt, der dir hilft, einen ersten Analyseplan zu entwickeln:

Analyseplan für deine Leerfahrten-Strukturanalyse
Du bist ein Logistikanalyst mit Erfahrung in der Leerfahrtenanalyse für Speditionen. Meine Spedition hat folgende Basisdaten: - Flottengröße: [ANZAHL FAHRZEUGE] - Aktuelle Leerfahrtenquote: [PROZENTSATZ] - Hauptoperationsgebiet: [REGION/BUNDESLÄNDER] - TMS-System: [TMS-NAME oder "Excel"] - Verfügbare Daten: [ZEITRAUM, z.B. "18 Monate Tourdaten mit Leer/Laden-Status"] - Bekannte Hauptrelationen: [DEPOT-STANDORT nach TOP-3-ZIELREGIONEN] Hilf mir, einen konkreten Analyseplan zu erstellen: 1. Welche drei strukturellen Hypothesen zu Leerfahrt-Treibern sollte ich zuerst prüfen? 2. Welche Mindestdaten brauche ich für jede Hypothese? 3. Welchen Analyseweg empfiehlst du (Excel-Pivot, Power BI, Python), gegeben meine technischen Ressourcen? 4. Was sind die drei wahrscheinlichsten Datenqualitätsprobleme, die ich vor der Analyse lösen muss? 5. Wie sieht ein realistischer 10-Wochen-Plan aus?
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Flotte: 28 Fahrzeuge. Quote: 33%. Gebiet: NRW, Niedersachsen, westliches Sachsen. TMS: Transics. Daten: 24 Monate, Leer/Laden-Status vorhanden. Hauptrelationen: Bielefeld → Raum Hannover, Bielefeld → Ruhrgebiet, Bielefeld → Nordseeküste

KI-Assistent

**Drei primäre Hypothesen:** 1. **Zeitfenster-Mismatch auf Hannover-Relation:** Hannover-Ziele haben häufig enge Abladezeiten (Di–Do, 08–12 Uhr), die Rückladungssuche auf Donnerstag-Nachmittag und Freitag konzentrieren — beides systemisch schwache Rückladungsfenster. Prüfen: Leerquote Hannover-Relation nach Wochentag. 2. **Nordseeküste strukturell einseitig:** Hafennahe Industriegebiete haben oft asymmetrische Warenflüsse (rein > raus). Prüfen: Rückladungsangebote auf TIMOCOM für diese Relation an identifizierten Leertagen. 3. **Ruhrgebiet-Konzentration auf 2–3 Großkunden:** Wenn 70–80 % der Ruhrgebiets-Aufträge von einem Kunden stammen, der keine Rücktransporte bucht, dominiert ein einzelnes Kundenmuster. Prüfen: Kundensplit auf Ruhrgebiet-Touren. **Mindestdaten je Hypothese:** - Für 1: Tour-ID, Relation (PLZ-Gebiet), Abfahrtsdatum, Wochentag, Leer/Laden - Für 2: Relation, Datum, Leer/Laden (Saisonvergleich 2 Jahre) - Für 3: Relation, Auftraggeber-ID (anonymisiert reicht), Leer/Laden **Empfohlener Analyseweg (kein Python-Entwickler im Team):** Power BI Desktop (kostenlos) + Excel-Export aus Transics. Power BI hat eingebautes K-Means-Clustering, das ohne Coding funktioniert. Für den Start reicht Pivot-Tabellen-Analyse in Excel — geringer Aufwand, schnelle erste Ergebnisse. **Wahrscheinlichste Datenprobleme:** 1. PLZ-Feld im Transics-Export enthält manchmal Freitext statt Zahlen — Bereinigung nötig 2. "Leerfahrt" wird nur bei expliziter Disposition als solche erfasst — spontane Leerfahrten fehlen 3. Zeitstempel = Auftragszeit, nicht Abfahrtszeit — Wochentagsanalyse verzerrt **10-Wochen-Plan:** Woche 1–2: Datenexport + Vollständigkeitsprüfung. Woche 3–4: PLZ-Normalisierung + Pivot-Analyse. Woche 5–6: Power BI Dashboard aufbauen. Woche 7–8: Hypothesen mit Disponenten besprechen. Woche 9–10: Top-3-Maßnahmen definieren + Pilotstart.

Quellen & Methodik

  • Leerfahrtenquote 37,8 % (2023): Kraftfahrt-Bundesamt (KBA), Statistik über den Verkehr deutscher Lastkraftfahrzeuge, Veröffentlichung 2024 (Meldestand April 2025); wiedergegeben in Statista, “Anteil der Leerfahrten im Straßengüterverkehr 2023” — amtliche Güterkraftverkehrsstatistik.
  • Vollkostensatz 1,40–1,80 €/km (Sattelzug): Eurowag, “Wie hoch sind die Transportkosten pro Kilometer im Jahr 2024?” (eurowag.com, 2024); gestützt durch BGL-Branchenkostenmodellrechner (bgl-ev.de), Kostenstruktur Fernverkehr: Diesel 25–35 %, Maut 15–20 %, Personal 25 % der Gesamtkosten.
  • Cargonexx-Erfahrungswerte: Silicon Canals, “Meet Cargonexx: The German online logistics scaleup which uses AI to reduce empty runs and CO2 emissions” (2023); Cargonexx-Unternehmensangaben: Aktivierung von ca. einem Drittel ungenutzter Kapazität, 15 % Gesamtkosteneinsparung, 35 % CO2-Reduktion vs. alte Methoden.
  • Datenqualität in TMS-Systemen: Bundesvereinigung Logistik (BVL), “Datenqualität – die ‘never ending story’ bei der Digitalisierung” (bvl.de, 2024): operative Mitarbeitende legen lieber Neudatensätze an, als bestehende zu korrigieren — strukturelles Problem in Logistik-TMS.
  • Geografisches Ungleichgewicht als Haupttreiber: World Bank Working Paper, “Geographic Imbalance, Search Frictions, and Regulation: Causes of Empty Miles in Freight Trucking” (2024): Identifiziert Frachtfluss-Asymmetrie, Suchreibung und Regulierung als primäre strukturelle Treiber leerer Lkw-Fahrten.
  • Clustering-Methodik: Scientific Reports (2025), “Increasing load factor in logistics and evaluating shipment performance with machine learning methods: A case from the automotive industry” — zeigt Einsatz von K-Means und überwachtem Lernen für Sendungsgruppen-Analyse in Transportlogistik.
  • TIMOCOM-Netzwerkangaben: TIMOCOM.de, Unternehmensseite (April 2026): 58.000+ verifizierte Unternehmen, täglich bis zu 1 Million Angebote aus 46 europäischen Ländern.
  • Kostensätze Werkzeuge: Hersteller-Preisseiten April 2026 (Power BI Pro, Tableau Creator, Webfleet Fleet-Paket).

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar