Promotions-Kannibalisierungserkennung
KI erkennt, wenn eine laufende Kampagne den Absatz verwandter Produkte verdrängt statt Zusatzumsatz zu erzeugen — und berechnet den echten Nettobeitrag einer Aktion zum Kategorieergebnis.
Es ist Montag, 8:47 Uhr.
Tobias hält die Nachkalkulation der letzten Sommeraktion in der Hand. Eigenmarken-Sonnencreme, 30 % Rabatt über vier Wochen, 80 Filialen. Der Abverkauf der Eigenmarke ist um 140 % nach oben geschnellt. Er tippt die Zahl in die PowerPoint-Präsentation für das Category-Review am Nachmittag — und ist dabei einen Moment fast stolz auf sich.
Dann öffnet er das zweite Tabellenblatt.
Die Marken-Sonnenschutzmittel im selben Regal haben in denselben vier Wochen minus 38 % gemacht. Die Körperlotion der Eigenmarke, direkt daneben, minus 19 %. Netto, auf die gesamte Kategorie Körperpflege gerechnet: plus 2 % Umsatz. Minus 9 % Marge, weil die Eigenmarken-Promotion vom Lieferanten nur zur Hälfte mitfinanziert wurde.
Die Aktion hat keinen Zusatzumsatz erzeugt. Sie hat Umsatz innerhalb der Kategorie verschoben — von der Marke mit dem besseren Deckungsbeitrag zur Eigenmarke mit dem Rabatt. Und das ist nicht in der Zusammenfassung gelandet, die er gerade fertiggestellt hat.
Das ist kein Einzelfall. Das ist die Regel.
Das echte Ausmaß des Problems
Promotionen sind das teuerste Instrument im Werkzeugkasten des Handels. Lebensmittelhändler und Konsumgüterhersteller geben zusammen 15 bis 25 Prozent ihres Jahresumsatzes für Trade Promotions aus — Aktionspreise, Displayplätze, Werbung, Lieferantenzuschüsse. Laut einer viel zitierten McKinsey-Analyse verlieren rund 70 Prozent aller Trade Promotions Geld, wenn man Kannibalisierungseffekte, Pantry-Loading und Pull-forward-Effekte korrekt herausrechnet.
Das Problem ist nicht, dass Promotionen grundsätzlich nicht funktionieren. Es ist, dass klassische Promo-Berichte systematisch falsch messen.
Die typische Promo-Nachkalkulation vergleicht den Aktionszeitraum mit dem Vorjahreszeitraum oder einem willkürlichen Vergleichszeitraum. Ergebnis: eine Zahl, die aussieht wie Uplift. Was sie in Wirklichkeit misst:
- Den Abverkauf des aktionellen Produkts — aber nicht, ob dieser Abverkauf zusätzlich stattgefunden hat oder andere Käufe innerhalb der Kategorie ersetzt hat
- Den Effekt der Aktion im Aktionszeitraum — aber nicht den Nachfragetief direkt danach, wenn Kunden ihre vorgezogenen Vorräte aufbrauchen
- Die aktionellen SKUs — aber nicht die nicht-aktionellen Nachbarprodukte, die gleichzeitig gelitten haben
Konkret: Wenn eine Schokoladenmarke um 25 % günstiger angeboten wird und die Milchschokolade des Wettbewerbers daneben 22 % weniger verkauft — dann sieht die interne Kalkulation Uplift. Was wirklich passiert ist: Der Kunde hat ohnehin Schokolade gekauft, nur eine andere als sonst.
RELEX Solutions hat in einer Analyse von Promotionsdaten aus dem Lebensmittelhandel dokumentiert, dass vergleichbare Aktionen Absatzrückgänge bei verwandten, nicht-aktionellen Produkten von 10 bis 25 Prozent gegenüber normalen Wochen verursachen — ein Effekt, der im Standardbericht unsichtbar bleibt.
Die Folge: Category Manager planen die nächste Aktion auf Basis von Zahlen, die zu optimistisch sind. Der Kreislauf beginnt von vorne.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI (klassisches Promo-Reporting) | Mit KI-gestützter Kannibalisierungserkennung |
|---|---|---|
| Messbare Größe | Abverkauf der aktionellen SKU | Netto-Beitrag zum Kategorieergebnis |
| Kannibalisierungseffekte | Unsichtbar — nicht im Bericht | Quantifiziert auf SKU-Filial-Ebene |
| Timing der Erkenntnis | Nach der Aktion (Nachkalkulation) | Während der Aktion — Eingriff noch möglich |
| Counterfactual-Baseline | Vergleich mit Vorjahr oder Vorperiode | ML-Baseline aus Kontrollgruppen und Saisonmuster |
| Halo-Effekte (positive Nebeneffekte) | Ignoriert | Erfasst und bewertet |
| Entscheidungsgrundlage Folgeaktion | Uplift-Zahl aus der Zusammenfassung | Inkrementelle Marge auf Kategorieebene |
| Fehlerquote bei Uplift-Schätzung | Bis zu 40–60 % Überschätzung¹ | Deutlich reduziert durch Isolierung echter Inkrementalität |
¹ Laut McKinsey/Tellius-Analyse: Klassische Lift-Berechnungen überschätzen echten Uplift durch Pantry-Loading, Kannibalisierung und Pull-forward-Effekte um 40–60 %.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5) Das System spart Analysezeit: Statt mehrtägiger manueller Nachkalkulation liefert es Kannibalisierungsbefunde in Minuten. Das ist wertvoll — aber kein großer Hebel für die Gesamtarbeitszeit der Filiale oder der Logistik. Die eigentliche Wirkung ist nicht Zeitersparnis, sondern bessere Entscheidungen mit dem vorhandenen Analysezeitraum. Für Händler, bei denen die Promo-Analyse eine Vollzeitstelle füllt, kann der Effekt höher sein.
Kosteneinsparung — hoch (4/5) Wer auch nur fünf verlustbringende Promotionen pro Jahr identifiziert und umstrukturiert, holt realistisch 5–15 % des Promo-Budgets zurück — bei Händlern mit mehrstelligen Millionenbudgets sind das erhebliche Beträge. McKinsey QuantumBlack dokumentiert aus über 40 Retail-Deployments mehr als 200 Millionen Dollar Margeneffekt jährlich — kein Einzelergebnis, aber eine Größenordnung. Das macht diese Anwendung zu einem der stärksten Kostenhebel in der Kategorie.
Schnelle Umsetzung — sehr niedrig (1/5) Das ist der ehrlichste Score in diesem Profil. Das Counterfactual-Problem erfordert mindestens 18, besser 24 Monate saubere POS-Daten mit konsistenter Promotionskennzeichnung auf EAN-Ebene — bevor ein Modell auch nur trainiert werden kann. Dazu kommt Datenintegration, Modellvalidierung und die Anpassung an das Kategoriegefüge des jeweiligen Händlers. Kein anderes Analyseprojekt in dieser Branche ist methodisch voraussetzungsreicher.
ROI-Sicherheit — mittel (3/5) Der Nutzen ist real — aber die Zurechnung ist methodisch anspruchsvoll. Wie viel des Marge-Gewinns kommt aus der besseren Promotionsplanung und wie viel aus Saison, Wettbewerb oder Sortimentsänderungen? Anders als bei der Bestandsoptimierung (wo jeder Out-of-Stock direkt zählbar ist) oder der automatisierten Nachbestellung (direkter Lagerkosten-Effekt) bleibt der Promo-ROI partiell eine modellgestützte Schätzung.
Skalierbarkeit — hoch (4/5) Ein einmal trainiertes Modell lässt sich auf neue SKUs und neue Kategorien ausrollen, ohne proportional mehr Analytiker zu benötigen. Wer das System für die Kategorie Körperpflege kalibriert hat, kann dieselbe Infrastruktur auf Süßwaren und Getränke ausrollen — mit überschaubarem Zusatzaufwand je Kategorie. Nicht ganz 5, weil die Qualität der Ergebnisse von der Datendichte je Kategorie abhängt und neue Kategorien initialen Kalibrierungsaufwand erfordern.
Richtwerte — stark abhängig von Sortimentsgröße, Promotionsfrequenz und Qualität der historischen POS-Daten.
Das Counterfactual-Problem: Warum dein Excel-Promo-Tracking systematisch lügt
Das ist der Kern, der in keiner Standard-Promo-Schulung vorkommt.
Um den echten Nutzen einer Promotion zu messen, brauchst du keine Verkaufszahlen aus der Aktionswoche. Du brauchst eine Antwort auf eine Frage, die du nie beobachten kannst: Wie viel hätten diese Produkte verkauft, wenn die Aktion nicht stattgefunden hätte?
Diesen nicht-beobachtbaren Alternativverlauf nennt die Statistik das Counterfactual. Und weil du ihn nicht beobachten kannst, musst du ihn schätzen. Wie du schätzt, entscheidet alles.
Was Excel (und die meisten Reporting-Tools) machen: Sie vergleichen die Aktionswoche mit der Vorwoche oder dem Vorjahreswert. Klingt plausibel. Ist aber systematisch falsch, weil:
- Die Vorwoche ist oft bereits von der Ankündigung der Aktion beeinflusst (Kunden kaufen weniger, weil sie auf den Rabatt warten)
- Der Vorjahreswert ignoriert Trends, Wettbewerb und Sortimentsänderungen
- Beide Vergleiche berücksichtigen nicht, dass ein Teil der Käufe schlicht vorverlagert wurde — der Kunde kauft in Woche 1 vier Packungen statt eine, und dann gar nichts mehr in Woche 3
Was Machine Learning stattdessen tut: Das Modell baut eine Baseline aus dem Kaufverhalten ähnlicher Filialen oder ähnlicher Produkte, die in derselben Woche keine Aktion hatten. Es kontrolliert für Saison, Wochentag, Wetter, Feiertage und regionale Besonderheiten. Dann vergleicht es die Aktionsfilialen mit dieser synthetischen Kontrollgruppe — und misst den Unterschied als echten Inkrementalitätseffekt.
Das ist methodisch sauber. Aber es hat seinen Preis: Du brauchst genug Daten, um überhaupt eine sinnvolle Kontrollgruppe zu konstruieren. In der Praxis bedeutet das mindestens 18 Monate POS-Daten auf SKU-Filial-Ebene, konsistente Promotionskennzeichnung und eine Struktur, in der nicht alle Filialen immer gleichzeitig dieselbe Aktion fahren.
Warum Category Manager das lieben und hassen: Das Modell sagt manchmal, dass eine Aktion, die sich im Excel sehr gut angefühlt hat, tatsächlich Kategoriemarge vernichtet hat. Das ist unbequem. Gleichzeitig sagt es manchmal, dass ein Produkt, das im Aktionszeitraum nur mäßig gelaufen ist, trotzdem starke Halo-Effekte auf die Gesamtkategorie hatte — und deshalb strategisch sinnvoll war. Beides sind Informationen, die Erfahrung allein nicht liefern kann.
Was das System konkret macht
Ein Promotions-Kannibalisierungssystem arbeitet in drei Schritten:
Schritt 1 — Baseline-Modellierung Für jede SKU, jede Filiale und jede Woche berechnet das System, wie viel hätte verkauft werden sollen — ohne Promotionseffekte. Diese Baseline berücksichtigt Saison, Wochentag, lokale Kaufkraft, Wettbewerber-Promotionen und langfristige Trends. Sie ist das Fundament, ohne das kein sauberer Uplift messbar ist.
Schritt 2 — Kannibalisierungs- und Halo-Detektion Das System analysiert alle SKUs in der Kategorie gleichzeitig. Für jede aktionelle Promotion prüft es: Welche Produkte haben in denselben Filialen, in derselben Woche, überproportional verloren — über die normale Baseline hinaus? Das sind Kannibalisierungsopfer. Welche Produkte haben profitiert, obwohl sie nicht aktionell waren? Das sind Halo-Profiteure (z. B. Chips verkaufen sich besser, wenn Bier auf Aktion ist).
Schritt 3 — Netto-Beitrag und Szenario-Simulation Das System rechnet den gesamten Effekt auf die Kategorie: aktioneller Uplift minus Kannibalisierungsverluste plus Halo-Gewinne minus Post-Promotion-Delle (die Wochen danach, wenn Kunden ihre Vorräte aufbrauchen). Das Ergebnis ist kein Umsatz-Uplift-Wert — es ist eine Antwort auf die Frage: Hat diese Aktion die Kategorie insgesamt nach vorne gebracht oder hat sie nur intern umverteilt?
Für die Zukunft erlaubt dasselbe Modell Simulation: Vor der Aktion kann das System durchrechnen, welches Szenario (20 %, 30 %, 50 % Rabatt; welche Produkte aktionell; welcher Zeitraum) den besten Nettobeitrag auf die Kategorie erwarten lässt.
Konkrete Werkzeuge — was wann passt
Kein Tool passt zu allen Händlern — die Anforderungen an Datenmenge, Budget und analytische Reife variieren erheblich.
RELEX Solutions — Die umfassendste Lösung für Händler, die Supply Chain, Bestandsoptimierung und Promotionsplanung auf einer Plattform verbinden wollen. RELEX modelliert Kannibalisierungs- und Halo-Effekte als Teil der Nachfrageprognose und hat den deutschen und europäischen Lebensmittelhandel als Kernmarkt (u. a. EDEKA, Penny, METRO als Referenzkunden). Sinnvoll ab ca. 50 Mio. EUR Jahresumsatz; typische Projektlaufzeit 6–18 Monate. Preise auf Anfrage, erfahrungsgemäß im mittleren bis hohen sechsstelligen Bereich jährlich.
ToolsGroup Promo.io — Spezialist für Promotionsoptimierung mit simulationsbasiertem Ansatz: Vor der Aktion mehrere Szenarien durchrechnen, Kannibalisierungseffekte vorhersagen und das profitabelste Szenario auswählen. Anerkannt als Leader im Quadrant Knowledge Solutions SPARK Matrix für Retail Pricing & Promotion Optimization (2023). Geeignet für Händler mit aktivem Trade-Promotion-Budget und mind. 500 aktionellen SKUs. Preise auf Anfrage.
DataRobot — Wer eine eigene Dateninfrastruktur hat und kein Off-the-shelf-Promotionssystem will, kann mit DataRobot auf Basis der eigenen POS-Daten Uplift-Modelle trainieren. DataRobot automatisiert den Modellbau und ermöglicht es auch Teams ohne tiefes Data-Science-Know-how, Predictive Analytics zu betreiben. Sinnvoll, wenn ihr die analytische Kontrolle behalten und keine Fertiglösung mit proprietären Algorithmen einführen wollt. Enterprise-Lizenz ab typisch 50.000 USD/Jahr.
Julius AI — Für erste explorative Analysen ohne Programmierkenntnisse: POS-Daten als CSV hochladen und mit natürlicher Sprache fragen, welche Produktpaare während Promotionszeiträumen gegenläufige Muster zeigen. Kein Ersatz für ein richtiges Kausalmodell, aber ein ehrlicher Einstieg, der zeigt, ob das Problem in euren Daten sichtbar ist. Kostenlos bis 100 Credits/Monat; Plus-Plan 20 USD/Monat. Achtung: US-Hosting, keine deutsche Oberfläche.
Zusammenfassung — wer was braucht:
- Lebensmittelhandel 50+ Mio. EUR, Multi-Store → RELEX
- Aktiver Trade-Promotion-Fokus, 500+ aktionelle SKUs → ToolsGroup Promo.io
- Eigene Datenteam-Kapazität, maßgeschneidertes Modell gewünscht → DataRobot
- Erkundungsphase, noch kein Budget, will erst prüfen ob das Problem sichtbar ist → Julius AI
Datenschutz und Datenhaltung
Promotions-Kannibalisierungssysteme arbeiten in der Regel mit anonymisierten Verkaufsdaten auf Produktebene — keine personenbezogenen Kundendaten, sofern keine Loyalitätsdaten einbezogen werden. In diesem Fall ist die DSGVO-Exposition gering.
Wenn Loyalitätsdaten (Kundenkartendaten, Transaktionsprofile) zur Feinsteuerung der Baseline verwendet werden, ändert sich das Bild: Dann handelt es sich um Daten, die einer identifizierbaren Person zugeordnet werden können, und ein Auftragsverarbeitungsvertrag (AVV) gemäß Art. 28 DSGVO ist mit jedem eingebundenen Dienstleister obligatorisch.
RELEX und ToolsGroup sind EU-basierte oder EU-hosting-fähige Lösungen; sprich die Datenresidenz bei Vertragsabschluss explizit an. DataRobot bietet EU-Hosting an (EU-Region). Julius AI hostet ausschließlich in den USA — für aggregierte, anonymisierte POS-Daten ohne Personenbezug ist das in der Regel unkritisch; das sollte ein Datenschutzbeauftragter im Einzelfall bestätigen.
Was es kostet — realistisch gerechnet
Einmalige Kosten
Der größte Kostenblock ist nicht die Software — es ist der Aufwand für Datenvorbereitung und Modellvalidierung.
- Datenbeschaffung und -bereinigung: 40–120 Personentage (intern oder extern), je nach Datenlage und Anzahl der Kategorien
- Externer Beratungsaufwand für Modelldesign und Kalibrierung: 20.000–80.000 EUR bei einem spezialisierten Retail-Analytics-Anbieter
- Software-Implementierung (RELEX, ToolsGroup): inklusive Projektkosten typisch 80.000–250.000 EUR für mittlere Händler
Laufende Kosten (jährlich)
- RELEX: mittlerer bis hoher sechsstelliger Betrag/Jahr (auf Anfrage)
- ToolsGroup Promo.io: mittlerer fünfstelliger bis sechsstelliger Betrag/Jahr (auf Anfrage)
- DataRobot: ab ca. 50.000 USD/Jahr für Unternehmenslizenzen
- Julius AI (nur Explorations-Tool): ab kostenlos bis 480 USD/Jahr
Was du dagegenrechnen kannst
Ein Lebensmittelhändler mit 50 Mio. EUR Jahresumsatz gibt erfahrungsgemäß 5–15 % davon für Promotionen aus — das sind 2,5 bis 7,5 Mio. EUR. Wenn 10–15 % des Promo-Budgets durch bessere Planung von verlustbringenden auf profitable Aktionen umgeleitet werden können, sind das 250.000 bis 1,1 Mio. EUR jährlicher Nutzen. McKinsey QuantumBlack dokumentiert aus mehr als 40 Retail-Deployments eine durchschnittliche Verbesserung der Trade-ROI von 10–15 % — kein Einzelfall, sondern ein Erfahrungswert aus der Branche.
Im konservativen Szenario: 5 % des Promo-Budgets zurückgeholt, bei einem Budget von 3 Mio. EUR sind das 150.000 EUR pro Jahr. Bei Implementierungskosten von 100.000 EUR amortisiert sich das System innerhalb von zwölf Monaten.
Wie du den Nutzen tatsächlich misst: Nicht über den Abverkauf der aktionellen SKUs, sondern über den Netto-Deckungsbeitrag der Kategorie im Aktionszeitraum — verglichen mit einer modellierten Kontrollperiode. Das ist methodisch aufwändig, aber der einzige Beweis, der wirklich trägt.
Drei typische Einstiegsfehler
1. Mit dem Lift-Vergleich weitermachen, den man schon kennt. Viele Händler führen Cannibalization Analytics als Zusatzschicht über das bestehende Reporting ein — und behalten die alte Logik bei. Die neue Zahl (Netto-Kategoriebeitrag) wird gegen die alte Zahl (aktioneller Uplift) gestellt, und wenn sie sich widersprechen, gewinnt meistens die alte. Das ist kein Datenproblem, sondern ein Governance-Problem: Wenn kein Entscheidungsgremium festlegt, welche Zahl die Entscheidung trifft, wird das Modell ignoriert. Abhilfe: Klare Priorisierung vor dem ersten Modell-Rollout — welche Kennzahl hat bei Zielkonflikten Vorrang?
2. Das Modell ohne Kontrollgruppen kalibrieren. Wenn alle Filialen gleichzeitig dieselbe Aktion fahren, gibt es keine natürliche Kontrollgruppe — und das Modell kann keinen sauberen Counterfactual berechnen. In der Praxis bedeutet das: Aktionen sollten immer in Pilotfilialen und Kontrollfilialen getrennt werden, bevor man auf die Gesamtkette ausrollt. Wer das nicht plant, hat viele Daten — aber keine validen Daten für Kausalaussagen.
3. Das Modell einführen und dann nicht pflegen. Das ist der gefährlichste Fehler — und er passiert leise. Promotionsmodelle sind anfällig für Concept Drift: Wenn sich Sortiment, Wettbewerbsumfeld oder Einkaufsverhalten ändern, werden die Vorhersagen schlechter — ohne dass irgendjemand es merkt, weil das System weiterhin Zahlen produziert. Ein Modell, das vor 14 Monaten validiert wurde und seitdem nicht neu trainiert wurde, gibt selbstbewusst falsche Empfehlungen. Wer für diese Aufgabe keine namentliche Person mit Zeit und Zuständigkeit benennt, bekommt nach 18 Monaten ein System, das Vertrauen aufgebraucht hat, weil es schlechter wird.
Was mit der Einführung wirklich passiert — und was nicht
Das größte Hindernis bei der Einführung ist kein technisches — es ist das Gespräch zwischen dem Datenmodell und dem Category Manager, der seit 12 Jahren weiß, dass die Schokoladenaktion im Oktober immer gut läuft.
Die Vertrauensfrage ist real. Ein Gradient-Boosted-Modell kann tatsächlich relevante cross-kategorische Zusammenhänge finden, die einem menschlichen Analytiker nicht auffallen — wenn es 50.000 SKU-Paare gleichzeitig betrachtet. Ein erfahrener Category Manager kann dafür Marktentwicklungen, Lieferantenbeziehungen und regionale Besonderheiten einschätzen, die kein Modell ohne explizite Datenlage kennt. Beide haben Recht. Das Modell gewinnt in der Breite; der Mensch gewinnt in der Tiefe.
Die ehrliche Antwort auf die Frage, ob das Modell den erfahrenen Category Manager schlägt: In der Regel ja — auf Kategorien mit hoher SKU-Dichte, kurzen Aktionszyklen und regelmäßigen Wettbewerber-Aktivitäten. In der Regel nein — auf Nischenkategorien, bei Neueinführungen oder bei saisonalen Events, für die die Datenlage dünn ist.
Widerstands-Muster, die regelmäßig auftauchen:
- “Unser Markt ist anders.” — Stimmt oft für regionale Besonderheiten. Lösung: Modell für diese Region separat kalibrieren, statt die nationale Baseline anzuwenden.
- “Die Zahlen können nicht stimmen, wir wissen, dass die Aktion gut war.” — Das Modell kann auch den Halo-Effekt überschätzen. Lösung: Gemeinsam ein Fallbeispiel mit bekanntem Ergebnis durchrechnen, bevor das Modell für Entscheidungen genutzt wird.
- “Was machen wir, wenn das Modell und der Bauchgefühl-Forecast auseinanderlaufen?” — Das ist keine Fehlfunktion, das ist der Punkt. Eskalationsregeln vorab definieren.
Was konkret hilft:
- Workshop vor Projektstart: Was sind die drei Category-Management-Entscheidungen, für die das Modell zuerst eingesetzt wird? Kleines Feld, klares Versprechen.
- Erste Validierung an einem Aktionspaar, dessen Ergebnis bereits bekannt ist — zeigt dem Team, dass das Modell etwas Richtiges findet
- Nicht das Modell vs. den Menschen stellen — das Modell als analytische Zuarbeit, die Empfehlung liegt beim Category Manager
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Daten-Audit | Woche 1–3 | POS-Daten auf Vollständigkeit und Qualität prüfen: Promotionskennzeichnung, EAN-Konsistenz, Filialdaten | Promotionen nicht konsistent gekennzeichnet — Retroaktive Bereinigung dauert 2× länger als geplant |
| Datenvorbereitung | Woche 4–8 | Bereinigung, Aggregation auf SKU-Filial-Woche, Kontrollgruppen-Logik definieren | Zu viele Filialen fahren immer dieselben Aktionen gleichzeitig — Kontrollgruppen kaum isolierbar |
| Baseline-Modellierung | Woche 8–14 | Counterfactual-Modell trainieren, Saison- und Trendbereinigung, erste Kannibalisierungscluster sichtbar | Modell unterschätzt Saisoneffekte, Nachkalibrierung nötig |
| Pilotvalidierung | Woche 14–20 | Modell auf 3–5 Kategorien anwenden, Ergebnisse mit historisch bekannten Aktionen abgleichen | Category Manager widerspricht Modell in 40 % der Fälle — Vertrauen muss aufgebaut werden |
| Rollout | Woche 20–30 | Schrittweiser Ausbau auf weitere Kategorien, Szenario-Simulation für Planungsrunden | Modell-Drift nach 6 Monaten, wenn Neutraining nicht geplant wurde |
Häufige Einwände — und was dahintersteckt
„Unser Category Manager sieht Kannibalisierung schon intuitiv.” Für kleine Sortimente mit wenigen, gut bekannten Aktionsprodukten stimmt das oft. Ein Category Manager mit 15 Jahren Erfahrung in seiner Kategorie kennt die typischen Substitutionsmuster — zumindest die auffälligen. Was Intuition nicht leisten kann: systematisch alle 800 SKU-Paare gleichzeitig beobachten, über alle Filialen und alle Aktionswochen hinweg, inklusive der subtilen Effekte, die sich erst über viele Aktionen statistisch herauskristallisieren. Das Modell gewinnt nicht durch überlegene Einzelerkenntnis — es gewinnt durch Vollständigkeit und Konsistenz.
„Wir haben das schon probiert und die Zahlen haben nicht zu unserer Erfahrung gepasst.” Das ist das häufigste Scheiternsmuster bei Analytics-Projekten im Handel. Fast immer liegt es daran, dass das Modell auf unbereinigten Daten gebaut wurde — Promotionskennzeichnungen fehlten, Filialen waren nicht vergleichbar, Saisoneffekte nicht kontrolliert. Das Scheitern war kein Beweis, dass Kausalinferenz nicht funktioniert. Es war ein Hinweis auf das Datenproblem darunter.
„Das rechnet sich für unsere Größe nicht.” Für Händler unter 20 Mio. EUR Jahresumsatz oder mit weniger als 200 aktionellen SKUs stimmt das wahrscheinlich. Für jeden, der ein halbes Dutzend Promotionskampagnen im Jahr plant und ein Promo-Budget im siebenstelligen Bereich hat, ist die Amortisation in zwölf Monaten realistisch.
Woran du merkst, dass das zu dir passt
Du planst regelmäßig Aktionen auf mehrere hundert SKUs, aber deine Nachkalkulation schaut nur auf den Abverkauf der aktionellen Produkte — nicht auf die Kategorie als Ganzes.
Du hast schon einmal eine Aktion gehabt, bei der der aktionelle Uplift gut aussah, aber die Kategoriemarge trotzdem gesunken ist — und du dir nicht sicher warst, woran das lag.
Dein Category-Team verbringt erhebliche Zeit mit manueller Nachkalkulation, die zu spät kommt um die laufende Aktion zu beeinflussen.
Du hast POS-Daten auf EAN-Filial-Ebene, eine konsistente Promotionskennzeichnung über mindestens 18 Monate und ein Promo-Budget im siebenstelligen Bereich, das sich eine methodisch saubere Analyse verdient.
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Unter 200 aktionellen SKUs oder Promo-Budget unter 200.000 EUR/Jahr. Die Implementierungskosten übersteigen den realistisch erzielbaren Nutzen. Besser: Excel-Analyse mit expliziter Kategoriebetrachtung, ergänzt durch Julius AI für Ad-hoc-Abfragen.
-
Weniger als 18 Monate saubere POS-Daten mit konsistenter Promotionskennzeichnung auf EAN-Ebene. Ohne diese Datenbasis lässt sich kein Counterfactual-Modell valide trainieren. Zuerst die Datenbasis aufbauen — Kennzeichnungsstandards definieren, historische Daten bereinigen. Das Modell kommt danach.
-
Alle Filialen fahren immer dieselben Aktionen gleichzeitig. Dann gibt es keine natürliche Kontrollgruppe, und die Kausalinferenz liefert keine belastbaren Ergebnisse. Voraussetzung: ein Pilotierungsprotokoll, das Aktionen in zufällig ausgewählten Filialen testet und den Rest als Kontrollgruppe behält.
Das kannst du heute noch tun
Bevor du in Software oder Beratung investierst: Mach die Probe mit deinen eigenen Daten.
Exportiere die letzten zwölf Monate POS-Daten für eine Kategorie auf Wochenebene — aktionelle und nicht-aktionelle SKUs. Lade sie in Julius AI hoch und frag das Tool, welche nicht-aktionellen Produkte in Wochen mit Promotionen auf verwandte Produkte systematisch schlechtere Abverkäufe gezeigt haben.
Das ist kein valider Kausalnachweis — aber es zeigt dir, ob Kannibalisierungsmuster in deinen Daten sichtbar sind, bevor du für das richtige Modell bezahlst.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- “72 % der Trade Promotions verlieren Geld”: McKinsey-Analyse, zitiert in Tellius, „Why 70% of Trade Promotions Lose Money” (2024); tellius.com. Weitere McKinsey-Quelle: „How analytics can drive growth in consumer-packaged-goods trade promotions” (2024).
- “40–60 % Uplift-Überschätzung”: Tellius (2024), ebd.; McKinsey QuantumBlack, „Rewiring retail promotions with advanced analytics and agentic AI” (März 2026), medium.com/quantumblack.
- “10–25 % Kannibalisierungsverlust bei aktionellen Promotionen”: RELEX Solutions, „Cannibalization and Halo Effects in Demand Forecasts”, eigene Analyse auf Lebensmittelhandelsdaten; relexsolutions.com.
- “32 % Verbesserung echter Lift-Werte”: RELEX Solutions, Fallstudie Mathem (schwedischer Online-Lebensmittelhändler), 2023; relexsolutions.com.
- “über 200 Mio. USD Margeneffekt aus 40+ Retail-Deployments”: McKinsey QuantumBlack, ebd. (März 2026). Vendor-eigene Angabe — als Größenordnung, nicht als neutraler Forschungswert einzuordnen.
- Counterfactual-Methodologie: Marketing Science Institute, Working Paper 22-106, „Causal Inference in Marketing” (2022); msi.org. Saxifrage, „Measuring the Incrementality of Marketing with Causal Inference” (2024).
- Preisangaben RELEX, ToolsGroup, DataRobot: Veröffentlichte Unternehmensangaben und Erfahrungswerte aus Enterprise-Retail-Projekten (Stand April 2026). Alle drei Anbieter veröffentlichen keine Listenpreise — Angaben sind Erfahrungswerte.
- EDEKA und RELEX: RELEX Solutions, Pressemitteilung „RELEX wins EDEKA as customer” (RELEX.com, 2023).
Du willst wissen, ob Kannibalisierungsmuster in euren Daten tatsächlich sichtbar sind — bevor ihr in eine Vollimplementierung investiert? Meld dich, das klären wir mit einem strukturierten Daten-Check.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Produktbeschreibungen mit KI schreiben
KI generiert Hunderte Produkttexte in Minuten — konsistent, SEO-optimiert und in deiner Tonalität. Was früher Tage dauerte, erledigt ein KI-Assistent in einer Stunde.
Mehr erfahrenKundensupport-Automatisierung mit KI
Ein KI-Chatbot beantwortet 60–80 % aller Support-Anfragen sofort — rund um die Uhr, ohne Wartezeit. Dein Team konzentriert sich auf die wirklich komplexen Fälle.
Mehr erfahrenKI-gestütztes Retourenmanagement
KI analysiert Retourenquoten, erkennt Muster bevor sie eskalieren, und ermöglicht proaktive Maßnahmen — weniger Rücksendungen, schnellere Bearbeitung, bessere Margen.
Mehr erfahren