Variantenexplosions-Komplexitätsanalyse
KI berechnet für jede Produktvariante die tatsächliche Marge unter Einbezug von Rüstzeiten, Losgrößen und Lagerbindung — und macht aus dem Bauchgefühl ein Zahlenargument.
Es ist Donnerstag, 11:40 Uhr.
Miriam ist Leiterin Produktmanagement bei einem mittelständischen Maschinenbauunternehmen mit 180 Mitarbeitenden. Vor ihr liegt die Quartalsauswertung: Der Bereich Sondermaschinen liegt bei 11 Prozent Umsatzanteil und meldet gute Auftragslage. Der Vertrieb ist zufrieden. Der Geschäftsführer auch — jeder Sonderauftrag ist ein gewonnener Kunde.
Miriam ist nicht zufrieden. Sie ahnt schon länger, dass die Kalkulation für Sonderausführungen nicht stimmt. Ein Maschinenbauer braucht für einen Standardauftrag zwei Rüstvorgänge; eine Sondervariante mit geänderter Achsgeometrie braucht sieben — aber in der Stückliste stehen für beide dieselben pauschalen Fertigungsgemeinkosten. Der Aufwand für die Sondervariante versickert im Gemeinkostenblock.
Sie lässt einen Piloten aufsetzen: ERP-Daten aus drei Jahren, Rüstzeiten aus der Maschinendatenerfassung, Losgrößen aus den Fertigungsaufträgen. Ein KI-Modell verknüpft alles zu einer variantenspezifischen Vollkostenrechnung. Die Ergebnisse kommen nach vier Wochen.
Von den 42 aktiven Sonderausführungen sind elf dauerhaft margen-negativ — wenn man Rüstkosten, Mindestlosgrößen, Lagerbindung und Sonderprüfaufwand tatsächlich attribuiert. Drei davon haben seit zwei Jahren einen negativen Deckungsbeitrag. Keiner hatte es gewusst. Alle hatten es geahnt.
Das echte Ausmaß des Problems
Varianten sind eine strategische Notwendigkeit — kein Hersteller, der im Wettbewerb steht, kann auf Sonderausführungen und kundenspezifische Anpassungen verzichten. Das Problem ist nicht die Variante selbst. Das Problem ist, dass fast niemand weiß, was sie wirklich kostet.
In deutschen Fertigungsunternehmen dominiert die Zuschlagskalkulation: Gemeinkosten werden als prozentualer Aufschlag auf Einzelkosten verteilt. Rüstzeiten landen im Fertigungsgemeinkosten-Block. Sonderprüfaufwand verteilt sich auf alle Produkte. Lagerhaltungskosten für Kleinstmengen werden auf die Gesamtkapazität gerechnet. Das Ergebnis: Eine Sondervariante, die fünfmal so viele Rüstvorgänge wie die Standardausführung braucht, trägt nur den durchschnittlichen Rüstkostenanteil — und sieht in der Kalkulation rentabler aus als sie ist.
Zahlen aus der Praxis machen das Ausmaß greifbar:
- Laut der VDMA Kurzstudie 2021 halten 84 Prozent der befragten Maschinenbauunternehmen den Aufwand für Datenpflege und -suche in der Variantenverwaltung für hoch — das Kernproblem ist Intransparenz, nicht mangelnde Bereitschaft
- Ein Maschinenbauer reduzierte seine Schraubenvarianten von 2.400 auf 800, nachdem eine ABC-Analyse zeigte: 60 Prozent der Varianten machen weniger als 2 Prozent des Jahresbedarfs aus — die Standardisierung senkte Beschaffungskosten um 25 Prozent (Quelle: wuepping.com / Fallstudie Komplexitätsmanagement)
- McKinsey (November 2024) schätzte, dass KI-gestützte Portfolioanalyse die Analysezeit für 20.000 SKUs von acht Wochen auf wenige Tage reduziert — bei einem Fortune-500-Hersteller führte SKU-Rationalisierung zu 14 Prozent mehr Produktionskapazität und über 10 Millionen US-Dollar EBIT-Verbesserung pro Jahr (Quelle: McKinsey Operations, L.E.K. Consulting Fallstudie)
- Prof. Günther Schuh und Michael Riesener (RWTH Aachen, WZL) haben gezeigt: Mit prozessbasierter Variantenkostenrechnung lassen sich Komplexitätskosten granular automatisiert identifizieren — bisher war das ein jahrelanger Consulting-Aufwand, heute in Wochen realisierbar
Besonders tückisch ist das Problem bei Unternehmen, die sich als Sonderanlagen- oder Auftragsfertiger verstehen. Dort ist jede Variante emotional verknüpft mit einem Kunden und einem Auftrag. „Diese Variante ist die mit dem Kunden Müller” — wer stellt das in Frage? Niemand, solange die Zahlen das nicht erzwingen.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit KI-Variantenkostenanalyse |
|---|---|---|
| Transparenz über tatsächliche Variantenkosten | Globaler Gemeinkostenzuschlag, Vollkosten unbekannt | Variantenspezifische Vollkostenrechnung inkl. Rüst, Los, Lager |
| Zeit für eine vollständige Portfolioanalyse | 4–12 Wochen Consulting-Aufwand | 3–5 Tage Berechnungszeit nach Datenaufbereitung |
| Anteil erkannter margin-negativer Varianten | Bauchgefühl, keine Systematik | Vollständig, quantifiziert, priorisiert |
| Grundlage für Repricing-Entscheidungen | Erfahrungswerte Vertrieb und Controlling | Variantenspezifische Contribution-Margin-Rechnung |
| Reaktion auf neue Sonderausführungen | Analogieschätzung, keine Datenbasis | Modell berechnet Kostenprofil sofort auf Basis ähnlicher Varianten |
| Aufwand jährliche Portfolio-Review | Neu starten, hoher Aufwand | Differenz zum Vorjahr automatisch berechnet |
Die Zeitersparnis liegt nicht in der täglichen Arbeit, sondern in der strategischen Analysefähigkeit: Was bisher ein Beratungsprojekt war, wird zu einer intern reproduzierbaren Analyse.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5)
Diese Analyse ist keine tägliche Arbeitserleichterung — sie ist ein strategisches Werkzeug für die jährliche oder halbjährliche Portfolio-Review. Wer einen schnellen täglichen Zeitgewinn sucht, ist mit Meeting-Protokollen oder Berichterstellung besser bedient. Hier geht es darum, einmal pro Jahr oder Quartal eine Entscheidung fundiert zu treffen — nicht um eingesparte Minuten am Schreibtisch. Der Nutzen fließt durch bessere Preise und ein gesünderes Portfolio, nicht durch weniger Arbeitsstunden.
Kosteneinsparung — maximal (5/5)
Das ist der stärkste Kostenhebelwert in der Kategorie. Wenn 10–20 Prozent deines aktiven Variantenkatalogs dauerhaft margen-negativ sind und du das erst durch diese Analyse weißt, ist jede nachfolgende Repricing- oder Streichentscheidung direkt in der GuV messbar. McKinsey (2024) dokumentiert über 10 Millionen US-Dollar EBIT-Verbesserung allein durch SKU-Rationalisierung bei einem Großhersteller. Für einen Mittelständler mit 5 Millionen Euro Jahresumsatz aus Sonderausführungen bedeutet selbst eine 5-prozentige Margenverbesserung 250.000 Euro zusätzliches Ergebnis — ohne Umsatzwachstum.
Schnelle Umsetzung — niedrig (2/5)
Das ist kein Tool, das du in einer Woche einschaltest. Die Kernvoraussetzung ist strukturierte Datenverfügbarkeit: Stücklisten müssen mit Fertigungsaufträgen verknüpft sein, Rüstzeiten aus der Maschinendatenerfassung müssen vorliegen, Kostenstellen müssen variantenspezifisch oder zumindest produktgruppenpezifisch aufgeteilt sein. In der Praxis dauert allein die Datenaufbereitung 4–8 Wochen. Das Gesamtprojekt bis zur ersten validen Aussage realistisch 3–6 Monate. Schneller als klassisches Variantenmanagement-Consulting — aber kein Out-of-the-box-Tool.
ROI-Sicherheit — niedrig (2/5)
Der Nutzen tritt nur ein, wenn du auf die Ergebnisse reagierst. Eine Analyse, die zeigt, dass 15 Prozent deiner Varianten Verlustbringer sind, hat keinen Wert, wenn Vertrieb und Geschäftsführung die Konsequenzen nicht ziehen. Die technische Seite ist lösbar — die organisatorische ist es, die den ROI bestimmt. Außerdem gilt: Die Analyse ist nur so gut wie die Kostendaten darunter. Wer schlechte Gemeinkostenverteilung im ERP hat, bekommt präzise berechneten Unsinn. In der Kategorie gibt es keine Anwendung mit weniger ROI-Sicherheit, weil die Umsetzungsebene komplett außerhalb des KI-Systems liegt.
Skalierbarkeit — hoch (4/5)
Sobald das Kostenmodell kalibriert ist, lässt sich jede neue Variante sofort bewerten — bevor sie in den Katalog aufgenommen wird. Das Modell erkennt auf Basis ähnlicher Konstruktions- und Fertigungsmerkmale, was eine neue Sondervariante voraussichtlich kosten wird. Damit wird aus einer reaktiven Analyse ein prospektives Steuerungsinstrument. Nicht die volle 5, weil das Modell jährlich neu kalibriert werden muss, wenn sich Maschinenstundensätze, Materialpreise oder Fertigungsstrategien ändern.
Richtwerte — stark abhängig von ERP-Datenqualität, Fertigungstiefe und vorhandener Kostenstellen-Granularität.
Rüstkostenattribution: Wer zahlt die Sonderausführung wirklich?
Das ist die Kernfrage dieser Analyse — und die Antwort der meisten ERP-Systeme ist falsch.
In der Zuschlagskalkulation werden Rüstkosten in den Fertigungsgemeinkosten gebündelt und als prozentualer Aufschlag auf die Fertigungseinzelkosten verteilt. Das bedeutet: Ein Produkt, das in einer Losgröße von 500 Stück läuft und zwei Rüstvorgänge pro Monat benötigt, trägt denselben Rüstkostensatz wie eine Sondervariante, die in Losgröße 5 läuft und für jeden Auftrag sieben Umrüstvorgänge erzwingt.
Das Ergebnis: Das Standardprodukt subventioniert die Sondervariante — still, strukturell und über Jahre hinweg.
Die KI-gestützte Variantenkostenanalyse löst dieses Problem auf drei Ebenen:
Ebene 1 — Rüstzeiterfassung aus MDE/BDE-Daten
Moderne Maschinenerfassungssysteme (MDE/BDE) protokollieren Rüst- und Hauptzeiten pro Fertigungsauftrag. Die KI verbindet jeden Rüstvorgang mit der Variante, die ihn ausgelöst hat — nicht mit der Abteilung oder dem Quartal. Ergebnis: Du weißt, wie viele Rüststunden jede Variante in einem Jahr verursacht hat, nicht wie viele Stunden die Abteilung insgesamt gerüstet hat.
Ebene 2 — Losgrößenpenalty
Kleine Losgrößen sind teuer. Bei einer Losgröße von 5 statt 500 werden fixe Anlaufkosten (Rüsten, Qualitätskontrolle, NC-Programm-Einrichten) auf weniger Stück verteilt. Die Analyse berechnet den Stückkostenaufschlag je Variante aus dem Verhältnis von tatsächlicher Losgröße zu wirtschaftlicher Mindestlosgröße — eine Kennzahl, die in keiner Standard-ERP-Auswertung erscheint.
Ebene 3 — Lagerbindungskosten für Sondermaterial
Sonderausführungen erfordern oft Sondermaterial, das nicht aus dem Standardlager geliefert werden kann. Dieses Material wird beschafft, manchmal gelagert, manchmal bleibt ein Rest. Die Kapitalbindungskosten für dieses Material werden selten der auslösenden Variante zugerechnet — sie versickern in den allgemeinen Lagerkosten.
Erst wenn alle drei Ebenen zusammen berechnet sind, siehst du den echten Deckungsbeitrag. In der Praxis: Eine Sonderausführung, die in der Standardkalkulation 8 Prozent Rohertragsmarge ausweist, kann nach verursachungsgerechter Vollkostenrechnung bei minus 3 Prozent liegen. Das ist kein Rundungsfehler — das ist strukturelle Quersubventionierung.
Was das System konkret macht
Die technische Architektur kombiniert mehrere Datenquellen, die in deinem Unternehmen vermutlich alle vorhanden, aber nie verknüpft wurden:
Schritt 1 — Datenverschneidung
Das System verbindet ERP-Fertigungsaufträge (Artikel, Menge, Termin, Kostenstelle), Stücklisten (Materialkomponenten je Variante), BDE/MDE-Rüst- und Hauptzeiten sowie Bestandsdaten und Einkaufspreise. Bei sauberen ERP-Daten ist diese Verknüpfung für alle Varianten der letzten 2–3 Jahre in wenigen Stunden automatisch machbar.
Schritt 2 — Kostenmodell-Kalibrierung
Ein Machine Learning-Modell lernt, welche Kostentreiber-Muster für welche Variantentypen charakteristisch sind: Sondervarianten mit bestimmten geometrischen Merkmalen oder seltenen Materialien zeigen systematisch höhere Rüstzeiten und kleinere Losgrößen. Das Modell erkennt diese Muster und kann sie auf neue Varianten übertragen.
Schritt 3 — Variantenranking
Alle aktiven Varianten werden auf einer Achse von “hoher Deckungsbeitrag nach Vollkosten” bis “Verlustbringer nach Vollkosten” eingeordnet. Das Ergebnis ist kein ungreifbarer Datenberg — es ist eine priorisierte Liste: Diese 8 Varianten sind Verlustbringer, diese 12 sind unterpreisig, diese 35 sind gesund.
Schritt 4 — Prospektive Bewertung
Wenn eine neue Sonderanfrage hereinkommt, kann das Modell auf Basis ähnlicher historischer Varianten einschätzen, ob die Kalkulation realistisch ist oder ob die Sondervariante strukturell unterbepreist wird. Das ist der Übergang von der reaktiven Analyse zur präventiven Steuerung.
Konkrete Werkzeuge — was wann passt
Es gibt keine fertige SaaS-Plattform, die man in drei Klicks einschaltet. Variantenkostenanalyse ist ein Datenprojekt — aber kein undurchführbares.
simus classmate — Spezialisiertes deutsches Tool für Fertigungskostenkalkulation direkt aus CAD-Daten und Stücklisten. classmate berechnet Fertigungskosten automatisch aus 3D-Geometrien und erlaubt Variantenvergleiche schon in der Konstruktionsphase. Sinnvoll, wenn deine Varianten primär konstruktive Unterschiede haben und CAD-Modelle vorliegen. Preis nur auf Anfrage; Implementierung 3–6 Monate. Beste Wahl für Maschinenbau und Anlagenbau mit CAD-getriebener Variantenentstehung.
KNIME Analytics Platform — Kostenlose Open-Source-Plattform für Datenverarbeitung und Modellierung. KNIME kann ERP-Exports (CSV, Excel, ODBC) einlesen, Rüstzeiten mit Fertigungsaufträgen verknüpfen und Deckungsbeitragsmodelle als visuellen Workflow bauen — ohne Programmierkenntnisse. Kostenlos bis zum Team-Betrieb; EU-Datenhosting möglich. Beste Wahl für interne Data-Analysten, die kein externes Consulting wollen und iterativ arbeiten.
Julius AI — KI-Assistent für Datenanalyse ohne Programmierkenntnisse: ERP-Exporte hochladen, in natürlicher Sprache fragen. Sinnvoll für einen schnellen ersten Blick (“Welche Varianten haben Rüstzeiten über dem Durchschnitt?”) oder für Controlling-Teams ohne Data-Science-Hintergrund. Freemium, US-Hosting — für einen Prototypen mit nicht-personenbezogenen Produktionsdaten akzeptabel; für Produktivbetrieb EU-konforme Option bevorzugen. Beste Wahl für einen Proof of Concept in 2–3 Tagen ohne Infrastrukturaufwand.
Power BI — Für die Visualisierung und das Monitoring nach erfolgter Analyse. Power BI kann direkt an ERP-Systeme angebunden werden und die laufende Deckungsbeitragsübersicht nach Varianten als Dashboard bereitstellen — sichtbar für Controlling und Vertrieb gleichzeitig. Kostenlos als Desktop-Version, 12 Euro/Nutzer/Monat für kollaboratives Teilen. Beste Wahl für das laufende Monitoring, nachdem das Kostenmodell einmal gebaut ist.
SAP S/4HANA mit Modul Produktkostenplanung (PP-PC) — Für Unternehmen, die bereits auf SAP S/4HANA laufen, ist die integrierte Produktkostenplanung der naheliegendste Weg. SAP kann Variantenkostenpläne auf Basis von Stücklisten und Arbeitsplänen erstellen. Der Aufwand liegt im Pflegestand der Stammdaten: Arbeitspläne müssen aktuell und vollständig sein. Beste Wahl, wenn du bereits in SAP arbeitest und die Stammdatenqualität stimmt.
Zusammenfassung: Wann welcher Ansatz
- CAD-getriebene Variantenentstehung, Maschinenbau → simus classmate
- Interne Analyse ohne Consulting, IT-Kompetenz vorhanden → KNIME
- Schneller Proof of Concept, kleines Budget → Julius AI
- Laufendes Monitoring und Dashboards → Power BI
- SAP S/4HANA vorhanden, saubere Stammdaten → SAP PP-PC
Datenschutz und Datenhaltung
Die für diese Analyse verwendeten Daten sind primär Betriebsdaten: Fertigungsaufträge, Stücklisten, Maschinenlaufzeiten, Materialpreise. Personenbezogene Daten sind in der Regel nicht betroffen — Ausnahme: wenn Rüstzeiten auf einzelne Mitarbeiter-IDs aus der BDE zurückgeführt werden. In diesem Fall greift DSGVO Art. 28 (Auftragsverarbeitung), und Betriebsrat oder Interessensvertretung ist gemäß BetrVG § 87 Abs. 1 Nr. 6 einzubeziehen, wenn personenbezogene Leistungsdaten erhoben oder ausgewertet werden.
Für die Analyse selbst empfiehlt sich Aggregation auf Variantenebene statt Mitarbeiterebene: Nicht “Mitarbeiter X hat bei Variante Y länger gerüstet”, sondern “Variante Y verursacht im Schnitt 2,3x mehr Rüstzeit als Variante Z”. Das ist analytisch aussagekräftiger und vermeidet datenschutzrechtliche Komplexität.
Bei Cloud-Tooling (Julius AI): Fertigungsdaten sind in der Regel keine personenbezogenen Daten im Sinne der DSGVO, aber Betriebs- und Geschäftsgeheimnisse. Produktionsdaten sollten nicht ohne Verschlüsselung und ohne vertragliche Absicherung in US-Cloud-Dienste übertragen werden. Für den Proof of Concept mit anonymisierten oder synthetischen Daten ist der Aufwand vertretbar; für den Produktivbetrieb EU-konforme Lösungen bevorzugen.
Was es kostet — realistisch gerechnet
Einmalige Projektkosten
Das Spektrum ist weit, weil es stark von der Datenlage abhängt:
- Datenaufbereitung und ERP-Extraktion: Intern 4–8 Wochen (Controlling + IT), extern als Consulting-Begleitung 15.000–40.000 Euro je nach ERP-Komplexität
- Modellentwicklung mit KNIME (intern): 2–4 Wochen IT-Aufwand; nahezu keine Lizenzkosten
- Spezialsoftware wie simus classmate: Implementierungsprojekte typisch 25.000–70.000 Euro inklusive Kalibrierung; geeignet für Unternehmen mit mehrjährigem Horizont
- KI-Consulting plus Modellentwicklung (externer Anbieter): 30.000–80.000 Euro, je nach Datenqualität und gewünschter Automatisierung
Laufende Kosten (jährlich)
- KNIME Desktop: kostenlos (Open Source), KNIME Business Hub ca. 500–2.000 Euro/Jahr
- Power BI Pro: ca. 12 Euro/Nutzer/Monat
- simus classmate: Jahreslizenz nach Nutzerzahl, typisch 10.000–30.000 Euro/Jahr
- SAP PP-PC: in bestehender SAP-Lizenz enthalten, Konfigurationsaufwand einmalig
Was du dagegenrechnen kannst
Angenommen, dein Unternehmen erzielt 8 Millionen Euro Umsatz mit Sonderausführungen und 15 Prozent der Varianten sind nach Vollkostenrechnung margen-negativ (branchentypisch laut McKinsey/L.E.K.):
- Betroffener Umsatzanteil: 1,2 Millionen Euro
- Bei erfolgreichem Repricing oder Streichung und 10 Prozent Margenverbesserung auf diesen Positionen: 120.000 Euro zusätzliches Jahresergebnis — im konservativen Szenario
Das ist kein theoretischer Wert. Es ist der Hebel, den jede realistische Portfolio-Rationalisierung auslöst — wenn die Analyse zu Entscheidungen führt. Ein Einmalprojekt für 40.000 Euro, das 120.000 Euro jährlich freisetzt, hat einen ROI-Zeitraum von unter einem Jahr. Der Haken: “wenn die Analyse zu Entscheidungen führt” ist der härtere Teil.
Wie du den Nutzen tatsächlich misst
Nicht durch Stunden rechnen, sondern durch Margen verfolgen: Welche Varianten wurden nach der Analyse neu bepreist? Wie hat sich deren Deckungsbeitrag in den folgenden zwei Quartalen entwickelt? Welche Varianten wurden gestrichen? Hat sich das Portfolio um diesen Umsatz bereinigt, ohne den Gesamtdeckungsbeitrag zu senken?
Drei typische Einstiegsfehler
1. Mit der Analyse starten, ohne die Datenlage zu kennen.
Der häufigste Fehler: Controlling und IT beschließen das Projekt und merken nach sechs Wochen, dass Rüstzeiten nicht in der BDE erfasst sind, Arbeitspläne seit drei Jahren nicht gepflegt wurden und Materialpreise in drei verschiedenen Systemen liegen. Die Datenvorbereitung ist kein Vorprojekt — sie ist das Projekt. Lösung: Beginne mit einem Daten-Audit. Welche Felder im ERP werden tatsächlich und konsistent befüllt? Stücklisten, Arbeitspläne, Kostenstellen — nimm zehn Varianten manuell durch und prüfe, ob du alle benötigten Daten finden kannst. Wenn das für zehn Varianten funktioniert, funktioniert die Automatisierung für tausend.
2. Alle Varianten auf einmal analysieren wollen.
Nicht alle Varianten sind gleich analysierbar. Sonderausführungen von vor fünf Jahren, für die keine Fertigungsaufträge mehr existieren, tragen nichts zur Entscheidung bei. Varianten, die nur einmal gebaut wurden, haben keine statistische Basis. Lösung: Fokus auf die 20 Prozent der Varianten, die in den letzten 24 Monaten mehr als dreimal bestellt wurden. Diese sind analysierbar, relevant und direkt entscheidungsrelevant. Die Exoten kommen in einem zweiten Schritt.
3. Die Analyse als Endergebnis behandeln.
Das ist der gefährlichste Fehler — weil er still passiert. Die KI liefert eine Liste von 14 margen-negativen Varianten. Controlling schreibt einen Bericht. Der landet in der Schublade, weil Vertrieb widerspricht (“Kunde X kauft nur bei uns, weil wir diese Variante anbieten”) und Geschäftsführung keinen Konflikt will. Die Analyse produziert keinen Wert — die Entscheidungen danach tun es. Ohne vorab definierte Entscheidungsregeln (“Varianten mit Deckungsbeitrag unter X werden entweder repriced oder aus dem Katalog genommen”) ist das Projekt eine gut bezahlte Übung in Selbstberuhigung.
Was mit der Einführung wirklich passiert — und was nicht
Variantenkostenanalyse ist kein technisches Projekt, das ein Ergebnis liefert. Es ist ein Machtkampf um Zahlen — und den musst du einplanen.
Der Vertrieb wird widersprechen. Wenn die Analyse zeigt, dass die Sondervariante für Kunde Müller einen negativen Deckungsbeitrag hat, sagt der Vertrieb: “Aber wenn wir die streichen, verlieren wir den Kunden.” Das mag stimmen. Es kann auch sein, dass Kunde Müller noch fünf andere Produkte kauft, die profitabel sind — dann ist die Sondervariante ein akzeptabler Kundenbindungsverlust. Oder aber er kauft nur diese eine Variante, und der Gesamtdeckungsbeitrag ist negativ. Nur die Rechnung, nicht das Argument, entscheidet.
Was hilft: Vertrieb schon in der Konzeptphase einbinden. Nicht als Kontrolleur — als Partner. “Wir wollen verstehen, welche Varianten sich für uns lohnen, damit wir den Fokus auf die wirklich profitablen Kunden richten können.” Das ist keine Bedrohung, das ist Fokussierung.
Controlling wird erstaunt sein. In jedem Unternehmen, das diese Analyse zum ersten Mal durchführt, gibt es einen Moment, in dem jemand fragt: “Wie konnte das so lange so sein?” Die Antwort ist: weil die Zahlen nicht sichtbar waren. Kein Verschulden, keine Nachlässigkeit — strukturelle Intransparenz der Zuschlagskalkulation. Das ist wichtig zu kommunizieren, bevor die Ergebnisse rausgehen. Sonst sucht jemand einen Schuldigen, statt eine Lösung.
Die eigentliche Arbeit beginnt nach der Analyse. Jede Variante mit negativem Deckungsbeitrag braucht eine Entscheidung: Repricing (Preis anheben), Redesign (Kosten senken), Qualifizierung (Mindestmenge beim Kunden vereinbaren) oder Streichung. Diese Entscheidungen brauchen Eigentümer — nicht “das Unternehmen entscheidet”, sondern eine namentliche Person bis zu einem Stichtag.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Daten-Audit und Scopedefinition | Woche 1–2 | ERP-Felder prüfen, 10 Varianten manuell durchrechnen, Datenlücken identifizieren | Arbeitspläne veraltet oder unvollständig — Extraaufwand für Datensanierung |
| Datenextraktion und -aufbereitung | Woche 3–8 | IT zieht Fertigungsaufträge, BDE-Rüstzeiten, Stücklisten für 24 Monate; Daten werden bereinigt und verknüpft | BDE nicht in ERP integriert — manuelle Verknüpfung nötig; verdoppelt Zeitaufwand |
| Modellentwicklung und Kalibrierung | Woche 8–14 | Kostenmodell wird gebaut, mit bekannten Referenzvarianten kalibriert, erste Plausibilitätstests | Modell zeigt unrealistische Werte — Kostenstellen falsch zugeordnet, erfordert Schleife mit Controlling |
| Analyse und Ergebnisaufbereitung | Woche 14–16 | Alle Varianten werden bewertet, Top 20 Verlustbringer identifiziert, Bericht erstellt | Ergebnisse werden politisch kontrovers — frühzeitig Führungsebene einbinden |
| Entscheidungsrunden und Maßnahmenplan | Woche 16–20 | Variantenliste wird mit Vertrieb, Produktmanagement und GF diskutiert; Repricing oder Streichungsentscheidungen werden getroffen | Entscheidungen werden vertagt — Stichtag und Verantwortlichkeiten vorab definieren |
| Monitoring und Nachkalibrierung | Quartallich | Margenentwicklung der repriced Varianten verfolgen; Modell jährlich neu kalibrieren | Modell veraltet, wenn Maschinenstundensätze oder Materialpreise sich ändern — jährlicher Review-Termin einplanen |
Häufige Einwände — und was dahintersteckt
„Varianten sind Kundenbindung — wer sie streicht, verliert Kundenbeziehungen.”
Das stimmt in Teilen. Aber das Argument kolabiert, wenn die Variante seit fünf Jahren ein Verlustbringer war. Eine Beziehung, die auf einer subventionierten Sonderleistung basiert, ist keine Partnerschaft — es ist ein Zuschuss aus dem Gemeinkostenblock. Das Ziel dieser Analyse ist nicht, alle Varianten zu streichen. Das Ziel ist, die Kosten jeder Variante transparent zu machen — damit die Preise die echten Kosten widerspiegeln. Profitable Varianten bleiben. Unterpreisige Varianten werden repriced. Dauerhaft unrentable Varianten werden entweder als strategische Investition in eine Kundenbeziehung bewusst geführt (dann ist das eine Entscheidung, kein Versehen) oder gestrichen. Das ist kein Verlust von Kundenbeziehungen — das ist Preisgestaltung auf Basis von Fakten.
„Unsere Kalkulation stimmt schon — wir rechnen das alles durch.”
Bitte zeig die letzte Kalkulation einer Sonderausführung. Wo sind die Rüstkosten der sechs Umrüstvorgänge attribuiert? Wenn die Antwort “im Fertigungsgemeinkosten-Zuschlag” ist, dann stimmt die Kalkulation nicht — sie verteilt die Kosten auf alle Produkte statt auf das auslösende Produkt. Das ist kein Vorwurf, das ist die Architektur der Zuschlagskalkulation. Sie war gebaut für eine Welt mit wenig Variantenvielfalt und stabilen Losgrößen.
„Dafür haben wir keine sauberen Daten.”
Das ist die ehrlichste Aussage, die ein Unternehmen machen kann — und gleichzeitig das stärkste Argument dafür, dieses Projekt anzugehen. Wenn die Datenlage so schlecht ist, dass niemand weiß, was eine Variante kostet, dann weiß auch niemand, ob die Preise stimmen. Das Datenproblem ist kein Hindernis für die Analyse — es ist der Anlass. Mit einem Daten-Audit lässt sich in zwei Wochen klären, was tatsächlich vorhanden ist und was nicht.
Woran du merkst, dass das zu dir passt
- Ihr habt mehr als 80 aktive Produktvarianten, davon mindestens 20 Sonder- oder Kundenausführungen, die in den letzten 24 Monaten produziert wurden
- Euer Vertrieb bewilligt Sonderausführungen routinemäßig, ohne dass Controlling eine variantenspezifische Vollkostenrechnung vorlegen kann
- Ihr habt das Gefühl, dass ein Teil eurer Sonderausführungen nicht rentabel ist — aber keine Zahlen, um das zu beweisen oder zu widerlegen
- Eure Rüstzeiten werden erfasst (BDE/MDE), aber nicht nach Varianten ausgewertet
- Ihr nutzt Zuschlagskalkulation (prozentualer Gemeinkostenzuschlag) statt Prozesskostenrechnung oder Tätigkeitskostenrechnung
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Weniger als 50 aktive SKUs oder Varianten gesamt. Bei kleiner Variantenvielfalt gibt es schlicht keine statistische Masse für ein Kostenmodell. Eine manuelle Kalkulation der 20–30 Sonderausführungen dauert zwei Wochen und ist genauso aussagekräftig wie ein KI-Projekt. Skalierungseffekte entstehen erst ab einer gewissen Variantenbreite.
-
Kein ERP-Kostenstellentracking und keine BDE/MDE-Rüstzeiterfassung. Ohne strukturierte Fertigungsdaten kann kein Kostenmodell kalibriert werden. Wer Fertigungszeiten auf Zuruf schätzt oder in Excel erfasst, braucht zuerst ein ERP-Einführungsprojekt, dann erst die KI-Analyse. Die KI-Schicht kommt nach der Dateninfrastruktur, nicht davor.
-
Assembly-to-Order mit manueller Auftragskalkulation ohne Stücklistenverknüpfung. Kleinere Auftragsfertiger kalkulieren oft jeden Auftrag manuell auf Basis von Erfahrungswerten — ohne strukturierte Stücklisten und ohne ERP-Rückmeldung auf Variantenebene. In diesem Fall fehlt die Datengrundlage vollständig. Zuerst Stücklisten strukturieren, Fertigungsaufträge mit Artikeln verknüpfen, dann analysieren.
Das kannst du heute noch tun
Nimm die zehn meistbestellten Sonderausführungen der letzten 24 Monate aus deinem ERP. Exportiere für jede: Fertigungsaufträge, zugehörige Rüstzeiten (wenn vorhanden), tatsächliche Losgröße und kalkulierte Losgröße. Wenn du diese Daten in einer Stunde aus dem ERP extrahieren kannst, ist das Projekt machbar. Wenn du es nicht kannst, weißt du, wo das Datenprojekt anfangen muss.
Zum Testen kannst du die exportierte Tabelle in Julius AI hochladen und erste Fragen stellen. Kostenlos, ohne Setup:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- McKinsey Operations (November 2024): „Supercharging product portfolio performance with generative AI” — Zeitreduktion Portfolioanalyse um über 90 Prozent; Automatisierungsgrad 50 Prozent+ für Portfolio-Analyse bis 2025. URL: mckinsey.com/capabilities/operations/our-insights/supercharging-product-portfolio-performance-with-generative-ai
- L.E.K. Consulting (Fallstudie): Supply Chain Simplification and SKU Rationalization for a Food and Beverage Manufacturer — 14 Prozent Kapazitätssteigerung, über 10 Millionen USD EBIT-Verbesserung durch SKU-Rationalisierung. URL: lek.com/insights/con/us/cs/supply-chain-simplification-and-sku-rationalization-food-and-beverage
- VDMA Kurzstudie 2021: Variantenmanagement, CPQ und CRM — 84 Prozent der befragten Unternehmen bewerten Datenpflege-Aufwand als hoch; 31 Prozent ohne jegliche Variantenmanagement-Software. Bezug über camos.de/de/info-center/vdma-kurzstudie-2021-variantenmanagement-cpq-und-crm
- RWTH Aachen, WZL — Schuh/Riesener: Prozessbasierte Variantenkostenrechnung mit Process Mining; granulare, teilautomatisierte Identifikation von Komplexitätskosten je Variante. Publikation: publications.rwth-aachen.de/record/713852
- Fallstudie Schraubenvariantenreduktion (wuepping.com / Komplexitätsmanagement): ABC-Analyse von 2.400 auf 800 Varianten; 60 Prozent der Varianten unter 2 Prozent Jahresbedarf; 25 Prozent Beschaffungskostensenkung durch Standardisierung.
- Implementierungskosten ERP-KI-Integration (2024): shivlab.com/blog/ai-integration-erp-cost/ — Bandbreite 20.000–500.000 USD je nach Komplexität und Integrationstiefe.
- BetrVG § 87 Abs. 1 Nr. 6: Mitbestimmungsrecht des Betriebsrats bei Einführung und Anwendung von technischen Einrichtungen zur Verhaltens- und Leistungsüberwachung.
Du willst wissen, ob eure Datenlage für eine Variantenkostenanalyse ausreicht — und welche Varianten ihr sinnvollerweise zuerst in den Fokus nehmt? Meld dich — das lässt sich mit einem kurzen Daten-Audit klären.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Assistent für interne Wissensdatenbank
Ein KI-Assistent durchsucht alle internen Dokumente quellengenau und beantwortet Fragen direkt — für schnellere Informationsfindung und besseres Onboarding.
Mehr erfahrenAutomatisierte Meeting-Protokolle und Aufgaben
KI transkribiert Meetings, fasst Ergebnisse zusammen und extrahiert Aufgaben mit Verantwortlichkeiten — für lückenlose Dokumentation und weniger vergessene Maßnahmen.
Mehr erfahrenAutomatisierte Rechnungsverarbeitung
KI erkennt Rechnungsfelder automatisch, prüft auf Plausibilität und leitet zur Freigabe weiter — für schnellere Durchlaufzeiten und weniger manuelle Fehler.
Mehr erfahren