Materialverschnitt-Mustererkennung
ML-Modell identifiziert welche Einstellungen und Produktwechsel-Konstellationen zu überdurchschnittlichem Folien- oder Kartonverschnitt führen — und zeigt, wie viel jede Kombination tatsächlich kostet.
Es ist Donnerstag, kurz nach dem Frühstück. Thomas, Schichtleiter bei einem mittelständischen Lohnverpacker im Raum Bielefeld, öffnet seine Schichtauswertung.
Die Linie hat heute Nacht zwischen Produkt A und Produkt C gewechselt. Folienverbrauch: 12,4 Prozent über dem Soll. Wieder. Thomas notiert es, wie er es immer notiert. Er weiß, dass der Wechsel von A nach C immer mehr Folie kostet als der von A nach B. Er weiß es, weil er seit neun Jahren auf dieser Linie steht. Aber er kann es niemandem erklären — und kein System hat je einen Unterschied gemacht, ob die Reihenfolge A-B-C oder A-C-B geplant wurde.
Die Auftragsdisposition richtet sich nach Lieferterminen. Die Linie folgt der Reihenfolge. Der Meister notiert den Mehrverschnitt. Am Monatsende steht im Controlling: 4,8 Prozent Materialabweichung. Die Ursache? Unbekannt. Schlechte Chargen, vielleicht. Schwankungen. Normale Produktion.
Dabei steckt die Antwort seit Jahren in den Maschinenlogs.
Das echte Ausmaß des Problems
In der Verpackungsindustrie ist Materialverschnitt bei Produktwechseln das klassische Unsichtbarkeitsproblem: Die Zahlen werden erfasst, aber auf der falschen Ebene.
Produktionslogs und Materialverbrauch werden typischerweise nach Schicht oder nach Auftrag ausgewertet — nicht nach einzelnen Produktwechsel-Ereignissen. Das Ergebnis: Eine Schicht mit vier Wechseln erscheint im Controlling als eine einzige Zahl. Welcher der vier Wechsel überdurchschnittlich viel Folie gefressen hat, ist unsichtbar. Welche Kombination aus Produktvariante, Maschineneinstellung und Temperaturprofil dafür verantwortlich ist, noch mehr.
Laut Industriedaten aus dem Verpackungsmaschinensektor sind Rüstvorgänge in Lebensmittelverpackungsbetrieben für durchschnittlich 23 Prozent aller Linienverluste verantwortlich — darunter sowohl Zeitverluste als auch Materialverluste. Die durchschnittliche Rüstzeit ohne systematisches Rüstprogramm liegt bei rund 45 Minuten pro Wechsel; Best-Practice-Betriebe schaffen denselben Wechsel in 17 Minuten. Über Materialverlust wird dabei deutlich weniger gesprochen: Zeitoptimierung ist messbar und sichtbar, Materialoptimierung ist diffus und wird im Monatsdurchschnitt ertränkt.
Dabei ist Material in der Verpackungsindustrie ein erheblicher Kostenfaktor. Bei einem mittelständischen Verpackungsbetrieb mit 3–8 Millionen Euro Jahresumsatz macht Folie oder Karton typischerweise 25–40 Prozent der variablen Kosten aus. Ein Verschnitt, der fünf Prozent über dem optimalen Wert liegt, kostet — je nach Volumen und Materialpreis — zwischen 40.000 und 120.000 Euro pro Jahr. Diese Zahl taucht in keinem Bericht auf, weil sie sich nicht von normalen Schwankungen trennen lässt, solange die Analyse auf Schichtebene bleibt.
Das eigentliche Problem: Wechsel-spezifische Muster sind im Aggregat unsichtbar. Der Wechsel von Produkt A nach C verliert konstant 8 Prozent mehr Folie als der Wechsel von A nach B. Aber dieser Unterschied erscheint in keiner Auswertung, weil ihn niemand auf Einzelereignisebene betrachtet — obwohl die Daten seit Jahren im MES oder Maschinenlog gespeichert sind.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit Mustererkennung |
|---|---|---|
| Erkennbarkeit teurer Wechsel-Kombinationen | Nur durch Meister-Erfahrung — nicht dokumentiert | Systematisch aus Maschinenlogs, für alle Kombinationen |
| Analyse-Aufwand pro Woche | 2–4 Stunden Meister-Zeit für manuelle Auswertung | unter 30 Minuten Dashboard-Review |
| Materialverschnitt-Reduktion nach 6 Monaten | 0 % (keine Systematik) | 4–9 % ¹ |
| Reaktionszeit bei schlechtem Wechsel | Nächste Monatsauswertung | Nächster Schichtbericht oder Echtzeit-Alert |
| Wissen über teure Reihenfolgen | In einem Meisterkopf, nicht übertragbar | Im Modell dokumentiert, auditierbar |
| Planungsgrundlage für Disposition | Liefertermintreue als einziges Kriterium | Liefertermintreue + Materialeffizienz-Score |
¹ Erfahrungswerte aus vergleichbaren Produktionsdatenanalysen bei Verpackungsbetrieben — keine repräsentative Studie, aber konsistente Größenordnung für Betriebe mit mehr als 5 täglichen Wechseln und vorhandener Datenhistorie.
Der größte Unterschied liegt nicht in der Automatisierung, sondern in der Granularität: Das Modell analysiert jeden einzelnen Wechsel als Ereignis, nicht als Teil eines Schichtmittelwerts. Erst diese Granularität macht Muster sichtbar, die im Aggregat verschwinden.
Einschätzung auf einen Blick
Zeitersparnis — hoch (4/5) Der Meister, der heute zwei bis vier Stunden pro Woche manuell Verschnittdaten auswertet und vergleicht, wird durch das Modell auf eine kurze Dashboard-Review reduziert. Das ist nicht dramatisch mehr als bei anderen Produktionsanalyse-Anwendungen — aber der Unterschied zur Siegelnaht-Versagensrisiko-Prognose liegt darin, dass hier der Analyse-Aufwand eines erfahrenen Mitarbeitenden entfällt, der sein Wissen sonst nicht dokumentiert und nicht überträgt.
Kosteneinsparung — mittel (3/5) 5–8 Prozent weniger Materialverschnitt klingt nach wenig — in absoluten Zahlen sind das bei einem Betrieb mit 150.000 Euro Folienkosten pro Jahr zwischen 7.500 und 12.000 Euro pro Jahr. Real, aber nicht die Größenordnung, die Maschinenausfälle oder Rückrufe verursachen. Im Vergleich zur Siegelnaht-Prognose, die Produktrückrufe verhindert, ist das eine andere Risikoklasse.
Schnelle Umsetzung — hoch (4/5) Maschinenlogs und Produktionsdaten sind in den meisten Betrieben vorhanden — das ist der entscheidende Unterschied zu Anwendungsfällen, die zuerst Sensorik aufbauen müssen. Wer ein MES oder auch nur strukturierte Schichtberichte in Excel hat, hat die Datenbasis. Realistischer Zeitraum bis zum ersten Modell: 4–8 Wochen.
ROI-Sicherheit — sehr hoch (5/5) Das ist der stärkste Vorteil dieses Anwendungsfalls: Die Einsparung ist direkt buchbar. Materialverbrauch minus Sollverbrauch ergibt eine Euro-Zahl, die monatlich ausgewiesen werden kann. Kein indirekter Effekt, kein „wir vermuten, dass es ohne das System schlimmer wäre” — nur Folienverbrauch vor und nach der Optimierung. Das macht den Business Case ungewöhnlich einfach zu führen.
Skalierbarkeit — sehr hoch (5/5) Das Modell verbessert sich mit jeder neuen Linie, jedem neuen Produkt, jedem weiteren Monat Betriebsdaten. Wer mit einer Linie startet, kann das Verfahren auf alle Linien eines Werkes und auf alle Werke ausrollen — ohne zusätzliche Grundinvestition in Sensorik. Jede neue Produktvariante ist zusätzliches Trainingsmaterial.
Richtwerte — stark abhängig von Produktportfolio-Breite, Wechselhäufigkeit und vorhandener Datenhistorie.
Was das System konkret macht
Der technische Ansatz heißt Machine Learning auf Ereignisebene — konkret: ein Modell, das für jeden historischen Produktwechsel eine Zeile in einem Datensatz anlegt und dabei alle verfügbaren Parameter dieses Ereignisses als Eingangsgrößen nutzt.
Was fließt in das Modell ein? Typischerweise:
- Wechseltyp: Welches Produkt wurde vorher verpackt? Welches danach? (Die Kombination ist entscheidend, nicht nur das Zielprodukt)
- Maschinenparameter: Siegeltemperatur, Folienspannung, Abzugsgeschwindigkeit, Zykluszeit
- Zeitpunkt: Schicht, Wochentag, Stunden seit letzter Wartung
- Umgebungsdaten: sofern vorhanden, Umgebungstemperatur oder Luftfeuchte
- Ergebnisgröße: tatsächlicher Folienverbrauch für dieses Wechselereignis, gemessen gegen das Soll
Das Modell — in der Praxis oft ein Entscheidungsbaum oder ein Gradient-Boosting-Modell — lernt, welche Kombinationen dieser Parameter zu überdurchschnittlichem Verschnitt führen. Das Ergebnis ist keine schwarze Box, sondern eine priorisierte Liste: „Der Wechsel von Produkt X auf Produkt Y kostet bei Siegeltemperatur über 165 Grad im Mittel 9,3 Prozent mehr Folie als der Soll-Wert — und dieser Wechsel findet bei euch 18-mal pro Monat statt.”
Wichtig: Das System gibt Empfehlungen, keine automatischen Eingriffe. Die Disposition bekommt eine zusätzliche Eingangsgröße — den Verschnitt-Score für die geplante Reihenfolge — und kann die Abfolge anpassen, wenn der Lieferplan es erlaubt. Die endgültige Entscheidung liegt beim Menschen.
Was das Modell nicht kann
Das Modell kann nur Muster erkennen, die in der Datenbasis vorhanden sind. Ein Produktwechsel, der zum ersten Mal stattfindet, hat keine historischen Daten — das System wird dafür keinen Verschnitt-Score berechnen können. Ebenso erkennt es keine physikalischen Ursachen: Es sagt, „diese Kombination ist teuer”, aber nicht warum auf Ingenieur-Ebene. Das Warum bleibt die Aufgabe des Technikers, der die Mustererkennung als Hinweis benutzt.
Warum die richtige Reihenfolge mehr spart als die richtige Einstellung
Das ist die nicht-offensichtliche Erkenntnis, die fast jede Mustererkennung auf Produktionswechseldaten produziert: Die Reihenfolge der Wechsel ist oft wichtiger als die Maschineneinstellung beim einzelnen Wechsel.
Der Grund liegt in der Physik des Verpackungsprozesses. Folienverarbeitung ist temperaturabhängig, und Temperatursysteme haben Trägheit. Wenn nach Produkt A (Verarbeitungstemperatur 160 Grad) direkt Produkt C (160 Grad) kommt, hat das Maschinensystem keine Übergangsphase. Wenn aber Produkt B (145 Grad) dazwischenliegt, hat das Profil Zeit, sich anzupassen — und der Wechsel von B nach C verläuft stabiler als der Direktwechsel A nach C.
Ähnliches gilt für Foliendicken, Versiegelungsgeometrien oder Füllgutkompatibilität: Eine Abfolge, die bei jedem einzelnen Wechsel „okay” ist, kann in der Gesamtfolge mehr Verschnitt produzieren als eine Sequenz mit einem scheinbar schwierigeren Zwischenschritt.
Das bedeutet konkret: Die Disposition, die heute nur nach Lieferterminen plant, hat eine zweite Dimension, die sie gar nicht kennt — den kumulativen Verschnitt-Score einer Tagesplanung. Ein Modell kann für jede geplante Reihenfolge einen Gesamt-Verschnitt-Score berechnen und Alternativen vorschlagen, die denselben Liefertag erreichen, aber 15–20 Prozent weniger Folie verbrauchen.
SMED (Single Minute Exchange of Die) adressiert dieses Problem strukturell nicht: SMED optimiert die Dauer einzelner Wechsel, nicht die Sequenz von Wechseln. Eine SMED-optimierte Linie, die A→C→B wechselt, kann immer noch 40 Prozent mehr Folie verbrauchen als eine SMED-naïve Linie, die A→B→C läuft — nur schneller.
Das ist der Grund, warum viele Betriebe bereits intensive Rüstoptimierung betreiben und trotzdem konstanten Mehrverschnitt haben: Sie lösen das falsche Problem.
Konkrete Werkzeuge — was wann passt
Das Tooling für diese Anwendung ist bewusst niedrigschwellig gehalten — die Daten sind der Engpass, nicht die Rechenleistung.
KNIME Analytics Platform — Der praktischste Einstieg für Betriebe ohne Data-Science-Team. KNIME liest CSV-Exporte aus Maschinenlogs und MES-Systemen, bereitet die Daten per Drag-and-Drop auf und trainiert Klassifikationsmodelle ohne eine Zeile Code. Die Desktop-Version ist dauerhaft kostenlos. Ein technisch affiner Fertigungsingenieur kommt in 2–4 Wochen zu einem funktionierenden ersten Modell. KNIME läuft vollständig On-Premise — die Maschinendaten verlassen nie das Unternehmensnetzwerk. Einschränkung: Kollaborationsfeatures (Mehrpersonen-Betrieb, geplante Ausführung) setzen einen bezahlten Hub voraus, Preise auf Anfrage.
Power BI — Für die Visualisierung und das operative Dashboard. Power BI kann direkt aus den Maschinenlog-Exporten Verschnitt-Dashboards aufbauen, die Schichtleiter ohne Datenanalyse-Hintergrund verstehen. Power BI Desktop ist kostenlos; für Team-Sharing und Echtzeit-Datenanbindung wird Power BI Pro benötigt (12,10 Euro/Nutzer/Monat). Power BI ersetzt keine Mustererkennung, aber es macht die Ergebnisse des Modells operativ nutzbar.
Python mit scikit-learn — Für Betriebe, die einen Datenanalysten oder einen externen Dienstleister einbinden. Python-basierte Entscheidungsbaum- oder Gradient-Boosting-Modelle (XGBoost, LightGBM) sind für diesen Anwendungsfall die technisch stärkste Wahl: interpretierbar, performant auf kleinen bis mittleren Datensätzen, keine Lizenzkosten. Nachteil: Ohne Programmierkenntnisse nicht selbst betreibbar.
Siemens Insights Hub — Für Betriebe, die bereits Siemens-Maschinenpark betreiben und eine vollständige IIoT-Plattform suchen. Insights Hub verbindet Maschinentelemetrie direkt mit Analytics-Funktionen, ohne CSV-Exporte und manuelle Uploads. Sehr leistungsfähig für Multi-Linien- und Multi-Werk-Betrieb; Enterprise-Preisgestaltung auf Anfrage, realistisch ab fünfstelligen EUR-Jahresbeträgen. Für einzelne Pilotprojekte in KMU ohne Siemens-Maschinenpark unverhältnismäßig.
DataRobot — Für Unternehmen, die eine vollständige AutoML-Plattform mit integriertem Drift-Monitoring und Governance suchen. DataRobot trainiert automatisch Dutzende Modellarchitekturen und überwacht Modellqualität im laufenden Betrieb — ein kritisches Feature, weil sich Produktsortiment und Maschinenpark über Zeit verändern. Pilot-Pakete ab ca. 2.000–5.000 USD/Monat, vollständige Enterprise-Deployments ab ca. 50.000 USD/Jahr.
Zusammenfassung: Wann welcher Ansatz
- Kein Data-Science-Team, Datenschutz-Anforderungen, begrenztes Budget → KNIME On-Premise
- Ergebnis-Visualisierung und Schicht-Dashboard → Power BI
- Eigener Datenanalyst oder externer Dienstleister → Python + scikit-learn
- Siemens-Maschinenpark, Multi-Werk → Siemens Insights Hub
- Enterprise-Governance, Drift-Monitoring als Standard → DataRobot
Datenschutz und Datenhaltung
Maschinenlogs und Produktionsdaten enthalten in der Regel keine personenbezogenen Daten im DSGVO-Sinne — sie beschreiben Maschinenverhalten, nicht Personen. Dennoch gibt es zwei Dimensionen, die bedacht werden müssen.
Betriebsgeheimnisse und Wettbewerbsschutz: Produktions-Parameter, Wechselmuster und Materialverbrauchsdaten sind betriebliche Interna. Cloud-Dienste, die diese Daten verarbeiten, sollten eine saubere vertragliche Basis für Nicht-Weitergabe und Datenlöschung haben. Wer auf Nummer sicher gehen will, nutzt eine On-Premise-Lösung wie KNIME oder Python auf lokalem Server — die Daten verlassen das Unternehmensnetzwerk nicht.
Betriebsdaten und Mitbestimmung: Wenn die Analyse auch Rückschlüsse auf Schichtleistung zulässt — etwa „Schicht A erzeugt 30 Prozent mehr Verschnitt als Schicht B” — kommt die Betriebsverfassung ins Spiel. Das ist keine DSGVO-Frage, sondern eine Mitbestimmungsfrage nach BetrVG §87. Die Lösung ist einfach: Das Modell analysiert Maschinen-Konstellationen, nicht Personen. Keine personenbezogenen Attribute (Schichtleiter-Namen, Personalnummern) fließen ins Training.
Cloud-Optionen mit EU-Hosting: Siemens Insights Hub läuft auf EU-Rechenzentren; DataRobot bietet EU-Region-Deployment an (explizit vereinbaren). Power BI-Daten werden in der von Microsoft verwalteten Region gespeichert — für Produktionsdaten ohne Personenbezug ist das in aller Regel unproblematisch, aber ein AVV empfiehlt sich bei regelmäßiger automatisierter Verarbeitung.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
Der wesentliche Einmalaufwand liegt in der Datenvorbereitung, nicht im Modelltraining. Typisch:
- Datenexport aus MES/Maschinenlog strukturieren: 1–2 Wochen interner Aufwand (Fertigungsingenieur + IT)
- Bereinigung und Labeling der Wechselereignisse (welcher Wechsel fand wann statt, wie viel Folie wurde verbraucht): 1–2 Wochen
- Modell-Training und Validierung: 1–2 Wochen mit KNIME oder Python
- Dashboard-Einrichtung in Power BI: 1 Woche
Externe Implementierungskosten (falls kein eigenes Data-Science-Team): 15.000–35.000 Euro für ein vollständiges Pilotprojekt inklusive Datenpipeline, erstem Modell und operativem Dashboard. Bei eigenem technischem Personal: deutlich weniger — im Wesentlichen Werkzeugkosten (KNIME kostenlos, Power BI Pro ca. 12 Euro/Person/Monat).
Laufende Kosten
- KNIME Desktop + Power BI Pro: unter 500 Euro/Monat für ein kleines Team
- Python-basiertes Modell auf lokalem Server: nahezu keine Lizenzkosten
- DataRobot Pilot: ca. 2.000–5.000 USD/Monat (laut Anbieterangaben)
- Siemens Insights Hub: Enterprise-Preise auf Anfrage
Was du dagegenrechnen kannst
Ein Betrieb mit 200.000 Euro jährlichen Folienkosten und einem Verschnitt, der nach Analyse um 6 Prozent reduziert wird, spart 12.000 Euro pro Jahr. Bei 400.000 Euro Folienkosten sind es 24.000 Euro. Die Einmalkosten von 15.000–35.000 Euro amortisieren sich im ersten bis dritten Jahr — bei eigenem technischem Personal oft schon im ersten Jahr.
Wichtig: Diese Rechnung gilt nur, wenn die Modell-Empfehlungen tatsächlich in die Disposition einfließen. Wer die Erkenntnisse erarbeitet, sie aber nicht in der Planungsroutine verankert, hat eine Analyse ohne Effekt.
Typische Einstiegsfehler
1. Analyse auf Schichtebene statt auf Wechselereignis-Ebene starten.
Der häufigste Fehler: Man exportiert Schichtberichte und analysiert den durchschnittlichen Verschnitt pro Schicht. Das ist zu grob. Ein Produktwechsel, der um 1:15 Uhr stattfand, ist in der Nachtschicht-Zahl verschwunden. Lösung: Die Datenstruktur muss vor der Analyse so aufgebaut werden, dass jede Zeile ein Wechselereignis beschreibt — Zeitstempel, Ausgangs-Produkt, Ziel-Produkt, Maschinenparameter zum Zeitpunkt des Wechsels, gemessener Folienverbrauch für dieses Ereignis. Dieser Schritt kostet Zeit, ist aber die Voraussetzung für alles weitere.
2. Zu kurze Datenhistorie nutzen.
Ein Modell, das auf drei Monaten Daten trainiert wurde, sieht möglicherweise nicht alle Produktkombinationen. Manche Wechsel kommen nur saisonal vor; manche Produkte werden nur bestimmte Wochen im Jahr produziert. Mindestempfehlung: 12 Monate Daten, besser 18–24 Monate, um saisonale Effekte und seltene Kombinationen abzudecken.
3. Das Modell-Ergebnis der Disposition nicht erklären.
Das Modell produziert Empfehlungen — aber die Person, die die Produktionsreihenfolge plant, muss verstehen, warum das System sagt, was es sagt. Ein schwarzes-Box-Ergebnis „Reihenfolge X ist teurer” wird ignoriert oder umgangen. Lösung: Entscheidungsbaum-basierte Modelle, deren Regeln man in drei Sätzen erklären kann. „Wechsel von Produkt A auf C bei Temperatur über 162 Grad verursacht im Mittel 9 Prozent Mehrverschnitt” ist ein Ergebnis, das ein Dispositionsplaner versteht und akzeptiert.
4. Das Modell einmal trainieren und nie wieder aktualisieren.
Produktsortiment ändert sich. Neue Folienlieferanten kommen. Maschinen werden gewartet, umgebaut, ersetzt. Ein Modell, das auf Daten aus 2022 trainiert wurde und heute noch produktiv läuft, ohne aktualisiert worden zu sein, gibt Empfehlungen für eine Linie, die es nicht mehr gibt. Das ist das gefährlichste Versagen — nicht weil das System laut scheitert, sondern weil es still falsche Empfehlungen gibt.
Wer dieses Problem ignoriert, hat nach 18–24 Monaten ein System, das vertrauenswürdig klingt und sich irrt.
Die Lösung ist eine feste Retraining-Regel: jedes Quartal, oder bei jedem neuen Produkt im Sortiment, oder wenn der Meister merkt, dass die Empfehlungen nicht mehr mit der Praxiserfahrung übereinstimmen — dann ist es Zeit für ein neues Modell.
Was mit der Einführung wirklich passiert — und was nicht
Das Modell ist in sechs Wochen trainiert. Die eigentliche Arbeit beginnt danach.
Das größte Widerstandsmuster bei dieser Art von Produktionsanalytik ist nicht Skepsis gegenüber KI — es ist der erfahrene Meister, der seit 15 Jahren weiß, welche Wechsel teuer sind, und dessen Wissen jetzt plötzlich in einem System steckt. Zwei Reaktionen sind typisch:
Reaktion 1: „Das haben wir schon immer so gemacht.” Wenn das Modell eine Empfehlung ausspricht, die dem langjährigen Erfahrungswissen widerspricht, entsteht sofort Widerstand. Wichtig: Das Modell hat hier meistens Recht — nicht weil der Meister Unrecht hat, sondern weil das Modell Muster in 10.000 Wechseln gesehen hat, die kein Mensch in 15 Jahren vollständig durchdenken kann. Die Überzeugungsstrategie ist nicht „das System ist besser als du” — sondern „lass uns gemeinsam einen Wechsel machen, der das System als teuer markiert, und dann messen wir es”.
Reaktion 2: „Das funktioniert nur, wenn die Disposition mitspielt.” Das stimmt. Wenn das Modell Empfehlungen gibt, die Reihenfolge aber aus Termingründen nie geändert werden kann, ist der Nutzen null. Das ist kein technisches Problem, sondern ein Prozessdesign-Problem: Das Modell muss in die Planungssoftware oder die tägliche Dispositionsbesprechung integriert werden — nicht als optionales Dashboard, das niemand öffnet, sondern als Eingangsgröße mit explizitem Entscheidungsrahmen. „Wenn der Verschnitt-Score über X liegt, prüfen wir alternative Reihenfolgen” ist eine Regel, die vorab vereinbart werden muss.
Was konkret hilft:
- Vor dem Rollout gemeinsam mit Meister und Disposition die drei teuersten Wechsel-Kombinationen aus dem Modell identifizieren und besprechen — nicht präsentieren, sondern diskutieren
- Einen 90-Tage-Piloten mit einer einzelnen Linie, bei dem die Disposition aktiv alternative Reihenfolgen ausprobiert, wenn der Terminplan es erlaubt
- Monatliches Reporting: Was hat die Disposition verändert, was hat das gekostet, was hat es gespart?
- Erst wenn der Pilot auf Schichtleiter-Ebene Vertrauen gewonnen hat, auf weitere Linien ausrollen
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenaudit | Woche 1–2 | MES-Exporte und Maschinenlogs prüfen: Welche Daten sind vorhanden? Welche Granularität? | Daten auf Schichtebene statt Ereignisebene — Restrukturierung nötig, oft 2 Wochen extra |
| Datenpipeline aufbauen | Woche 2–4 | Wechselereignisse extrahieren, labeln, strukturieren | Lückende Daten für bestimmte Wechseltypen — kürzerer Trainings-Zeitraum, schlechtere Modellgenauigkeit |
| Modell-Training + Validierung | Woche 4–6 | Erste Muster-Kandidaten identifizieren, Modell validieren | Zu wenig Wechsel-Ereignisse pro Kombination — Ergebnis statistisch nicht belastbar |
| Dashboard + Pilotbetrieb | Woche 6–10 | Disposition erhält ersten Verschnitt-Score für geplante Reihenfolgen, Empfehlungen werden ausprobiert | Dispositionsplaner ignorieren Dashboard — Integration in Planungsroutine fehlt |
| Auswertung + Rollout-Entscheidung | Woche 10–14 | Ergebnisse quantifizieren, Entscheidung über weitere Linien | Einsparung messbar, aber kleiner als erwartet — Erwarungsmanagement-Problem, nicht Modellproblem |
Wichtig: Die Phase „Datenaudit” wird regelmäßig unterschätzt. In der Praxis stellt sich hier heraus, ob die Datenbasis ausreicht oder ob zuerst Grundlagenarbeit an der Datenerfassung nötig ist. Wer diese Phase überspringt oder zu kurz hält, landet in Woche 4 mit einem strukturellen Problem.
Häufige Einwände — und was dahintersteckt
„Wir optimieren Rüstzeiten schon mit SMED.”
Ja — und das ist gut. Aber SMED adressiert die Dauer einzelner Wechsel, nicht die Materialkosten der Wechselsequenz. Eine SMED-optimierte Linie, die Produkt A→C→B wechselt, kann deutlich mehr Folie verbrauchen als eine SMED-naïve Linie, die A→B→C läuft — sie tut es nur schneller. Die beiden Methoden sind orthogonal: SMED und Wechsel-Mustererkennung lösen verschiedene Probleme. Der praktische Vorteil: Wer bereits SMED-Daten erfasst, hat die Zeitstempel und Wechselereignisse schon strukturiert — das ist exakt die Datenbasis für das ML-Modell. SMED-Daten werden dadurch zum kostenlosen Trainingsset.
„Unsere Disposition kann die Reihenfolge nicht ändern — der Lieferplan ist gesetzt.”
Stimmt häufig teilweise. Tatsächlich gibt es bei den meisten Linien innerhalb eines Tages mehrere Produkte mit demselben Lieferdatum, wo die Reihenfolge disponierbar ist — das sind genau die Freiheitsgrade, die das Modell optimieren kann. Das System sagt nicht „ignoriere Liefertermine”, sondern „wenn du diese drei Produkte heute produzieren musst, wähle diese Reihenfolge”. Kein Liefertermin geht verloren.
„Wir haben das schon mal versucht und es hat nicht funktioniert.”
Das hört man häufig — meistens bezieht sich das auf einen Piloten, der an zu aggregierten Daten gescheitert ist (Schicht statt Ereignis) oder an einem Dashboard, das nicht in den Planungsalltag integriert wurde. Die technische Hürde ist niedrig; der Schmerz kommt aus der Operationalisierung. Die Frage ist: Was hat beim letzten Mal nicht funktioniert — die Datenqualität, das Modell, oder die Einbindung in die Disposition?
Woran du merkst, dass das zu dir passt
- Du hast mehr als 3 Produktwechsel pro Tag auf mindestens einer Linie — das ist die Mindestmenge, die für statistisch belastbare Muster nötig ist
- Deine Materialkosten sind über 20 Prozent der variablen Gesamtkosten — darunter ist die absolute Einsparung zu gering, um den Implementierungsaufwand zu rechtfertigen
- Ihr habt MES-Daten, Maschinenprotokolle oder auch nur strukturierte Schichtberichte seit mindestens 12 Monaten — ohne historische Datenbasis gibt es nichts zu analysieren
- Ein Meister oder Fertigungsleiter hat eine Meinung dazu, welche Wechsel teuer sind — das ist ein gutes Zeichen. Es bedeutet, es gibt einen Effekt, aber er ist noch nicht systematisch dokumentiert
- Materialverschnitt ist ein regelmäßiges Thema in der Monatsauswertung, ohne dass sich die Ursachen klären lassen
Wann das System (noch) nicht passt — vier harte Ausschlusskriterien:
-
Weniger als 3 Produktwechsel pro Tag. Wer nur einmal täglich oder seltener wechselt, hat nicht genug Ereignisse für Mustererkennung. Nach 12 Monaten wären das maximal 365 Datenpunkte — zu wenig für belastbare Cluster, besonders bei einem breiteren Produktsortiment.
-
Einstoffige Produktion. Wer auf einer Linie immer dasselbe Produkt produziert und nie wechselt, hat keinen Anwendungsfall. Kein Wechsel, kein Wechselmuster.
-
Keine digitale Materialverbrauchserfassung auf Wechselereignis-Ebene. Wer Materialverbrauch nur als Monatssumme oder als Schichtdurchschnitt erfasst, und kein MES oder strukturiertes Schichtprotokoll hat, muss zuerst Datenbasis aufbauen, bevor die Analyse beginnen kann. Das dauert 6–12 Monate.
-
Materialkosten unter 20 Prozent der variablen Kosten. Wenn Material eine untergeordnete Kostenposition ist — etwa weil Personalkosten oder Energie dominieren — ist das absolute Einsparpotenzial zu gering, um die Implementierung zu rechtfertigen. Die Rechnung: 6 Prozent von 5 Prozent der Gesamtkosten ist nicht messbar.
Das kannst du heute noch tun
Öffne den Export deines MES-Systems oder deine Schichtprotokolle der letzten 6 Monate. Suche nach den Produktwechsel-Ereignissen und trage sie in eine einfache Tabelle ein: Zeitstempel, Ausgangsprodukt, Zielprodukt, gemessener Folienverbrauch dieses Wechsels.
Das dauert je nach Datenlage 2–4 Stunden — und was du danach siehst, ist oft schon die Antwort: Gibt es Kombinationen, die systematisch mehr Folie verbrauchen? Wenn ja, hast du deinen Business Case.
Für die KI-gestützte Analyse kannst du diesen Prompt verwenden, um die Daten in einer ersten Analyse-Runde auszuwerten:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- 23 % OEE-Verlust durch Rüsten: Shoplogix, „Changeover Times in Packaging Production” (2024); bestätigt durch Oxmaint, „Packaging Line Maintenance: Reducing Changeover Time and OEE” (2024). Durchschnittliche Rüstzeit ohne SMED-Programm: 45 Minuten; Best-in-Class: 17 Minuten.
- Syntegon Synexio Plattform: Eurotech Use Case, „Data-driven excellence in packaging: Syntegon’s approach” (2023). Syntegon sammelt Maschinendaten via ReliaGate-Gateway aus PLC-Systemen für operative Produktionsanalyse.
- ML-Konzeptdrift in industriellen Umgebungen: arxiv-Preprint 2602.00957, „From drift to adaptation to the failed ml model: Transfer Learning in Industrial MLOps” (2026): „Major equipment revamps can make a model’s learnings obsolete; industrial operations have nonlinear characteristics where equipment changeover may result in changing patterns of correlations between process variables.”
- DataRobot Pilotpreise: DataRobot Tool-Profil (Stand April 2026): Starter-/Pilot-Pakete ca. 2.000–5.000 USD/Monat; vollständige Enterprise-Deployments ab ca. 50.000 USD/Jahr.
- Materialkostenanteile Verpackung: Branchenerfahrungswerte für Lohnverpacker und Verpackungskonverter in Deutschland; Folie/Karton typisch 25–40 % der variablen Kosten bei mittleren Produktionsvolumina.
- SMED-Statistiken: Shoplogix SMED Calculator (2024); Litian Packaging, „Cut Changeover Time by 88 %: Master SMED for Maximum OEE” (2025): Branchendurchschnitt 45 Minuten, Best-Practice-Betriebe 17 Minuten.
- Implementierungskosten: Erfahrungswerte aus Produktionsdaten-Analyseprojekten mit KNIME und Python bei deutschen Fertigungsbetrieben (Stand April 2026).
Du willst wissen, ob eure Maschinenlogs die nötige Granularität haben und welche Wechsel-Kombinationen bei euch am meisten kosten? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Siegelnaht-Versagensrisiko-Prognose
KI analysiert Temperatur-, Druck- und Siegelzeitdaten der Siegelstation und prognostiziert Versagensrisiken je Charge — bevor eine undichte Verpackung die Anlage verlässt.
Mehr erfahrenFormatwechsel-Effizienzanalyse
KI analysiert historische Umrüstdaten und zeigt, welche Formatwechsel systematisch länger dauern, welche Bediener 40 % schneller sind und welche Reihenfolge die Gesamtrüstzeit minimiert.
Mehr erfahrenKundenprodukt-Variationsanalyse
KI wertet Qualitätsdaten über das gesamte Kundenportfolio aus und zeigt, welche SKUs überproportional Nacharbeit, Reklamationen und Maschinenstörungen verursachen — damit der Produktionsplaner eingreifen kann.
Mehr erfahren