Kundenprodukt-Variationsanalyse
KI wertet Qualitätsdaten über das gesamte Kundenportfolio aus und zeigt, welche SKUs überproportional Nacharbeit, Reklamationen und Maschinenstörungen verursachen — damit der Produktionsplaner eingreifen kann.
Es ist Donnerstag, 7:45 Uhr. Sandra Koch steht vor dem Schichtprotokoll und staunt. Wieder Nacharbeit an der Linie 3. Wieder die Dispenser-Füllung für einen Kosmetik-Kunden. Gestern war es die Linie 2 wegen falscher Siegelnahttemperatur bei einem anderen Kunden. Am Dienstag mussten 800 Einheiten einer dritten Produktlinie umetikettiert werden.
Sandra kennt das Gefühl: Es gibt immer irgendwo ein Problem. Aber sind das alles zufällige Einzelfälle — oder hat dieses Kosmetikprodukt in den letzten sechs Monaten überproportional viele Probleme verursacht?
Die ehrliche Antwort ist: Sandra weiß es nicht. Das Unternehmen produziert 340 aktive SKUs für 28 Kunden. Qualitätsdaten liegen im QM-System, Reklamationen im ERP, Maschinenstoppzeiten in einer Excel-Tabelle, die der Schichtleiter führt. Niemand hat je alle drei Quellen zusammengeführt und pro Kunden-SKU ausgewertet. Der Gedanke, das manuell zu tun, ist so abschreckend, dass er gar nicht erst endet.
Das ist das eigentliche Problem: Nicht die einzelnen Fehler — sondern dass das Unternehmen sie nicht systematisch nach Produkt, Kundenspezifikation und Maschinentyp aggregiert. Nacharbeit wird geleistet und vergessen, nicht analysiert.
Das echte Ausmaß des Problems
Lohnverpacker tragen eine strukturelle Informationsasymmetrie: Jeder Kunde weiß alles über sein eigenes Produkt. Der Lohnverpacker weiß, wie es auf der Anlage läuft — aber dieses Wissen ist über Schichten, Protokolle und Abteilungen verteilt und wird selten systematisch ausgewertet.
Das hat messbare Folgen. Laut der Benchmarking-Datenbank des American Productivity and Quality Center (APQC), die über 4.230 Unternehmen umfasst, liegen die Nacharbeits- und Ausschusskosten bei einem Median von 5 Prozent des Cost of Goods Sold. Topbetriebe schaffen weniger als 0,6 Prozent des Jahresumsatzes, Durchschnittsbetriebe verlieren bis zu 2,2 Prozent — und das, ohne zu wissen, welche Produkte den Löwenanteil davon verursachen.
Im Lohnverpackungsgeschäft kommt eine besondere Komplexitätsdimension hinzu: Jeder Kunde hat eigene Spezifikationen. Füllgewicht-Toleranzen, Siegelnahtparameter, Kopfraumvorgaben, Etikettenpositionierung, Verpackungsmaße — bei 340 SKUs von 28 Kunden entstehen hunderte verschiedene Parametersets, von denen einige ideal auf die verfügbaren Maschinen passen und andere mit jedem Produktionslauf eine Anpassung erfordern, die Zeit und Qualität kostet.
Probleme, die aus dieser Heterogenität entstehen:
- Versteckte Kostentreiber: Ein Produkt mit 8 Prozent Produktionsanteil verursacht 35 Prozent der Nacharbeitsstunden — aber niemand sieht diesen Zusammenhang, weil niemand ihn berechnet
- Fehlende Verhandlungsgrundlage: Wenn ein Kunde enge Toleranzen fordert, die auf der vorhandenen Anlage schwer zu halten sind, hat der Lohnverpacker keine Zahlen, um eine Spezifikationsanpassung sachlich zu begründen
- Reaktives Qualitätsmanagement: Probleme werden behoben, aber nicht analysiert — das Unternehmen lernt nicht aus Mustern, es löscht Brände
- Ungenauige Kalkulation: Angebote werden ohne Wissen erstellt, welche Produkte erfahrungsgemäß überproportional viel Rework erzeugen
Laut Fraunhofer ISI (2024) nutzen aktuell nur 7 Prozent der deutschen Produktionsbetriebe KI aktiv in der Qualitätskontrolle — obwohl Unternehmen, die ihre Qualitätsdaten vernetzt auswerten, ihre Nacharbeitskosten um 20 bis 30 Prozent reduzieren können.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne systematische Analyse | Mit KI-gestützter Portfolioanalyse |
|---|---|---|
| Zeit für SKU-weite Qualitätsauswertung | Nicht durchgeführt oder 2–4 Tage manuell | Automatisch, wöchentlich aktuell |
| Sichtbarkeit auf Problemprodukte | Gefühl des Schichtleiters | Datenbasiertes Ranking aller SKUs |
| Verhandlungsgrundlage mit Kunden | Anekdoten und Erinnerungen | Dokumentierte Qualitätsdaten je SKU |
| Kalkulation von Rüst- und Pufferkosten | Erfahrungswerte, oft ungenau | SKU-spezifische Rework-Basislinie |
| Reaktionszeit bei wiederkehrenden Problemen | Tage bis Wochen (wenn überhaupt) | Eine Analyse-Session nach Datenabruf |
Die mittlere Spalte ist für die meisten Lohnverpacker ehrlichere Realität als die erste: Der Qualitätsleiter hat ein Gefühl dafür, welche Produkte schwierig sind. Aber dieses Gefühl ist nicht konsistent, nicht übertragbar und nicht dokumentierbar.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5) Die Portfolioanalyse spart primär die manuelle Auswertungszeit des Produktionsplaners oder Qualitätsleiters — im Schnitt 2 bis 4 Stunden pro Woche, die bisher entweder gar nicht stattfand oder in mühsamen Excel-Pivots versickerte. Operationell, also an der Linie selbst, spart dieses System nichts direkt. Die Zeitersparnis ist real, aber indirekt — verglichen mit der Formatwechsel-Effizienzanalyse, die unmittelbar Maschinenlaufzeit schützt, oder der Siegelnaht-Prognose, die spontane Störungen verhindert.
Kosteneinsparung — niedrig (2/5) Die Analyse zeigt, wo Rework entsteht. Sie reduziert ihn nicht von alleine. Erst wenn auf die Erkenntnisse reagiert wird — eine Maschineneinstellung geändert, eine Spezifikation neu verhandelt, ein Produkt neu kalkuliert — materialisiert sich die Einsparung. Das dauert erfahrungsgemäß 3 bis 6 Monate nach dem ersten Analyse-Ergebnis. Dafür ist das Einsparpotenzial, wenn Probleme systematisch beseitigt werden, erheblich: Ein Produkt, das 30 Prozent der Nacharbeit verursacht und optimiert wird, schlägt direkt auf die Marge durch.
Schnelle Umsetzung — niedrig (2/5) Diese Analyse erfordert, dass drei bis vier Datenquellen zusammengeführt werden: das QM-System, die Reklamationsdaten aus dem ERP, Maschinenstoppzeiten und idealerweise Rüstprotokolle. Dieser Datenzusammenführungsaufwand ist das Haupthindernis — nicht die Analyse selbst. 6 bis 10 Wochen bis zum ersten aussagekräftigen SKU-Ranking ist realistisch. Schneller als die Siegelnaht-Prognose (die ein ML-Modell und historische Sensordaten braucht), aber langsamer als rein dokumentenbasierte Use Cases.
ROI-Sicherheit — mittel (3/5) Was die Analyse liefert, ist direkt messbar: Welche SKUs verursachen wie viel Rework? Diese Zahl ist überprüfbar. Was danach passiert, ist nicht garantiert. ROI entsteht durch Maßnahmen, nicht durch Erkenntnisse allein. Das macht die Sicherheit höher als bei indirekten Nutzenketten, aber niedriger als bei einem System, das automatisch eingreift.
Skalierbarkeit — hoch (4/5) Sobald das Dashboard läuft, kostet jede neue Kunden-SKU praktisch nichts im System. Neue Kunden, neue Produkte, neue Linien — die Analyse wächst mit. Einzig die Datenpflege und die manuelle Bewertung von Grenzfällen steigen minimal mit der SKU-Anzahl. Das macht diesen Use Case für Lohnverpacker, die wachsen wollen, besonders wertvoll: Der Analyseaufwand skaliert nicht proportional zur Portfoliogröße.
Richtwerte — stark abhängig von vorhandener Dateninfrastruktur, Anzahl aktiver SKUs und Systemintegration.
Was die Portfolioanalyse konkret macht
Das Grundprinzip ist einfacher als bei anderen KI-Anwendungen in der Produktion: Keine Sensorik, kein Machine Learning-Modell, das trainiert werden muss. Es geht um Aggregation und Mustererkennung über bestehende Datensätze hinweg.
Schritt 1 — Datenzusammenführung: Qualitätsdaten aus dem QM-System (Prüfprotokolle je Charge, Abweichungen, Rüstparameter), Reklamationen und Rücksendungen aus dem ERP und Maschinenstoppzeiten werden zu einem einheitlichen Datensatz zusammengeführt, der für jede SKU eine gemeinsame Auswertung ermöglicht. Dieser Schritt ist technisch der aufwändigste.
Schritt 2 — SKU-Profiling: Für jede der 340 aktiven SKUs werden automatisch Kennzahlen berechnet: Rework-Rate (Prozent der produzierten Einheiten, die Nacharbeit erforderten), mittlere Rüstabweichung, Reklamationsrate, Produktionseffektivität (Soll vs. Ist-Ausbringung). Diese Zahlen existieren heute schon in den Systemen — sie werden nur nie zusammengeführt.
Schritt 3 — Portfolioranking: Die KI-Analyse rankt alle SKUs nach einem kombinierten Problemindex. Das Ergebnis: Eine sortierte Liste, aus der sofort sichtbar wird, dass Produkt A mit 4 Prozent Produktionsanteil 22 Prozent der Rework-Stunden verursacht — oder dass drei SKUs eines bestimmten Kunden konsistent höhere Rüstabweichungen aufweisen als der Durchschnitt.
Schritt 4 — Ursachenhypothesen: Moderne Predictive-Analytics-Systeme können automatisch Korrelationen berechnen: Tritt das Problem bei SKU X häufiger bei bestimmten Temperaturen auf? Nur auf einer bestimmten Linie? Nur bei bestimmten Chargengrößen? Diese Korrelationen sind keine Beweise — aber sie geben dem Qualitätsteam einen Startpunkt für die Ursachenanalyse.
Was das System nicht tut: Es gibt keine Handlungsanweisung. Es sagt nicht, ob das Problem an der Maschine oder der Kundenspezifikation liegt. Diese Entscheidung trifft das Team — aber mit Datenbasis statt Bauchgefühl.
Versteckte Kosten, die kein Kunde sieht
Das ist die strukturelle Besonderheit des Lohnverpackungsgeschäfts, die diesen Use Case von anderen Qualitätsanalysen unterscheidet:
Jeder deiner Kunden sieht nur seine eigenen Produkte. Er weiß nicht, dass sein Produkt mit enger Füllgewicht-Toleranz dreimal mehr Rüstzeit braucht als der Durchschnitt. Er weiß nicht, dass seine Siegelnahtspezifikation zwar in der Norm liegt, aber an deiner Anlage regelmäßig zu Ausschuss führt. Und er hat keinen Anlass, das herauszufinden, solange du die Nacharbeit stillschweigend durchführst und deine Kalkulation irgendwie stimmt.
Das führt zu einer systematischen Quersubventionierung: Unkomplizierte Produkte finanzieren die Nacharbeit für schwierige. Die Kunden mit einfachen Spezifikationen zahlen implizit für die Kunden mit problematischen — weil die Aufschläge für Komplexität nicht spezifikationsscharf kalkuliert sind. Das ist keine böse Absicht, sondern das Ergebnis mangelnder Datensichtbarkeit.
Erst wenn du siehst, welche Produkte wie viel Rework erzeugen, kannst du drei Dinge tun:
- Interne Optimierung: Maschineneinstellung oder Prozessablauf für das problematische Produkt verbessern — ohne den Kunden überhaupt anzusprechen
- Sachliche Spezifikationsgespräche: Dem Kunden erklären, dass seine aktuelle Toleranzvorgabe auf dieser Anlage mit einem Rework-Aufschlag von X Prozent verbunden ist — und gemeinsam prüfen, ob die Spezifikation sinnvoll angepasst werden kann
- Korrekte Kalkulation: Für neue Aufträge ähnlicher Spezifikationen den realen Rework-Aufschlag in die Angebotskalkulation einrechnen — kein Raten mehr, sondern SKU-Klassen-basierte Erfahrungswerte
Keine dieser drei Maßnahmen ist ohne die Analyse möglich. Sie setzt Sichtbarkeit voraus.
Konkrete Werkzeuge — was wann passt
Für diese Analyse brauchst du kein spezialisiertes KI-System. Die meisten Lohnverpacker fahren besser mit Werkzeugen, die ihr QM-Team kennt und die keine monatelange Implementierung erfordern.
Power BI — Wenn Qualitätsdaten und ERP-Daten bereits in einer SQL-Datenbank oder in Excel-Exporten vorliegen, ist Power BI der pragmatische Einstieg. Power BI Desktop ist kostenlos, Power BI Pro kostet ab 10 Euro pro Nutzer und Monat. Du verbindest die Datenquellen, baust ein SKU-Ranking-Dashboard und kannst das Schichtleitungsteam als Viewer einbinden, ohne für jeden Nutzer eine Creator-Lizenz zu kaufen. Vorteil: Im Microsoft-365-Ökosystem keine neue Software, keine Datenmigration — nur Verbindungen und Dashboards. Nachteil: Jemand muss DAX-Formeln schreiben oder einen externen BI-Consultant engagieren.
Tableau — Für Unternehmen mit komplexeren Datenquellen und einem Analysten, der tiefer in die SKU-Korrelationen eintauchen will. Die natürlichsprachliche Ask-Data-Funktion von Tableau und die KI-gestützte Anomalieerkennung via Tableau Pulse sind für die Portfolio-Mustererkennung sehr gut geeignet. Creator-Lizenzen kosten ca. 75 USD/Monat — für eine Person, die das Dashboard aufbaut und pflegt, ist das vertretbar. Viewer-Lizenzen für das Schichtteam (ca. 15 USD/Monat) halten die Kosten überschaubar.
Julius AI — Für eine erste Analyse ohne bestehende BI-Infrastruktur. Du exportierst Qualitätsdaten als Excel-Datei, lädst sie in Julius AI hoch und fragst in natürlicher Sprache: “Welche SKUs haben die höchste Rework-Rate? Gibt es Korrelationen zwischen Kundenspezifikation und Ausschuss?” Julius erstellt Diagramme und Rankings ohne SQL- oder BI-Kenntnisse. Wichtig: Julius hosted in den USA — keine personenbezogenen Daten hochladen, und für regelmäßige Nutzung auf pseudonymisierte Daten wechseln. Für den initialen Machbarkeitsnachweis ist das der schnellste Weg.
Zusammenfassung: Wann welcher Ansatz
- Erstanalyse, kein BI-Team → Julius AI mit exportierten Daten
- Microsoft-365-Umgebung, interner BI-Aufbau gewünscht → Power BI
- Komplexere Datenquellen, tiefer Analysebedarf → Tableau
- SAP S/4HANA vorhanden und mittleres/großes Unternehmen → SAP Digital Manufacturing als Gesamtplattform
Maschinenoptimierung vs. Spezifikationsneuverhandlung
Das ist die praktisch wichtigste Entscheidung nach der Analyse — und sie wird oft reflexartig falsch getroffen.
Wenn die Portfolioanalyse zeigt, dass SKU-Gruppe X überproportional Nacharbeit verursacht, gibt es zwei Reaktionsmuster:
Reaktion A — “Wir müssen unsere Anlage verbessern.” Das ist richtig, wenn das Problem maschinenbedingt ist: falsche Kalibrierung, Verschleiß, ein Einstellungsparameter, der für das Produktsegment nicht optimal ist. Diese Maßnahme liegt vollständig in deiner Hand und verändert die Kundenbeziehung nicht.
Reaktion B — “Die Kundenspezifikation ist das Problem.” Das ist richtig, wenn das Produkt eine Toleranz fordert, die auf der vorhandenen Anlage zuverlässig nicht erreichbar ist — nicht wegen mangelnder Sorgfalt, sondern wegen physikalischer Grenzen der Anlage. Diese Erkenntnis ist unangenehm, aber handlungsrelevant.
In der Praxis werden beide Fälle oft verwechselt. Unternehmen investieren in Maschinenanpassungen für Probleme, die eigentlich Spezifikationsprobleme sind. Oder sie führen Kundengespräche über Spezifikationsänderungen für Probleme, die sie intern lösen könnten.
Die Portfolioanalyse hilft, diese Unterscheidung zu treffen — aber nur, wenn die Daten detailliert genug sind. Entscheidend ist: Zeigt das Problem für eine SKU auf mehreren Linien gleichzeitig auf? (Dann wahrscheinlich Spezifikationsproblem.) Zeigt es sich nur auf Linie 3, aber nicht auf Linie 4 mit ähnlichen Parametern? (Dann wahrscheinlich Maschinenproblem.)
Diese Diagnose erfordert, dass das System nicht nur Rework-Raten, sondern auch Linien-IDs und Maschinenparameter mit erfasst. Wer das in der Datenstruktur berücksichtigt, bekommt deutlich mehr aus der Analyse.
Datenschutz und Datenhaltung
Die Qualitätsdaten eines Lohnverpackers haben eine besondere rechtliche Sensibilität: Sie betreffen Kunden — also Dritte, deren Produkte und Spezifikationen ihr analysiert.
Sind Qualitätsdaten personenbezogen? In der Regel nein, solange es um Chargenparameter, Rework-Raten und Maschinendaten geht. Sobald aber Informationen über Endverbraucher-Reklamationen (Namen, Kontaktdaten) einfließen, oder wenn aus Produkteigenschaften auf natürliche Personen rückgeschlossen werden kann, gilt die DSGVO.
Was ist mit Kundengeschäftsgeheimnissen? Das ist das praktisch relevantere Thema: Kundenspezifikationen sind oft vertraulich — sie stehen im Vertrag unter NDA. Die interne Analyse dieser Daten zu Qualitätszwecken ist durch das legitime Interesse des Dienstleisters gedeckt. Das Teilen dieser Analyseergebnisse mit anderen Kunden oder extern ist es nicht.
Konkrete Empfehlungen:
- Analysedaten intern halten — keine externe Cloud ohne Prüfung (US-hosted Tools wie Julius AI nur für anonymisierte, nicht kundenbezogene Auswertungen nutzen)
- Power BI und Tableau bieten EU-Datenhosting — beim Vertragsabschluss EU-Region explizit wählen und einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO abschließen
- Wenn Kundennamen oder Produktbezeichnungen im Dashboard erscheinen, prüfen, wer Zugriff hat — Zugriffsrechte rollen- und personenbezogen vergeben
- Interne Analyse ist zulässig. Ergebnisse nach außen kommunizieren (z.B. in Kundengesprächen) erfordert Augenmaß: Rohzahlen zu einem Kunden nie ohne Absprache mit diesem teilen
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten Das Gros des Aufwands liegt in der Datenzusammenführung, nicht im Tool. Je nachdem, wie gut die Daten heute in den Quellsystemen strukturiert sind:
- Datenextraktion und -bereinigung (QM-System, ERP, Excel-Protokolle): 3–6 Wochen internen Aufwand oder 5.000–15.000 Euro externe Unterstützung
- Dashboard-Aufbau in Power BI oder Tableau: 1–2 Wochen oder 2.000–5.000 Euro extern
- Gesamteinrichtung: realistisch 7.000–20.000 Euro oder 4–8 Wochen interner Arbeitszeit bei vorhandener BI-Kompetenz
Laufende Kosten (monatlich)
- Power BI Pro: ab 10 Euro/Nutzer/Monat; für 5 Nutzer ca. 50 Euro/Monat
- Tableau Viewer: ca. 15 USD/Nutzer/Monat; Creator (Dashboard-Pflege): ca. 75 USD/Monat für eine Person
- Julius AI Plus für Ad-hoc-Analysen: 20 USD/Monat
- Interne Datenpflege: ca. 2–4 Stunden/Woche eines QM-Mitarbeitenden
Was du dagegenrechnen kannst Wenn du 340 SKUs produzierst und 5 Prozent der Produktionsleistung auf Rework entfallen (APQC-Median), und du mit gezielter Optimierung 25 Prozent davon beseitigst, entspricht das bei 5 Millionen Euro Jahresumsatz rund 62.500 Euro eingesparte Rework-Kosten pro Jahr. Das ist kein garantierter Effekt — er tritt nur ein, wenn nach der Analyse tatsächlich gehandelt wird. Aber er zeigt die Größenordnung des Potenzials.
Der ehrlichste Maßstab für den Projekterfolg: Hat sich die Rework-Rate für die Top-5-Problemprodukte nach 6 Monaten messbar reduziert? Wenn ja, rechnet sich die Investition mehrfach.
Typische Einstiegsfehler
1. Mit zu vielen Datenquellen auf einmal starten. Der Reflex: Alles zusammenführen — QM-System, ERP, Maschinendaten, Kundenreklamationen, Rüstprotokolle — damit die Analyse so vollständig wie möglich ist. Das führt zu monatelangen Integrationsprojekten, bevor die erste Auswertung vorliegt. Besser: Mit den zwei Hauptquellen beginnen (Rework-Protokolle und Reklamationsdaten), das erste SKU-Ranking erstellen, die wichtigsten Erkenntnisse ziehen. Weitere Datenquellen kommen in Schritt 2 und 3 dazu.
2. Das Problem-SKU-Ranking als Anklage behandeln. Wenn die Analyse zeigt, dass ein bestimmter Kunde die meisten Probleme verursacht, ist der intuitive nächste Schritt manchmal, das intern oder in der Kundenkommunikation als Vorwurf zu verwenden. Das schädigt die Beziehung — besonders wenn der Grund ein Spezifikationsmismatch ist, den ihr als Lohnverpacker genauso unterschrieben habt wie der Kunde. Besser: Die Daten als Grundlage für ein sachliches Gespräch nutzen — “Wir haben festgestellt, dass diese Spezifikation auf unserer Anlage X Prozent Rework erzeugt. Wir würden gerne gemeinsam prüfen, ob es Spielraum gibt.”
3. Das Dashboard wird eingerichtet, dann nicht gepflegt. Das ist der langfristig gefährlichste Fehler, weil er still passiert. Ein Portfolio-Analyse-Dashboard, das auf veralteten Daten läuft — weil das QM-System seit drei Monaten nicht aktuell exportiert wurde — gibt falsche Prioritäten aus. Schlechter als kein Dashboard: ein Dashboard, dem das Team vertraut, das aber falsche Ranglisten zeigt. Wer diesen Fehler vermeiden will, braucht eine namentlich benannte Person, die den wöchentlichen Datenabruf verantwortet. Keine IT-Abteilung, keine Sammelaufgabe — eine Person.
4. Nur Rework-Rate schauen, nicht Rework-Stunden. Wenn SKU A eine Rework-Rate von 8 Prozent hat und SKU B eine von 3 Prozent, wirkt A wie das größere Problem. Aber wenn A in einer Stunde fertig nachgearbeitet ist und B sechs Stunden braucht, ist B das teurere Problem. Die Analyse muss Stunden oder Kosten je Rework-Fall berücksichtigen, nicht nur Quote. Das klingt selbstverständlich — wird aber regelmäßig vergessen, weil Rework-Stunden seltener digital erfasst sind als Rework-Mengen.
Was mit der Einführung wirklich passiert — und was nicht
Die größte Überraschung bei der Einführung ist selten technisch — sie ist kulturell.
“Wir wussten das doch schon.” Der erste Blick auf das SKU-Ranking führt oft zu einer eigenartigen Reaktion: “Das haben wir doch gewusst.” Stimmt manchmal — aber meistens ist das Wissen im Bauchgefühl geblieben, nicht in Zahlen. Und Bauchgefühl reicht nicht für ein Gespräch mit einem Kunden über Spezifikationsanpassungen. Die Daten bestätigen das Wissen — und machen es handelbar.
Der Qualitätsleiter fühlt sich exponiert. Wenn die Analyse zeigt, dass bestimmte Produkte jahrelang hohe Rework-Quoten hatten, ohne dass jemand eingegriffen hat, kann das Gefühl entstehen, im Rückblick versagt zu haben. Das ist selten so gemeint — aber es ist eine reale Reaktion. Empfehlung: Die Einführung explizit als “wir schauen nach vorne”-Projekt framen, nicht als Revision vergangener Entscheidungen. Die Analyse-Erkenntnisse sind eine Grundlage für bessere Zukunftsentscheidungen, keine Fehlerprotokoll-Retrospektive.
Kundengespräche sind heikel, aber wertvoll. Das Unbehagen, einem Kunden zu sagen, dass seine Spezifikation problematisch ist, ist real. Und doch sind das oft die produktivsten Gespräche, die ein Lohnverpacker führen kann — wenn sie datenbasiert, sachlich und lösungsorientiert geführt werden. Kein Kunde hat Interesse daran, für unnötige Nacharbeit bezahlen zu lassen oder ein Produkt mit schlechter Qualitätsbilanz am Markt zu haben.
Konkret helfen:
- Das erste SKU-Ranking intern im Qualitätsteam ohne Konsequenzen vorstellen — einfach schauen, was die Daten zeigen
- Zwei bis drei Produkte als erste Pilotfälle für Verbesserungsmaßnahmen auswählen, die schnell Ergebnisse zeigen
- Kundengespräche über Spezifikationsanpassungen erst führen, wenn die interne Datenbasis drei Monate valide war
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenstatus-Analyse | Woche 1–2 | Welche Daten liegen wo vor? In welchem Format? Wie vollständig? | Daten sind schlechter strukturiert als gedacht — Bereinigung verdoppelt sich |
| Datenintegration | Woche 3–5 | Quellen verbinden, gemeinsames SKU-Schlüsselsystem anlegen, erste Export-Tests | Quellsysteme sind inkompatibel oder Exporte fehlen historische Daten |
| Dashboard-Aufbau | Woche 5–7 | SKU-Ranking bauen, Drill-down-Ebenen konfigurieren, Linien und Kunden als Filter einrichten | Erste Version zeigt Datenfehler — Nacharbeit an der Datenbereinigung nötig |
| Pilot-Analyse | Woche 7–9 | Erstes vollständiges SKU-Ranking, Hypothesen zu den Top-10-Problemkandidaten, internes Review | Team vertraut den Daten nicht — Validierung kostet 1–2 Wochen zusätzlich |
| Erste Maßnahmen | Ab Woche 9 | Verbesserungsmaßnahmen für drei bis fünf identifizierte Problem-SKUs einleiten | Maßnahmen werden priorisiert, aber ohne Umsetzungsverantwortung liegengelassen |
Wichtig: Das erste SKU-Ranking wird nicht perfekt sein. Es wird fehlende Daten haben, Ausreißer, die manuell erklärt werden müssen, und Fälle, bei denen das Team die Ursache sofort benennen kann, ohne KI-Analyse. Das ist kein Zeichen, dass das System nicht funktioniert — es ist der normale Reifeprozess.
Häufige Einwände — und was dahintersteckt
„Unsere Qualitätsdaten sind nicht gut genug.” Das ist der häufigste Einwand — und meistens nur halb wahr. Vollständige, perfekt strukturierte Qualitätsdaten haben die wenigsten. Aber “nicht perfekt” ist nicht gleich “nicht auswertbar”. Auch unvollständige Daten zeigen Muster, wenn man sie richtig aggregiert. Die erste Analyse enthüllt, welche Datenlücken die wichtigsten sind — und damit, worauf sich die Datenpflege künftig konzentrieren sollte. Wer auf vollständige Daten wartet, bevor er anfängt, wartet meistens für immer.
„Unsere Kunden würden es nicht gut finden, wenn wir ihre Produkte analysieren.” Das Gegenteil ist richtig: Kein Kunde möchte, dass sein Produkt überproportional Nacharbeit beim Lohnverpacker erzeugt — das schadet der Qualität, den Lieferzeiten und langfristig dem Preis. Wer Daten darüber hat und sachlich darüber spricht, positioniert sich als kompetenter Partner, nicht als Beschwerdeführer. Die Frage ist nicht ob du analysierst, sondern wie du über die Ergebnisse kommunizierst.
„Das macht doch eigentlich unser QM-System schon.” QM-Systeme erfassen Qualitätsdaten — aber sie aggregieren sie selten SKU-übergreifend über alle Kunden hinweg. Die meisten QM-Systeme sind darauf ausgelegt, eine Charge oder ein Produkt zu beurteilen, nicht das gesamte Kundenportfolio im Vergleich. Das Portfolio-Ranking ist der Schritt, den du zusätzlich aufbaust — nicht ein Ersatz für das QM-System, sondern eine Auswertungsschicht darüber.
Woran du merkst, dass das zu dir passt
- Du produzierst regelmäßig mehr als 50 aktive Kunden-SKUs — unter dieser Schwelle funktioniert ein wöchentliches Team-Meeting genauso gut wie ein Dashboard
- Nacharbeit und Reklamationen werden zwar dokumentiert, aber nicht systematisch nach Produkt ausgewertet — die Daten existieren, die Aggregation fehlt
- Du hast das Gefühl, dass bestimmte Kundenprodukte “immer irgendwie schwierig” sind, aber du könntest das nicht mit Zahlen belegen
- Kunden fragen nach Qualitätsberichten für ihre Produkte — und du hast keine SKU-spezifischen Zahlen, sondern nur allgemeine Aussagen
- Du kalkulierst Angebote mit Pauschalzuschlägen für Komplexität — nicht weil du keine besseren Zahlen hättest, sondern weil niemand je die Rework-Raten je SKU-Klasse berechnet hat
Wann es sich nicht lohnt — drei harte Ausschlusskriterien:
-
Weniger als 30 aktive Kunden-SKUs. Der Analyseaufwand für das Setup steht nicht in Relation zum Erkenntnisgewinn. Mit 30 SKUs kann das Qualitätsteam in einer einzigen Excel-Session eine Übersicht bauen, die dieselbe Frage beantwortet. Erst ab 60–80 SKUs oder mehr wird die Portfolio-Analyse wirklich unübersichtlich und damit das Dashboarding wertvoll.
-
Qualitätsdaten liegen ausschließlich auf Papier oder in unstrukturierten Excel-Dateien ohne einheitliche SKU-Schlüssel. Dann ist der sinnvollste erste Schritt nicht die Portfolioanalyse, sondern die Digitalisierung der Qualitätserfassung. Kein Dashboard kann Papierprotokolle auswerten. Wer hier beginnen will, startet mit einem QM-System oder einem strukturierten digitalen Erfassungsformular — die Portfolio-Analyse kommt frühestens 12 Monate danach.
-
Kein Qualitätsverantwortlicher mit Zeit und Mandat, auf die Erkenntnisse zu reagieren. Eine Portfolioanalyse, die zeigt, wo die Probleme liegen, aber niemanden hat, der daraufhin Prozesse anpasst, Kundengespräche führt oder Kalkulationsgrundlagen ändert, bringt nichts. Das System liefert Diagnosen — die Behandlung muss das Team übernehmen. Ohne diese Ressource ist das Investment falsch priorisiert.
Das kannst du heute noch tun
Exportiere aus deinem QM-System oder deinen Schichtprotokollen alle Rework-Ereignisse der letzten 12 Monate als Excel-Datei. Die Spalten, die du brauchst: SKU-Nummer, Datum, Rework-Menge, Rework-Grund (falls erfasst). Mehr ist nicht nötig für den ersten Schritt.
Lade diese Datei in Julius AI hoch — kostenlos, kein Setup. Stelle die Frage: “Which SKUs have the highest rework rate and rework volume? Show me a ranking.” Was du in 10 Minuten bekommst: ein erstes Bild davon, ob die Daten genug hergeben für eine systematische Analyse — und welche Produkte du dir genauer ansehen solltest.
Das ist keine fertige Lösung. Aber es ist der ehrlichste Test dafür, ob deine Datenbasis taugt und ob das Muster, das du vermutest, wirklich in den Zahlen steckt.
Für das strukturierte Auswertungsgespräch mit dem Team ist dieser Prompt hilfreich:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- APQC-Benchmark, Scrap und Rework als Prozentsatz der COGS: American Productivity and Quality Center, Open Standards Benchmarking Database, Kennzahl “Scrap and rework costs as a percentage of cost of goods sold”, Median 5 %; Datenbasis 4.230 Unternehmen (Stand 2025). Quelle: apqc.org. Wert öffentlich zugänglich, Quartilsdaten nur für Mitglieder.
- Fraunhofer ISI 2024 — KI-Nutzung in deutschen Produktionsbetrieben: Fraunhofer-Institut für System- und Innovationsforschung ISI, Erhebung zur Digitalisierung in der Produktion (2024); zitiert in deutschsprachigen Branchenberichten mit Stand 7 % aktiver KI-Nutzung in der Qualitätskontrolle.
- Rework-Kostenreduktion durch vernetzte Systeme: Manufacturing Quality Statistics (2025), manufacturingleadgeneration.com; Spannbreite 20–30 % Reduktion durch verbundene Qualitätssysteme gegenüber manueller Erfassung.
- Contract Packaging Association (CPA) State of the Industry: Jährlicher Branchenbericht der CPA (www.contractpackaging.org); gibt Überblick über Qualitätsmanagementtrends in der Lohnverpackung; letzter zugänglicher Bericht 2023.
- Nulogy QMS — Qualitätsmanagement für Lohnverpacker: Nulogy Corp., Software-Dokumentation für QMS in contract packaging; nulogy.com/software/qms/ (Stand April 2026). Zeigt Branchenstandard für digitales Qualitätsmanagement (FPY, PPM, CAPA-Prozesse).
- Preisangaben Power BI, Tableau, Julius AI: Veröffentlichte Tarife der jeweiligen Anbieter (Stand April 2026).
Du willst wissen, ob eure Datenbasis für eine SKU-Portfolio-Analyse ausreicht — und welche drei Produkte ihr als erste angehen solltet? Meld dich — das klären wir in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Siegelnaht-Versagensrisiko-Prognose
KI analysiert Temperatur-, Druck- und Siegelzeitdaten der Siegelstation und prognostiziert Versagensrisiken je Charge — bevor eine undichte Verpackung die Anlage verlässt.
Mehr erfahrenMaterialverschnitt-Mustererkennung
ML-Modell identifiziert welche Einstellungen und Produktwechsel-Konstellationen zu überdurchschnittlichem Folien- oder Kartonverschnitt führen — und zeigt, wie viel jede Kombination tatsächlich kostet.
Mehr erfahrenFormatwechsel-Effizienzanalyse
KI analysiert historische Umrüstdaten und zeigt, welche Formatwechsel systematisch länger dauern, welche Bediener 40 % schneller sind und welche Reihenfolge die Gesamtrüstzeit minimiert.
Mehr erfahren