Zum Inhalt springen
Lebensmittelindustrie haltbarkeitmhdnachhaltigkeit

Haltbarkeitsprognose mit KI

KI-Modelle berechnen realistische MHD-Spannen auf Basis von Produktionsparametern, Lagerbedingungen und historischen Daten — statt pauschaler Konservativwerte.

Worum geht's?

Es ist Montag, 8:15 Uhr.

Ralf ist Produktionsleiter einer Käserei-Genossenschaft in Nordrhein-Westfalen, seit vierzehn Jahren. Sein Produkt braucht Zeit: zwei Monate Mindestreifung, dann noch fünfzehn Tage bis zur garantierten Endreife. Auf diesen Richtwert verlässt er sich. Deshalb steht auf jedem Etikett derselbe Satz: „MHD — 90 Tage nach Reifeende.” Konservativ. Sicher. Unverändert seit 2018.

Nur: In dieser Woche fällt die Temperatur in den Lagerhallen auf 14 Grad — und bleibt dort vier Wochen lang. Der Alterungsprozess verlangsamt sich messbar. Das MHD rutscht nach hinten. Ralf weiß das. Er weiß nur nicht, um wie viel. Er ruft drei erfahrene Käsemeister an und einigt sich auf eine Schätzung: vielleicht zwei Wochen mehr. Diese vielleicht zwei Wochen sind 15 Tonnen Käse, die er entweder früher verkaufen müsste oder später vermarkten könnte. Bei Rohmilchkäse ist das keine akademische Frage.

Zwei Wochen später steht er im Lager. Der Käse ist stabil, die Schätzung hat gestimmt — aber er hat bereits 12.000 Euro Umsatz verschoben und fünf Paletten auf Reserve gelegt, die er hätte verkaufen können.

Das ist die Realität der Haltbarkeitsprognose: Zu konservativ — und du bindest Kapital in Überproduktion. Zu optimistisch — und der nächste Rückruf trägt deinen Namen.

Das echte Ausmaß des Problems

Die Haltbarkeitsprognose ist einer der stillen Kostentreiber in der Lebensmittelproduktion — niemand spricht darüber, weil er unsichtbar ist. Du druckst ein MHD, der Käse ist noch vollkommen genießbar, aber er ist längst aus dem Verkauf.

Laut einer Erhebung des Bundesministeriums für Ernährung und Landwirtschaft (2022) fallen in der deutschen Lebensmittelwirtschaft jedes Jahr rund 10,8 Millionen Tonnen Lebensmittelabfälle an — ein erheblicher Anteil davon durch zu früh angesetzte MHDs bei eigentlich stabilen Produkten wie Käse, Joghurt, Konserven oder Getreide. Zum Vergleich: Bei Privathaushalten liegt die Menge bei 12 Kilogramm pro Kopf und Jahr. In Herstellung und Handel ist es ein Vielfaches davon.

Das spezifische Problem der Haltbarkeitsprognose hat vier Schichten:

1. Zu konservative MHDs. Hersteller arbeiten mit Sicherheitspuffern — 20 bis 50 Prozent länger als die tatsächliche Haltbarkeit. Rechtlich sauber, betriebswirtschaftlich teuer. Ein Joghurt, der tatsächlich 45 Tage stabil bleibt, bekommt ein MHD von 35 Tagen — und wird zur Hälfte aus den Regalen geräumt, obwohl er noch sicher ist. Nach Analysen des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung (IVV) entstehen so etwa 30 bis 40 Prozent der Überproduktion in Lebensmittelbetrieben — einfach dadurch, dass aus Vorsicht gerechnet wird, nicht aus Datenlage.

2. Zu optimistische MHDs. Die andere Seite derselben Medaille: Ein Produkt wird unter Bedingungen gelagert, die der Hersteller nicht vollständig kontrolliert. Die Kühlkette reißt auf halber Strecke, die Luftfeuchtigkeit im Zielmarkt liegt höher als angenommen, der Transport dauert länger. Das Produkt verdirbt schneller als kalkuliert. Das Ergebnis: Reklamationen — im schlechtesten Fall ein Rückruf.

3. Manuelle Tests sind teuer und langsam. Um ein neues Produkt oder eine Rezepturvariante zu prüfen, führt ein Labor Lagertests durch — 4 bis 12 Wochen, je nach Produkttyp. Beschleunigte Verfahren (erhöhte Temperatur) gibt es, taugen aber nicht für jeden Produkttyp. Eine vollständige Haltbarkeitsstudie für einen neuen Käse kostet 15.000 bis 40.000 Euro.

4. Lagerungsvarianz bleibt außen vor. Dasselbe Produkt hält unterschiedlich lange — je nachdem, ob es bei 4 oder bei 8 Grad gelagert wird, wie lang der Transportweg ist, wie hoch die Luftfeuchtigkeit im Lager schwankt. Ein generisches MHD kann diese Varianz nicht abbilden. Es ist ein pauschaler Wert, obwohl die Realität dahinter kontinuierlich variiert.

Mit vs. ohne KI — ein ehrlicher Vergleich

DimensionOhne KI-PrognoseMit Haltbarkeitsprognose-KI
MHD-Bestimmung4–12 Wochen Lagertest pro Produkt2–4 Wochen Training plus laufende Anpassung
Kosten je neuem Produkt15.000–40.000 € (Labortests)2.000–8.000 € (Datenaufbereitung + Training)
Sicherheitsmarge im MHD20–50 % konservativ10–20 % datenbasiert
Überproduktion durch zu frühes MHD30–40 % ¹5–15 % (Restrisiko-Puffer)
Reklamationen wegen zu frühem Ablaufhochgering
Erkannte Temperaturabweichungenmanuell (Stichproben)automatisch (IoT, kontinuierlich)

¹ Daten basierend auf Fraunhofer-IVV-Analysen (2023) und Praxiserfahrung mittelständischer Lebensmittelunternehmen.

Einschätzung auf einen Blick

Zeitersparnis — niedrig (2/5)
Eine Haltbarkeitsprognose spart keine tägliche Arbeitszeit. Sie kostet in der Einführungsphase sogar zusätzliche Stunden — Datenbereitstellung, Modelltraining, Integration in die Produktionsplanung. Der eigentliche Nutzen ist indirekt: weniger Aufwand für Reklamationsbearbeitung und Rückrufe. Das ist reale Entlastung, aber nicht das, was man bei „Zeitersparnis” normalerweise meint. Verglichen mit Rechnungsverarbeitung oder Meeting-Protokollen bleibt die direkte Einsparung marginal.

Kosteneinsparung — hoch (4/5)
Hier liegt der Hebel. Wer jedes Jahr 30 Tonnen Käse wegen zu konservativem MHD aus dem Verkauf nimmt, verschiebt bei 12 Euro pro Kilogramm rund 360.000 Euro Umsatz — ohne dass ein Kilo verdorben wäre. Ein KI-Modell gewinnt davon realistisch 40 bis 60 Prozent zurück. Bei Einführungskosten von etwa 30.000 Euro und laufenden 8.000 Euro pro Jahr liegt der Break-even je nach Szenario bei sechs bis zwölf Monaten. Anders als bei der Allergenkennzeichnung, wo der Nutzen vor allem ein Compliance-Risiko abfedert, ist das hier ein direkter Umsatzhebel.

Schnelle Umsetzung — niedrig (2/5)
Das ist der Knackpunkt. Allein die Datenvorbereitung verschlingt 10 bis 16 Wochen — rund 80 Prozent der Projektzeit gehen in Datenbeschaffung, Bereinigung und Feature-Engineering. Das eigentliche Modelltraining dauert danach nur zwei bis vier Wochen. Bis zum produktiven Betrieb vergehen insgesamt sechs bis sieben Monate. Deutlich länger als bei der Rezepturverwaltung, die sich mit fertigen Systemlösungen in 3 bis 5 Monaten umsetzen lässt. Die Komplexität steckt nicht in der KI, sondern in der Qualität der historischen Daten.

ROI-Sicherheit — mittel (3/5)
Der ROI hängt von drei Faktoren ab, die man selten vollständig in der Hand hat. Erstens: Wie hoch ist der tatsächliche Verschwendungsanteil? Hoher Lagerumschlag reduziert das Problem, lange Distributionswege verschärfen es. Zweitens: Wie stabil sind die Lagerbedingungen? Bei einer perfekt kalibrierten Kühlkette ist der KI-Nutzen marginal. Drittens: Wie gut sind die historischen Daten? Lückenhafte Sensorlogs lassen das Modell auf Rauschen trainieren. Anders als bei der Qualitätskontrolle per Bildanalyse, wo jede Fehlerrate direkt messbar ist, bleibt der Nutzen hier indirekter und länger vom Kontext abhängig.

Skalierbarkeit — mittel (3/5)
Die klassische Einschränkung bei ML-Modellen für physische Produkte: Jede Produktkategorie braucht ihr eigenes Modell. Käse folgt anderen Regeln als Joghurt, Joghurt anderen als Konserven. Bei einem Sortiment mit 50 Produkten sind es in der Praxis 10 bis 15 Modelle, nicht 50 — clustern lässt sich zwar, aber nicht beliebig. Das ist effizienter als Einzeltests, aber nicht so elastisch wie eine rein digitale Lösung. Wer das Sortiment erweitert, erweitert auch den Modellbetrieb.

Richtwerte — stark abhängig von Produkttyp, Lagerbedingungen und Qualität historischer Daten.

Was ein KI-Modell für Haltbarkeitsprognose konkret macht

Ein Haltbarkeitsprognose-Modell ist im Kern ein Predictive-Analytics-System, das die Haltbarkeit aus messbaren Eingaben vorhersagt — nicht intuitiv, sondern mathematisch.

Das System arbeitet in drei Schritten:

1. Datensammlung und -aufbereitung — der lange Teil. Das Modell braucht historische Daten: Produktionschargen, exakte Temperaturverläufe in der Lagerung (minutengenau, nicht als Tagesmittel), Luftfeuchtigkeit, pH-Wert und Wasseraktivität des fertigen Produkts, Lagerdauer — und, der entscheidende Teil, wann der Verderb tatsächlich eingetreten ist. Diese Informationen liegen meist verstreut vor: ERP-System, IoT-Sensorik im Lager, Laborprotokolle, Excel-Listen, handgeschriebene QS-Notizen. Die Integration und Bereinigung dauert Wochen. Branchenübergreifend zeigt sich: Dieser Schritt frisst 75 bis 85 Prozent der Gesamtprojektzeit.

2. Feature-Engineering — die relevanten Variablen finden. Nicht jeder Messwert ist gleich wichtig. Ein Modell für Käse stellt zum Beispiel fest: Lagertemperatur ist kritisch, Luftfeuchtigkeit ebenfalls, der Luftdruck dagegen hat keinen Einfluss. Das Modell lernt, welche Messwerte tatsächlich prädiktiv sind. Hier hilft das Fraunhofer IVV — das Institut hat für hunderte Produkte katalogisiert, welche Parameter für welchen Produkttyp zählen.

3. Training und kontinuierliches Feedback. Das Modell wird mit den historischen Daten trainiert und sagt dann voraus: „Diese Charge wird unter den aktuellen Lagerbedingungen 92 Tage haltbar bleiben.” Im Pilotbetrieb vergleichst du die Prognosen mit echten Verderb-Ereignissen. Im besten Fall stimmt das Modell zu 85 bis 93 Prozent. Im schlechteren Fall sind die Vorhersagen zu optimistisch — dann justierst du den Sicherheitspuffer nach, bis du dem Modell vertraust.

Das Ziel ist nicht, die KI blind entscheiden zu lassen. Die produktive Form ist Modellvorhersage plus Sicherheitsmarge — KI-gestützte Optimierung, nicht KI-gesteuerte Produktion.

Konkrete Werkzeuge — was wann passt

DataRobot — die All-in-One-Plattform (wenn: Budget vorhanden, eigenes Data-Science-Team nicht) DataRobot ist eine AutoML-Plattform, die den kompletten Ablauf abdeckt: Datenvorbereitung, Feature-Auswahl, Modellauswahl, Deployment. Ein Haltbarkeitsmodell lässt sich damit in 4 bis 8 Wochen trainieren — statt in 3 bis 4 Monaten händischer Arbeit. Kostet für ein mittelständisches Unternehmen rund 40.000 bis 100.000 Euro im Jahr, inklusive Beratung. Sinnvoll, wenn kein internes ML-Team vorhanden ist oder der Zeitdruck hoch ist.

Python mit scikit-learn (Open Source) — die flexible Eigenlösung (wenn: Data-Science-Kompetenz im Haus) Die klassische Kombination für Regressionsprobleme. RandomForest, Gradient Boosting oder XGBoost lassen sich selbst aufsetzen. Die reinen Infrastrukturkosten liegen bei 2.000 bis 5.000 Euro pro Jahr — dafür ist der Zeitaufwand hoch. Mit einem erfahrenen Team: 6 bis 10 Wochen. Ohne: auch mal 20 Wochen, wenn die Datenlage schlecht ist.

Azure ML — die Cloud-Variante (wenn: Microsoft-Ökosystem im Haus) Azure ML bietet AutoML mit guter Anbindung an gängige ERP-Systeme (SAP, Oracle über Azure-Konnektoren). Kostet je nach Nutzung 15.000 bis 40.000 Euro pro Jahr. Stärke: IoT-Sensorströme lassen sich direkt einspeisen, Live-Prognosen sind technisch schnell umgesetzt. Schwäche: Die AutoML-Qualität ist solide, erreicht aber nicht das Niveau von DataRobot.

AWS SageMaker — die Skalierungs-Plattform (wenn: sehr große Datenmengen und ML-Ops im Haus) SageMaker geht tiefer, ist aber auch aufwendiger. Eher für Unternehmen mit mehr als 100 Mitarbeitenden und vorhandener ML-Ops-Disziplin. Die laufenden Kosten liegen ähnlich wie bei Azure, die Einarbeitung frisst aber zusätzliche Wochen.

Mimica Touch — die biotechnische Alternative (wenn: kein IoT-Budget, nur Regalindikation nötig) Mimica Touch ist keine KI, sondern ein bioreaktiver Gel-Sensor auf dem Etikett: Die Oberfläche verändert sich messbar, sobald das Produkt verdirbt — synchron zur tatsächlichen Lagerbelastung, nicht zur Kalenderzeit. Nicht für die Produktionsplanung gedacht, sondern für Transparenz am Verkaufspunkt. Kostet etwa 0,30 bis 0,50 Euro pro Etikett. Sinnvoll als Ergänzung zu einem KI-Modell — nicht als Ersatz.

Fraunhofer IVV — das Beratungsangebot (wenn: neues Produkt, keine historischen Daten) Das Fraunhofer-Institut für Verfahrenstechnik und Verpackung liefert Simulationen und Labortests, die erste Haltbarkeitsdaten erzeugen. Du bekommst wissenschaftlich fundierte Grundlagen, auf denen sich später ein KI-Modell trainieren lässt. Kostet etwa 10.000 bis 30.000 Euro pro Produktstudie. Der richtige Einstieg, wenn du bei Null anfängst oder eine kritische neue Rezeptur abzusichern hast.

Datenschutz und Datenhaltung

Personenbezogene Daten spielen hier nur eine untergeordnete Rolle — es werden Produktdaten verarbeitet, keine Kundendaten. Relevant sind andere Fragen:

Betriebsgeheimnisse. Deine Haltbarkeitsprognosen und die konkreten Modellergebnisse sind schützenswert. Wenn das Modell feststellt „dieser Käse hält 110 Tage, nicht 90”, ist das ein Wettbewerbsvorsprung. Das Modell gehört damit entweder auf eigene Server (on-premises) oder in eine Private-Cloud-Umgebung mit EU-Hosting — nicht in eine geteilte SaaS-Instanz. Sowohl DataRobot als auch Azure ML bieten EU-Regionen an.

IoT-Sensordaten. Wer Temperatur- und Feuchtefühler im Lager einsetzt, produziert kontinuierliche Datenströme. Die gängigen IoT-Plattformen (Azure IoT Hub, AWS IoT Core) speichern und verarbeiten grundsätzlich in der EU — aber das gehört in den Auftragsverarbeitungsvertrag geschrieben, nicht nur in die Marketingfolien.

Aufbewahrung und Löschung. Nach DSGVO sind Daten zu löschen, sobald ihr Zweck erfüllt ist. Ein Haltbarkeitsmodell braucht aber historische Daten für kontinuierliches Nachtrainieren. Praktikabler Ansatz: 24 bis 36 Monate aktiv halten, danach archivieren oder anonymisieren. Die Richtlinie gehört schriftlich in die IT-Dokumentation.

Was es kostet — realistisch gerechnet

Drei Szenarien, jeweils gerechnet auf eine Produktkategorie (Beispiel: Hartkäse, 25 Tonnen pro Jahr, die wegen zu konservativem MHD zu früh aus dem Verkauf genommen werden — bei 10 Euro pro Kilogramm entspricht das 250.000 Euro verschobenem Umsatz pro Jahr).

Szenario 1: DataRobot — alles extern, schneller Einstieg

  • Einrichtung und Training: 30.000 Euro (8 Wochen externe Beratung plus Lizenzanteil)
  • Laufend: 5.000 Euro DataRobot-Abo plus 2.000 Euro Support pro Monat
  • Rückgewinnung: 50 bis 60 Prozent des verschobenen Umsatzes = 125.000 bis 150.000 Euro pro Jahr
  • Kosten Jahr 1: 30.000 + (5.000 + 2.000) × 12 = 114.000 Euro → Break-even nach etwa 11 Monaten
  • Kosten Jahr 2: 84.000 Euro laufend → Mehrertrag abzüglich Kosten: 41.000 bis 66.000 Euro pro Jahr

Szenario 2: Python mit Open-Source-Stack — selbst gemacht, mehr Zeit, weniger laufende Kosten

  • Einrichtung und Training: 60.000 Euro (zwei Senior-Data-Scientists, 12 Wochen im Haus)
  • Laufend: 500 Euro Hosting plus rund 3.000 Euro pro Monat für Modellpflege (20 Prozent einer Stelle)
  • Kosten Jahr 1: 60.000 + 3.000 × 12 = 96.000 Euro → Break-even nach etwa 10 Monaten (bei gleicher Rückgewinnung)
  • Kosten Jahr 2: 36.000 Euro laufend → Mehrertrag abzüglich Kosten: 89.000 bis 114.000 Euro pro Jahr

Szenario 3: Hybrid — Fraunhofer-Beratung kombiniert mit DataRobot

  • Fraunhofer-Modellierungsstudie für die erste Kategorie: 20.000 Euro (6 Wochen)
  • DataRobot-Training auf Basis der Fraunhofer-Daten: 15.000 Euro (weitere 4 Wochen)
  • Laufend: 4.000 Euro DataRobot plus 1.000 Euro Support pro Monat
  • Kosten Jahr 1: 20.000 + 15.000 + (4.000 + 1.000) × 12 = 95.000 Euro → Break-even nach etwa 10 Monaten

Was in der Praxis schiefgeht:

  • Die Rückgewinnung wird überschätzt. Realistisch sind oft 30 bis 40 Prozent, nicht 50 bis 60 — weil ein Teil der Lagerüberschüsse gar nicht aus MHD-Konservativismus kommt, sondern aus Überproduktion insgesamt oder schwacher Absatzplanung.
  • Die Datenvorbereitung dauert länger. 10 Wochen ist das Best-Case-Szenario. Mit fragmentierter IT-Landschaft werden daraus 16 bis 20.
  • Die erste Modellgenauigkeit liegt niedriger als beworben. 75 bis 80 Prozent zum Start sind normal, nicht die vertrieblich versprochenen 93.

Realistische Erwartung: Break-even nach 9 bis 14 Monaten, wenn du ein substanzielles Abfallproblem hast. Liegt der Verlust unter 50.000 Euro pro Jahr, rechnet sich das Projekt in dieser Form nicht — dann sind schlankere Mittel wie bessere Kühlkettenüberwachung der bessere erste Schritt.

Drei typische Einstiegsfehler

Fehler 1: Das Projekt starten, bevor die Daten tragen. Die häufigste Falle. Die Business-Case-Rechnung sieht gut aus, also wird begonnen. Die Daten sind aber lückenhaft — Sensorausfälle, fehlerhafte manuelle Einträge, Versionskonflikte zwischen Systemen. Das Modell wird trainiert und liefert Prognosen, aber sie sind unpräzise. Statt „92 Tage” sagt es „85 bis 100 Tage” — zu breit, um produktiv zu arbeiten. Drei bis vier Monate Datenvorbereitung vor dem Modelltraining sind nicht verhandelbar. Das ist die unspektakuläre Arbeit, die zwischen einem Modell im Einsatz und einem Modell in der Schublade steht.

Fehler 2: Das alte MHD-Wissen zu früh abschalten. Wenn das Modell fertig ist, kommen die Widerstände: „Alles schön, aber ich sehe den Käse an und sage dir, er hält nicht 100 Tage.” Die emotionale Komponente ist real — und sie hat in Jahrzehnten Erfahrung auch oft recht gehabt. Das Muster, das in der Praxis funktioniert: nicht sofort umstellen, sondern drei Monate parallel fahren. Das Modell sagt X, die bisherige Regel sagt Y — gedruckt wird Y, dokumentiert wird die Abweichung. Nach drei Monaten hast du datengestützte Evidenz und das Vertrauen im Team. Erst dann umstellen.

Fehler 3: Die Wartung vergessen. Das Modell wird trainiert, ausgerollt — und liegen gelassen. Nach sechs Monaten hat sich die Produktionsanlage verändert, ein neues Rohstofflos kommt von einem anderen Lieferanten, die Rezeptur wurde leicht angepasst. Die Vorhersagen werden schleichend ungenau. Ein Haltbarkeitsmodell braucht mindestens alle drei Monate einen Retraining-Lauf. Das passiert nicht von allein — es muss als feste Aufgabe im Projektplan stehen, mit Verantwortlichkeit und Termin. Der tatsächliche Aufwand: zwei bis vier Arbeitstage pro Quartal. Wer das übersieht, hat in zwölf Monaten wieder da gearbeitet, wo er vor dem Projekt stand.

Was mit der Einführung wirklich passiert — und was nicht

Was passiert:

  • Erste Euphorie (Woche 1–3). Geschäftsführung und Produktionsleitung sehen das Modell, verstehen die Logik, freuen sich auf die Einsparungen. Die Präsentationen sind gut.
  • Datenlawine (Woche 4–8). Das Projektteam sitzt im ersten Rohdaten-Dump und stellt fest: 30 Prozent der Sensorwerte sind Duplikate, Ausreißer oder Fehlwerte. Aus „10 Wochen Datenvorbereitung” werden 16. Die Planung rutscht um vier bis sechs Wochen nach hinten. Niemand findet das lustig.
  • Pilotzweifel (Woche 12–16). Das erste trainierte Modell liefert Prognosen, die „merkwürdig” wirken. Ein Produkt, dem der Qualitätsleiter auf den ersten Blick 30 Tage zutrauen würde, sagt das Modell 50 Tage voraus. Jetzt muss entschieden werden: Lernen wir zu vertrauen — oder justieren wir das Modell nach? Diese Phase kostet emotional mehr als technisch.
  • Vorsichtige Integration (Woche 20–24). Einführung parallel zu den bestehenden Regeln. Erst mitlaufen lassen, nicht ersetzen. Erst markieren, dann übernehmen.
  • Volle Nutzung (ab Monat 6). Das Modell läuft in der Produktionsplanung mit. Die Abfallquoten sinken messbar, die MHD-Bestimmungen werden differenzierter, die Diskussionen im Team verlagern sich von „was glauben wir?” zu „was sagen die Daten?”.

Was nicht passiert:

  • Kein „Plug and Play”. Das Marketing der AutoML-Anbieter suggeriert „vier Wochen, dann läuft’s”. In der Realität sind es sechs bis sieben Monate bis zur produktiven Nutzung.
  • Keine automatische Rückrufvermeidung. Das Modell sagt nicht „diese Charge ist verdorben”. Es sagt „diese Charge ist ein statistischer Ausreißer — bitte manuell prüfen”. Rückrufe werden nicht eliminiert, aber gezielter vermieden.
  • Keine Einsparung an Stellen. Ein Arbeitsprozess wird digital unterstützt, nicht ersetzt. Es braucht weiterhin einen Menschen, der das Modell überwacht, neue Daten einordnet und das regelmäßige Nachtraining steuert.

Widerstandsmuster und was dagegen hilft:

WiderstandWas dahinterstecktWas hilft
„Das Modell ist zu pessimistisch.”Die ersten Modelle erben die konservativen Schätzungen der Vergangenheit, weil sie auf dieser Historie trainiert wurden.Historische Verderb-Daten zeigen: War wirklich alles verdorben — oder nur „verdächtig” und vorsichtshalber aussortiert?
„Wir brauchen da noch einen Experten-Check.”Der Black-Box-Charakter lässt sich schwer vertrauen.Erklärbarkeit einbauen: das Modell zeigt die wichtigsten Einflussfaktoren — warum sagt es „92 Tage”?
„Das macht zu viel Aufwand im Alltag.”Schlechte Integration — die Prognose erscheint in einer separaten Oberfläche, nicht im Produktionsplan.In den bestehenden Produktionsablauf integrieren, nicht als parallelen Report.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Vorbereitung und Datenmapping4 WochenKickoff, IT-Zugänge klären, Datenquellen inventarisierenBestandssysteme sind älter als gedacht, Schnittstellen fehlen
Datenaufbereitung8–12 WochenSammlung, Bereinigung, Feature-EngineeringDatenlücken größer als erwartet, Sensorfehlerquoten über 20 Prozent, manuelle Einträge unzuverlässig
Modelltraining und Evaluation4–6 WochenTraining, Validierung, erste Ergebnisse prüfenGenauigkeit bleibt unter 80 Prozent oder das Modell hat zu viele Ausreißer
Pilotkalibrierung4–8 WochenParallelbetrieb zu den bisherigen Regeln, Feedback einholen, Sicherheitsmarge justierenProduktionsleitung misstraut den Vorhersagen, will mehr Puffer
Vollständige Integration2–3 WochenMHD-Prozess umstellen, Schulung, Go-LiveNach wenigen Wochen rutschen Teile des Teams in alte Routinen zurück
Insgesamt22–34 Wochen (ca. 6–8 Monate)

Kritische Meilensteine:

  • Nach Woche 8: Rohdaten-Qualität freigegeben
  • Nach Woche 16: Modellgenauigkeit ≥ 82 Prozent
  • Nach Woche 24: Parallelbetrieb ohne Reibung
  • Nach Woche 30: Abfallquote sinkt messbar

Häufige Einwände — und was dahintersteckt

Einwand 1: „Wir kennen unsere Produkte. Das braucht keine KI.”

Was dahintersteckt: berechtigtes Vertrauen in Erfahrung. Die meisten MHD-Festlegungen in einem eingespielten Betrieb sind rational und sicher — erfahrenes Personal trifft hier nicht schlecht.

Der Punkt: Erfahrung skaliert nicht mit der Varianz der Lagerbedingungen. Wenn die Kühlkette nicht konstant bei 4 Grad liegt, sondern zwischen 2 und 6 Grad schwankt, ändert sich die Haltbarkeit um zwei bis drei Wochen — und das sieht der Käsemeister im Tagesgeschäft nicht. Ein Modell findet Muster in 24 Monaten Sensordaten, die ein einzelner Mensch nicht gleichzeitig im Kopf halten kann. Das ersetzt Erfahrung nicht, aber es ergänzt sie um etwas, das Erfahrung nicht leisten kann.

Einwand 2: „Das kostet zu viel, und der Nutzen ist unsicher.”

Was dahintersteckt: eine rationale Befürchtung. Die Break-even-Rechnung ist nicht trivial — unter 50.000 Euro Abfallverlust pro Jahr rechnet sich das Projekt tatsächlich nicht.

Der Punkt: Die Haltbarkeitsprognose ist nicht nur ein Abfallthema, sondern ein Geschwindigkeitsthema. Ein neues Produkt ans Laufen zu bringen dauert mit klassischen Lagertests rund sechs Monate, mit einem trainierten Modell zwei. Dieser Unterschied taucht nicht auf der Abfallrechnung auf, wird aber im Sortimentsmanagement schnell zum eigentlichen Hebel.

Einwand 3: „IoT-Sensorik ist zu teuer und zu aufwendig.”

Was dahintersteckt: die Sorge vor neuer Abhängigkeit von einer weiteren Technologieschicht.

Der Punkt: Ein Modell braucht nicht zwingend dichte IoT-Abdeckung. Es funktioniert auch mit chargenbasierten Daten: Produktionsdatum, Laborwerte zum Produktionsende, durchschnittliche Lagertemperatur, Lagerdauer. Das ist manuelle Dateneingabe — kein neues System, keine neue Infrastruktur. Die Modellgenauigkeit ist damit etwas geringer, aber immer noch klar besser als eine pauschale Regel.

Woran du merkst, dass das zu dir passt

✓ Du hast mehr als eine Produktkategorie und in mindestens zwei davon ein spürbares Abfallproblem ✓ Deine Abfallquote liegt über 5 bis 7 Prozent des Produktionsvolumens (bei kleineren Herstellern oft deutlich darüber) ✓ Die MHD-Bestimmung stützt sich bislang auf Erfahrung und ältere Laborprotokolle, nicht auf systematische Messungen ✓ Im Lager sind zumindest Temperaturfühler vorhanden, auch wenn sie noch nicht in ein zentrales System einlaufen ✓ Dein IT-Budget lässt 50.000 bis 100.000 Euro für ein datengestütztes Projekt zu ✓ Das Team ist bereit, Entscheidungen auf Datenbasis zu treffen — nicht nur „wie immer”

Wann das nicht zu dir passt:

✗ Dein Produkt ist ein Schnelldreher mit mehr als zwei Umschlägen pro Monat — dann ist Haltbarkeit nicht der zentrale Hebel ✗ Deine Lagerbedingungen sind unkontrolliert oder extrem variabel (zum Beispiel offener Straßenhandel) — das Modell wird nie zuverlässig sein ✗ Du hast keine historischen Verderb-Daten, nur MHD-Papierprotokolle — das Modelltraining wird zu unsicher ✗ Dein Unternehmen hat weniger als 20 Mitarbeitende — der Projekt-Overhead übersteigt den Nutzen ✗ Dein Produkt fällt unter strikte regulatorische Vorgaben (Arzneimittel, bestimmte Spezialprodukte) — dann bleiben Lagertests verpflichtend; ein KI-Modell wäre nur ergänzend, nicht ersetzend

Das kannst du heute noch tun

Schritt 1: Datenquellen inventarisieren (1–2 Tage). Schreib auf, wo deine historischen Daten sitzen: ERP-System, Sensorik im Lager, Excel-Listen im QS-Ordner, handgeschriebene Protokolle. Wer hat Zugriff? Wie zuverlässig sind die einzelnen Quellen? Diese Bestandsaufnahme ist die Grundlage für jedes realistische Angebot eines Dienstleisters.

Schritt 2: Den Abfall konkretisieren (1 Woche). Nicht „ungefähr 10 Prozent Abfall”, sondern: Welche Produkte wurden in den letzten 12 Monaten als Abfall verbucht, zu welchem Zeitpunkt, aus welchem Grund, in welchem finanziellen Volumen? Ohne diese Zahl ist jede ROI-Rechnung Fiktion.

Schritt 3: Eine Pilotkategorie auswählen (1 Tag). Nicht alle Produkte gleichzeitig. Eine Kategorie mit erkennbarem Abfallproblem und einigermaßen vollständigen Daten — zum Beispiel Hartkäse, Joghurt oder eine Konservenlinie. Diese erste Kategorie ist der Pilot. Erst wenn sie trägt, überträgst du das Modell auf die nächste.

Haltbarkeits-Analyse für eine Produktcharge
Du bist Qualitätsanalyst in einem Lebensmittelbetrieb. Ich gebe dir Daten zu einer Produktcharge und möchte, dass du das realistische Haltbarkeitsfenster (in Tagen ab Produktion) einschätzt. [PRODUKTDATEN] - Produkttyp: Hartkäse - Lagerbedingungen: Durchschnitt 6 °C, Luftfeuchtigkeit 65 % ± 5 % - Lagerdauer bisher: 45 Tage - Sensorische Prüfung: keine Auffälligkeiten (kein Schimmel, kein abweichender Geruch) - Verpackung: Vakuum, verschweißt - Chargenhistorie: Vergleichbare Chargen waren in den letzten 24 Monaten 85–95 Tage haltbar [FRAGE] Wie viele zusätzliche Tage (zusätzlich zu den bereits gelagerten 45) würdest du diese Charge haltbar einschätzen? Gib deine Antwort in diesem Format: - Wahrscheinlichste Restlebensdauer: X Tage - Konservativer Puffer: Y Tage - Absolutes Minimum (wann erneut zu prüfen): Z Tage
Funktioniert mit Notion, Excel, Python mit pandas
Beispiel-Ausgabe

Mitarbeiter:in

Hartkäse, 45 Tage gelagert, 6°C, Vakuum, keine Auffälligkeiten, historisch 85–95 Tage Haltbarkeit

KI-Assistent

Wahrscheinlichste Restlebensdauer: 45–50 Tage (auf Basis von Historie und aktuellen Lagerbedingungen) Konservativer Puffer: 30 Tage (Freigabedatum damit bei 75–80 Tagen ab Produktion statt bei 90) Absolutes Minimum: 20 Tage (Qualitätsprüfung vor Verkauf nach Tag 65) Begründung: Die Chargenhistorie deutet auf 85–95 Tage Haltbarkeit hin. Bei konsistenten Lagerbedingungen (6°C konstant, Vakuumverpackung) lässt sich die obere Grenze dieses Intervalls ansetzen. Der bisherige Sicherheitspuffer sinkt damit von rund 30 Prozent (MHD 90, echte Haltbarkeit 85) auf etwa 15 Prozent — ohne die Sicherheit zu verlieren.

Quellen & Methodik

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar