Retrofit-Opportunitätserkennung
KI analysiert Altersstruktur, Ausfallhistorie und Energieverbrauch des Maschinenparks und identifiziert, welche Altmaschinen den höchsten Nachrüst-ROI versprechen.
Es ist November, kurz vor der Budgetrunde.
Thomas ist Instandhaltungsleiter in einem mittelständischen Presswerkunternehmen mit 27 Produktionsanlagen. Die Geschäftsführerin hat ihm eine klare Ansage gemacht: 600.000 Euro stehen für Maschinenmodernisierungen zur Verfügung — welche drei Anlagen haben Priorität?
Thomas weiß aus dem Bauchgefühl, dass Presse 12 und Presse 7 schlechte Kandidaten sind. Er weiß auch, dass der Tiefziehsimulator von 2006 in letzter Zeit Probleme macht. Aber wenn er gefragt wird, warum genau — mit Zahlen — kommt er ins Schwimmen. Die Ausfallzeiten stehen in Papierformularen aus dem letzten Jahr. Die Energieverbrauchsdaten gibt es für manche Maschinen aus dem ERP, für andere nicht. Das Baujahr kennt er für achtzehn der siebenundzwanzig Anlagen auswendig, für den Rest müsste er in alten Anlagenakten nachschlagen.
Er tippt seine Einschätzung in ein Word-Dokument, benennt drei Maschinen, schreibt dazu, dass “die Ausfallhäufigkeit gestiegen ist” und “die Energieeffizienz nicht mehr zeitgemäß” sei. Die Geschäftsführerin unterschreibt. 600.000 Euro fließen.
Ob es die richtigen drei Maschinen waren, wird niemand mehr prüfen.
Das echte Ausmaß des Problems
Die Investitionsentscheidung von Thomas ist kein Sonderfall — sie ist der Standard. In den meisten mittelständischen Fertigungsunternehmen liegt keine systematische Datengrundlage für Maschinenmodernisierungen vor. Entscheidungen über CapEx-Budgets in fünf- bis siebenstelliger Höhe basieren auf der Erinnerung des Instandhaltungsleiters, auf halbgaren Excel-Listen und auf dem politischen Gewicht bestimmter Produktionsbereiche.
Das hat konkrete Konsequenzen: Der ZVEI (Verband der Elektro- und Digitalindustrie) hat berechnet, dass allein bei elektrischen Antrieben in der deutschen Industrie jährlich 27,5 Milliarden Kilowattstunden Strom unnötig verbraucht werden — entsprechend rund 2,2 Milliarden Euro Mehrkosten, die durch Modernisierung vermeidbar wären. Moderne Antriebe sparen je nach Anwendung 15 bis 40 Prozent Energie gegenüber Altanlagen. Das ist kein theoretischer Wert — er gilt für Motoren, die seit zwanzig Jahren mit Nennstrom laufen, obwohl eine variable Drehzahlregelung den Verbrauch halbieren würde.
Die Entscheidungsgrundlage fehlt nicht, weil die Daten nicht existieren. Sie fehlt, weil die Daten an fünf verschiedenen Stellen liegen: Ausfallprotokolle im CMMS oder auf Papier, Energiedaten im SCADA-System oder in Monatszählerexporten, Baujahre in Anlagenkarteikarten, Wartungskosten im ERP, Ersatzteilbestellungen in einem anderen Modul. Niemand hat sie je zusammengeführt.
Die Folge ist eine stille Fehlallokation: Geld fließt zu den Maschinen, deren Probleme am lautesten kommuniziert werden — nicht zu denen, bei denen eine Modernisierung den größten ROI hätte. Laut KfW Research investieren Unternehmen mit älterer Unternehmensleitung systematisch weniger, und wenn, dann weniger zielgerichtet: Die Investitionsintensität zwischen Unternehmen mit jüngerer und älterer Führung unterscheidet sich um bis zu 20 Prozentpunkte. Das ist keine Kompetenzfrage — es ist ein Datenproblem. Wer keine verlässliche Entscheidungsgrundlage hat, investiert lieber gar nicht.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne systematische Analyse | Mit ML-Retrofit-Scoring |
|---|---|---|
| Entscheidungsgrundlage | Erfahrungswissen des Instandhaltungsleiters | Quantifizierter Score aus Ausfallhistorie, Alter, Energieverbrauch |
| Dokumentation des Investitionsantrags | 1–2 Seiten Freitext | Datenbasierter Bericht mit Quellenangaben je Maschine |
| Anzahl betrachteter Faktoren je Maschine | 2–3 (bekannte Problemmaschinen) | Vollständiger Maschinenpark parallel |
| Überprüfbarkeit nach 2 Jahren | Nicht möglich — keine Baseline | Möglich: tatsächlicher Zustand vs. priorisierte Liste |
| Gefahr politischer Einflussnahme | Hoch — wer am lautesten klagt, bekommt Budget | Reduziert — Score ist transparent und nachvollziehbar |
| Zeitaufwand Investitionsvorbereitung | 1–3 Wochen Instandhaltungsleiter | 2–4 Tage nach Einrichtung des Modells |
Der entscheidende Unterschied liegt nicht in der Treffsicherheit der Prognose — er liegt in der Qualität der Dokumentation. Ein strukturierter Score erklärt nicht nur, welche Maschine Priorität hat, sondern warum: Ausfallkosten im letzten Jahr, Energieverbrauch im Vergleich zu modernen Alternativen, Alter relativ zur technischen Lebensdauer laut Herstellerangabe.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5) Das ist kein Werkzeug, das täglich Zeit spart. CapEx-Entscheidungszyklen laufen ein- oder zweimal pro Jahr, und der eigentliche Aufwand — Daten zusammenführen, Modell einrichten, Ergebnisse interpretieren — passiert in Blöcken, nicht kontinuierlich. Verglichen mit Predictive Maintenance, das täglich Stillstandszeit verhindert, oder der automatisierten Wartungskalender-Optimierung, die wöchentlich Planungsaufwand einspart, ist das ein klarer Unterschied.
Kosteneinsparung — sehr hoch (5/5) Das ist die Stärke dieses Anwendungsfalls — und der Grund, warum er trotz niedriger Zeitersparnis und schwieriger Umsetzung relevant bleibt. Eine falsch gesetzte Investitionspriorität bei einem Maschinenpark mit 20+ Anlagen kann bedeuten: 400.000 Euro für eine Maschine, die fünf Jahre später trotzdem ausgetauscht werden muss, statt 200.000 Euro für die Anlage, deren Modernisierung die Wartungskosten um 60 Prozent gesenkt hätte. Das ist die höchste Kostenwirkung im gesamten Maschinenbau-Portfolio dieses Vergleichs — weil vermiedene Fehlinvestitionen keine Fußnote sind, sondern echte CapEx-Einsparungen.
Schnelle Umsetzung — niedrig (2/5) Das Problem liegt nicht in der KI — das Problem liegt in den Daten. Bevor das Modell laufen kann, muss ein vollständiges Maschinenbild vorliegen: Baujahr, Ausfallzeiten, Wartungskosten, Energieverbrauch — für jede Anlage, nicht nur die bekannten Probleme. In der Praxis des deutschen Mittelstands fehlen mindestens ein Drittel dieser Felder je Maschine. Die Inventur dauert drei bis sechs Monate. Damit gehört dieser Anwendungsfall zu den schwierigsten Einstiegsprojekten im Maschinenbau-Kontext.
ROI-Sicherheit — niedrig (2/5) Das Counterfactual-Problem ist real: Du kannst zeigen, dass Maschine A laut Score höchste Priorität hatte — aber du kannst nicht beweisen, dass die Entscheidung ohne das Modell anders ausgefallen wäre. Wenn der Instandhaltungsleiter die gleiche Maschine auch intuitiv gewählt hätte, war der Modell-Beitrag begrenzt. Die ROI-Sicherheit ist nur dann hoch, wenn das Modell eine nicht-offensichtliche Maschine priorisiert — und wenn diese Entscheidung nachweislich besser war als die intuitive Alternative. Das lässt sich oft erst nach zwei bis drei Jahren beurteilen.
Skalierbarkeit — mittel (3/5) Ein einmal aufgebautes Scoring-Modell lässt sich auf weitere Standorte übertragen — gleiche Methodik, gleiche Gewichtungen, anderer Datensatz. Aber die Datenerfassung muss je Werk neu geleistet werden. Das ist kein automatischer Multiplikator, sondern schrittweise Ausrollung.
Richtwerte — stark abhängig von der Qualität der vorhandenen Maschinendaten und der Anzahl der Anlagen im Park.
Was das Scoring-Modell konkret macht
Das Modell ist kein Blackbox-Algorithmus, der magisch die richtige Antwort ausspuckt. Es ist eine strukturierte Auswertung, die Faktoren, die bisher in verschiedenen Systemen isoliert lagen, zu einem einzigen Score je Maschine zusammenführt.
Die typischen Eingabefaktoren:
Alter und technische Lebensdauer — Das Baujahr allein sagt wenig. Relevant ist, wie weit die Anlage in ihre technische Lebensdauer eingetaucht ist. Eine Presse mit 18 Jahren und einer Herstellerempfehlung von 25 Jahren ist anders zu bewerten als ein Bearbeitungszentrum mit demselben Alter, das ursprünglich auf 15 Jahre ausgelegt war. Diese Information steckt in den Anlagenstammdaten — wenn sie gepflegt wurden.
Ausfallhistorie und Stillstandskosten — Wie oft ist die Maschine in den letzten zwölf Monaten ungeplant ausgefallen? Wie lang waren die Stillstände in Stunden? Was haben die Reparaturen jeweils gekostet? Aus CMMS-Systemen oder, falls vorhanden, aus SAP PM lassen sich diese Daten exportieren. Was nicht digital vorliegt, muss manuell nacherfasst werden — das ist der aufwendige Teil.
Energieverbrauch im Vergleich — Verbraucht die Maschine deutlich mehr Strom als technisch notwendig? Der ZVEI hat berechnet, dass Antriebe der IE3-Klasse gegenüber modernen IE4-Motoren 15 Prozent mehr Energieverluste erzeugen. Für Maschinen mit hoher Betriebsstundenzahl bedeutet das reale Mehrkosten von 5.000 bis 25.000 Euro pro Jahr — je nach Leistungsklasse.
Wartungskosten-Trend — Steigen die Wartungskosten je Betriebsstunde? Eine Anlage, bei der Reparaturkosten in den letzten drei Jahren von 8.000 auf 22.000 Euro gestiegen sind, sendet ein klares Signal — aber dieses Signal sieht man nur, wenn die Zahlen über mehrere Jahre vergleichbar vorliegen.
Das Modell gewichtet diese Faktoren — z. B. 30 Prozent Alter, 40 Prozent Ausfallkosten, 20 Prozent Energieverbrauch, 10 Prozent Wartungstrend — und gibt je Maschine einen Score aus. Wichtig: Die Gewichtung ist eine Entscheidung des Unternehmens, keine Vorgabe des Algorithmus. Ein Unternehmen, das Energieeffizienz als strategische Priorität setzt, gewichtet anders als eines, das primär auf Stillstandsvermeidung optimiert.
Das Machine Learning kommt dann ins Spiel, wenn der Maschinenpark groß genug ist, um aus historischen Mustern zu lernen: Welche Kombination von Faktoren hat in der Vergangenheit am verlässlichsten zu eskalierenden Kosten geführt? Bei unter 30 Maschinen ist ein einfaches gewichtetes Scoring ohne ML-Modell in der Regel ausreichend.
Warum die Maschinenpark-Inventur das eigentliche Projekt ist
Das klingt wie ein Detail — es ist aber der entscheidende Punkt, der die meisten Retrofit-Scoring-Vorhaben schon in der Startphase scheitern lässt oder deutlich verlangsamt.
Bevor das erste Modell läuft, muss ein vollständiges Bild des Maschinenparks vorliegen. In der Praxis sieht das oft so aus:
- Baujahr und Anlagentyp: Für 60–70 Prozent der Maschinen vorhanden (ERP, Anlagenkartei). Für den Rest: Typenschilder ablesen, Herstellerdokumente suchen, Baujahr schätzen.
- Ausfallhistorie: Für Unternehmen mit CMMS digital verfügbar. Für Unternehmen ohne CMMS: Papierformulare aus den letzten drei bis fünf Jahren manuell digitalisieren. Das dauert.
- Energieverbrauch: Selten je Maschine gemessen. Entweder Subzähler vorhanden (selten), oder Schätzung über Nennleistung × Betriebsstunden × Auslastungsfaktor (grobe Näherung).
- Wartungskosten: Im ERP vorhanden, aber oft falsch zugeordnet — Materialkosten in einem Konto, Stundenaufwände in einem anderen, Fremdfirmenkosten in einem dritten.
Die Inventur ist ein Projekt für sich. Sie dauert typisch drei bis sechs Monate für einen Maschinenpark mit 20 bis 60 Anlagen — nicht weil es technisch schwierig ist, sondern weil es Fleißarbeit ist, die parallel zum Tagesgeschäft läuft, und weil sich bei fast jeder Anlage Überraschungen ergeben.
Das ist aber nicht nur Aufwand. Die Inventur hat einen Wert jenseits des Scoring-Projekts: Viele Unternehmen entdecken während der Inventur, dass Maschinen, die als “laufend” gelten, in keiner Systemdokumentation korrekt erfasst sind — oder dass Anlagen der gleichen Bauart je nach Wartungsverantwortlichem völlig unterschiedliche Kostenbilanzien aufweisen, weil die Zuordnung nie einheitlich war.
Die Inventur ist also gleichzeitig eine Qualitätssicherung der eigenen Anlagendaten. Wer das Ergebnis nur als Vorarbeit für den ML-Score betrachtet, unterschätzt ihren eigenständigen Wert.
Der Investitionsantrag ist die Hauptsache — nicht der Score
Hier liegt der zentrale Denkfehler in der Diskussion um KI-gestützte Investitionsentscheidungen: Das Modell entscheidet nicht. Es informiert.
Die Geschäftsführerin, die über 600.000 Euro CapEx-Budget entscheidet, wird sich nicht auf einen ML-Score verlassen — das wäre auch falsch. Sie wird Faktoren einbeziehen, die das Modell nicht kennt: strategische Prioritäten für die nächsten fünf Jahre, Lieferantenbeziehungen, Mitarbeitersituation in bestimmten Fertigungsbereichen, Förderprogramme der KfW oder des BAFA, Abschreibungsfristen.
Was das Modell leistet, ist etwas anderes und weitaus Wertvolleres: Es strukturiert den Investitionsantrag so, dass er standhält.
Ein Antrag mit Datenbasis sieht so aus:
- Maschine A: Score 87/100. Ausfallkosten 2023: 34.500 €. Energiemehrverbrauch gegenüber Referenzanlage: ca. 18.000 €/Jahr. Alter: 19 Jahre, technische Lebensdauer: 20 Jahre. Wartungskosten-Trend: +40 % in den letzten drei Jahren.
- Maschine B: Score 71/100. Ausfallkosten 2023: 12.200 €. Energiemehrverbrauch: ca. 7.400 €/Jahr. Alter: 14 Jahre.
Ein solcher Antrag überlebt eine Budgetdiskussion. Er gibt der Geschäftsführerin die Möglichkeit, informiert zu entscheiden — oder bewusst abzuweichen, wenn strategische Gründe das rechtfertigen.
Das ist der echte Mehrwert: Nicht “die KI sagt Maschine A”, sondern “hier ist die Datengrundlage, mit der ihr die richtige Diskussion führen könnt.” Die Entscheidung bleibt beim Menschen — aber sie ist jetzt eine informierte Entscheidung.
Konkrete Werkzeuge — was wann passt
Die technische Umsetzung hängt stark davon ab, was bereits vorhanden ist und wie viel IT-Kapazität zur Verfügung steht.
Power BI (freemium, Microsoft) — Für Unternehmen, die ERP-Exporte oder CMMS-Daten als Excel/CSV verfügbar haben, ist Power BI der einfachste Einstieg in eine strukturierte Visualisierung. Power BI Desktop ist kostenlos und verbindet sich direkt mit Excel-Tabellen, SAP und SQL-Datenbanken. Die Scoring-Logik wird als berechnete Spalte modelliert — kein Python, kein ML-Framework nötig. Der erste Retrofit-Score-Bericht ist in einem bis zwei Tagen aufgebaut, wenn die Daten bereit sind. Power BI Pro kostet 12,10 Euro/Nutzer/Monat für Sharing und kollaboratives Arbeiten.
MaintainX (freemium, CMMS) — Für Unternehmen ohne digitale Wartungshistorie ist MaintainX der sinnvolle erste Schritt. Das Tool sammelt Ausfallmeldungen, Reparaturzeiten und Wartungskosten je Anlage und exportiert sie als CSV — genau die Datengrundlage, die das Scoring-Modell braucht. Der kostenlose Plan ist für erste Schritte nutzbar; für vollständigen Datenexport und Reports wird der Essential-Plan für 16 USD/Nutzer/Monat benötigt. Wichtig: Datenhaltung in den USA — für Unternehmen mit strengen Datenanforderungen keine Option.
IBM Maximo (enterprise, EAM) — Für Fertigungsunternehmen, die IBM Maximo bereits einsetzen, sind alle relevanten Daten bereits vorhanden: Anlagenstammdaten, Wartungshistorie, Ersatzteilkosten, Arbeitsstunden. Maximo bietet integrierte Predictive Analytics-Module, die direkt auf diesen Daten operieren. Gesamtkosten bei Mittelstand-Deployment: 3.000–8.000 USD/Monat plus Implementierungsaufwand — nur sinnvoll, wenn Maximo bereits im Einsatz ist oder ein umfassendes EAM-Projekt geplant wird.
SAP PM via SAP S/4HANA (enterprise, ERP) — In SAP-Landschaften ist das Plant Maintenance-Modul (PM) die Quelle der Wahrheit für Wartungskosten und Instandhaltungshistorie. Daten lassen sich über Standard-Reports (IW29, IW39) oder über SAP Analytics Cloud für die Scoring-Analyse exportieren. Der Aufwand für die Datenextraktion ist überschaubar — das Know-how liegt meist intern vor oder bei einem SAP-Partner.
Zusammenfassung:
- Keine digitale Wartungshistorie vorhanden → zuerst MaintainX einführen, sechs Monate Daten sammeln, dann analysieren
- Microsoft-365-Umgebung, Daten als Excel/CSV exportierbar → Power BI für Scoring und Dashboard
- SAP-Landschaft vorhanden → SAP PM Datenexport + Power BI oder SAP Analytics Cloud
- IBM Maximo bereits im Einsatz → integrierte Maximo Predict nutzen
Datenschutz und Datenhaltung
Maschinendaten — Ausfallzeiten, Wartungskosten, Energieverbrauchswerte — sind in der Regel keine personenbezogenen Daten im Sinne der DSGVO. Die datenschutzrechtliche Komplexität bei diesem Anwendungsfall ist damit vergleichsweise gering.
Es gibt zwei Ausnahmen:
- Wenn Wartungsprotokolle Personenbezug enthalten — also Techniker namentlich erfasst sind, die welche Reparatur durchgeführt haben. Das ist im SAP-PM-Standard oft der Fall. Diese Daten sollten vor der Übergabe ans Scoring-Modell anonymisiert werden.
- Bei Cloud-Tools wie MaintainX — Datenhaltung in den USA, kein EU-Hosting. Für Maschinendaten ohne Personenbezug ist das datenschutzrechtlich oft unproblematisch, aber intern abzuklären und zu dokumentieren.
Für die Analyse-Layer (Power BI, interne SAP-Exporte) gibt es keine DSGVO-Besonderheiten, wenn keine Personendaten eingebracht werden. Bei On-Premise-Auswertung via Power BI Desktop laufen die Daten lokal — kein Cloud-Upload, keine externen Dienste.
Was es kostet — realistisch gerechnet
Phase 1 — Maschinenpark-Inventur Die Inventur ist der kostenintensivste Teil und wird häufig unterschätzt. Für 20 bis 40 Maschinen:
- Intern: 60–120 Stunden Instandhaltung + IT (Daten zusammenführen, bereinigen, validieren)
- Bei externer Unterstützung durch einen Instandhaltungsberater oder Fraunhofer IPA/IPK-Projekt: 8.000–25.000 Euro — je nach Umfang der Datenaufbereitung
Phase 2 — Modell und Dashboard
- Power BI (Scoring-Modell als berechnendes Datenmodell): 0 Euro Softwarekosten, 2–5 Tage Aufbauzeit intern oder mit BI-Dienstleister (1.500–4.000 Euro extern)
- MaintainX Essential für Datenbasis-Aufbau: 16 USD/Nutzer/Monat, typisch 3–5 Nutzer = 50–80 USD/Monat
Phase 3 — Laufende Pflege
- Halbjährliche Aktualisierung des Scores: 4–8 Stunden intern
- Datenpflege im CMMS: läuft parallel zur normalen Wartungserfassung, kein Mehraufwand
Gesamtkosten für den Mittelstand (20–40 Maschinen):
- Minimal (intern, Power BI, MaintainX): 5.000–15.000 Euro einmalig, unter 100 Euro/Monat laufend
- Mit externer Unterstützung für Inventur + Modell: 20.000–40.000 Euro einmalig
Was gegengerechnet werden kann: Eine fehlgesetzte Investitionsprioritierung bei einem Maschinenpark mit 30 Anlagen und einem CapEx-Budget von 600.000 Euro: Wenn auch nur eine Anlage fehlpriorisiert wird, die nach fünf Jahren trotzdem ausgetauscht werden muss, beträgt der Verlust durch Frühzeitig-Modernisierung + beschleunigte Abschreibung + entgangene Effizienzgewinne bei der eigentlich dringenderen Anlage typisch 80.000–200.000 Euro. Gegenüber Einmalkosten von 20.000–40.000 Euro für das Scoring-Projekt ist das eine klare Rechnung — wenn das Modell tatsächlich eine andere Entscheidung erzeugt hätte.
Die Einschränkung bleibt: Ob die Entscheidung anders ausgefallen wäre, lässt sich nicht beweisen.
Drei typische Einstiegsfehler
1. Das Modell vor der Inventur einrichten. Der häufigste Fehler: Man setzt die technische Infrastruktur auf (CMMS, Power BI, Score-Formel), bevor die Daten bereit sind. Das Ergebnis ist ein Scoring-Modell, das auf lückenhaften Daten basiert — und für 40 Prozent der Maschinen keine sinnvollen Werte liefert, weil die Eingabedaten fehlen. Das zerstört das Vertrauen in das Modell, bevor es genutzt werden konnte. Reihenfolge: Inventur zuerst, Modell danach.
2. Den Score als Entscheidung kommunizieren, nicht als Entscheidungsgrundlage. Wenn die Botschaft an die Geschäftsführung lautet “Die KI sagt, wir sollen Maschine A zuerst nachrüsten”, ist die Reaktion vorhersehbar: Skepsis, Rückfragen, Ablehnung. Wenn die Botschaft lautet “Hier sind die Ausfallkosten, der Energiemehrverbrauch und der Altersvergleich für alle 27 Maschinen — Maschine A kommt in allen drei Dimensionen auf Platz eins”, ist die Reaktion eine sachliche Diskussion. Der Score ist ein Werkzeug zur Gesprächsvorbereitung, kein Urteil.
3. Das Modell nach der ersten Investitionsrunde nicht aktualisieren. Das Scoring-Modell verliert seinen Wert, wenn es nach der ersten Nutzung in der Schublade verschwindet. Maschinen, die modernisiert wurden, müssen neu bewertet werden. Neue Ausfallmuster entstehen. Energiepreise ändern sich, was die Gewichtung von Energieverbrauch beeinflusst. Ein Modell, das zwei Jahre alt und nicht gepflegt ist, priorisiert nach veralteten Prioritäten — und ist damit schlimmer als gar keins, weil es den Anschein von Aktualität erweckt.
Was mit der Einführung wirklich passiert — und was nicht
Die größte Überraschung in der Praxis ist nicht technischer Art — sie ist politisch.
Der Instandhaltungsleiter, der seit Jahren auf Basis von Erfahrungswissen Maschinen priorisiert, ist zunächst skeptisch. Das ist verständlich: Ein Modell, das “seine” Einschätzung quantifiziert und damit potentiell korrigiert, fühlt sich nach einem Angriff auf Kompetenz an. In Wirklichkeit ist es das Gegenteil: Das Modell gibt ihm ein Werkzeug, mit dem er seine eigene Einschätzung mit Zahlen belegen kann.
Was in der Praxis funktioniert: Den Instandhaltungsleiter von Anfang an als Co-Autor des Modells einbinden — er entscheidet die Gewichtung der Faktoren. Wenn er sagt, Ausfallhäufigkeit ist wichtiger als Energie, wird das so eingestellt. Das Modell bildet dann seine Logik ab — mit Daten statt Erinnerung.
Eine zweite Dynamik: Das Modell bringt Maschinen auf das Radar, die bisher nicht laut waren. Eine Anlage mit niedrigen Reparaturkosten, aber konstant hohem Energieverbrauch und fortgeschrittenem Alter erscheint plötzlich als Top-Priorität — obwohl sie nie ausgefallen ist. Das ist eine echte Erkenntnis, aber sie erfordert ein Gespräch: Ist das Modell falsch, oder hat die Anlage bisher einfach Glück gehabt?
Was nicht passiert: Das Modell trifft keine autonomen Entscheidungen. Es gibt keinen Investitionsplan aus, dem die Geschäftsführung einfach folgt. Und es löst nicht das Problem, dass Budget immer begrenzt ist und strategische Überlegungen — die keine KI modellieren kann — letztlich die Richtung vorgeben.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Maschinenpark-Inventur | Woche 1–12 | Stammdaten erfassen, Ausfallhistorie digitalisieren, Energiedaten beschaffen | Weniger Daten verfügbar als erwartet — insbes. Energiedaten oft nicht je Maschine vorhanden |
| Datenbereinigung und Validierung | Woche 10–16 | Inkonsistenzen klären, Lücken füllen, Plausibilitätsprüfung mit Instandhaltungsleiter | Politische Diskussionen: welche Ausfälle wurden korrekt gebucht, welche fehlen? |
| Modell-Design und Gewichtung | Woche 16–18 | Faktoren und Gewichtungen mit Instandhaltungsleitung abstimmen; erste Testläufe | Uneinigkeit über Gewichtung — wer entscheidet, ist entscheidend |
| Dashboard und Präsentation | Woche 18–20 | Power BI oder ähnliches für Visualisierung aufbauen; Ergebnisse für Investitionsantrag aufbereiten | Ergebnis überrascht — neue Priorität widerspricht bisheriger Einschätzung → braucht Validierung |
| Erste Investitionsentscheidung | Woche 20–24 | Ergebnisse in Budgetrunde einbringen; Entscheidung mit Datenbasis treffen | Geschäftsführung weicht aus strategischen Gründen ab — das ist kein Fehler des Modells, sondern sein korrekter Einsatz |
Wichtig: Der Zeitplan gilt für einen Maschinenpark mit 20–40 Anlagen, von dem heute kein digitales CMMS im Einsatz ist. Mit vorhandenen SAP-PM-Daten oder einem bestehenden CMMS verkürzt sich Phase 1 auf vier bis sechs Wochen.
Häufige Einwände — und was dahintersteckt
“Wir wissen selbst, welche Maschinen Priorität haben.” Das stimmt — für die erste und zweite Priorität. Erfahrene Instandhaltungsleiter haben einen verlässlichen Instinkt für die “lautesten” Probleme. Wo das Modell sich von der Intuition unterscheidet: bei den Maschinen auf Rang drei bis sieben. Genau dort, wo Budget-Diskussionen entstehen, weil mehrere Kandidaten gleichwertig scheinen, bringt ein quantifizierter Score die sachliche Grundlage. Der Einwand stimmt also für die Spitze der Liste — das Modell ist für den Rest wertvoller.
“Die Daten, die wir haben, sind unvollständig.” Richtig. Vollständige Daten gibt es nie. Das Modell macht mit unvollständigen Daten explizit, wo die Lücken sind — und welche Anlagen wegen fehlender Daten gar nicht bewertet werden können. Das ist eine Information, die heute fehlt: Die Maschinen, über die man am wenigsten weiß, sind oft genau die, bei denen Überraschungen lauern. Eine unvollständige Datenbasis ist ein Ergebnis der Inventur — nicht ihr Misserfolg.
“Was kostet uns eine Fehlentscheidung durch das Modell?” Das ist der richtige Einwand. Das Modell ist keine Garantie. Es kann eine Maschine hoch bewerten, deren zukünftige Betriebslast stark sinkt — und damit die Wirtschaftlichkeit der Modernisierung zunichte machen. Die Antwort darauf: Das Modell gibt eine Empfehlung auf Basis historischer Daten. Zukunftsszenarien (Auftragslage, Produktionsveränderungen) muss die Geschäftsführung zusätzlich einbringen. Das Modell ist kein Orakel — es ist eine bessere Ausgangslage für die Diskussion.
Woran du merkst, dass das zu dir passt
Das passt zu euch, wenn ihr mindestens fünf dieser Aussagen bestätigen könnt:
- Ihr habt mehr als 20 Produktionsanlagen mit unterschiedlichem Alter, Hersteller und Einsatzprofil
- Ihr trefft Investitionsentscheidungen für Modernisierungen ohne systematische Datenbasis — primär auf Basis von Erfahrungswissen
- Ausfallprotokolle und Wartungskosten sind zumindest teilweise digital verfügbar (CMMS, SAP PM, oder Excel-Listen über mehrere Jahre)
- Es gibt einen jährlichen oder zweijährlichen Investitionszyklus für Maschinenmodernisierungen, für den ein priorisierter Antrag erstellt werden muss
- Ihr habt das Gefühl, dass das Budget nicht immer zur kritischsten Anlage fließt, sondern zu den am lautesten kommunizierten Problemen
- Die Person, die heute die Einschätzung trifft, ist schwer zu ersetzen — das Wissen sitzt in einer Person, nicht in einem System
Drei harte Ausschlusskriterien — wann das Projekt (noch) nicht sinnvoll ist:
-
Maschinenpark unter 15 Anlagen. Unterhalb dieser Schwelle lässt sich der Maschinenpark manuell vollständig im Blick behalten — ein systematisches Scoring-Modell bringt keinen Informationsgewinn gegenüber einer guten Excel-Tabelle und einem zweistündigen Gespräch. Der Aufwand der Inventur ist nicht gerechtfertigt.
-
Kein digitales Ausfallprotokoll der letzten drei Jahre vorhanden. Ein reines Papiersystem ohne digitale Ausfallmeldungen für die letzten mindestens zwei bis drei Jahre macht das Modell wertlos oder unzuverlässig — weil Ausfallkosten die aussagekräftigste Variable im Score sind. Dann ist der erste Schritt: digitale Erfassung einführen (z. B. mit MaintainX). Sechs bis zwölf Monate Daten sammeln. Danach Scoring-Modell aufbauen.
-
Maschinenpark weitgehend homogen von einem Hersteller, gleichem Baujahr, gleicher Nutzung. Wenn fast alle Maschinen aus dem gleichen Zeitraum stammen und ähnliche Betriebsprofile haben, gibt es keine sinnvolle Differenzierung im Score. Das Modell würde alle Anlagen als gleich hoch priorisiert ausweisen — der Informationsgewinn ist null. Diese Situation ist selten, aber sie kommt vor.
Das kannst du heute noch tun
Der erste Schritt kostet keine Software und kein Budget: Erstelle eine vollständige Liste aller Produktionsanlagen mit den vier Feldern, die für das Scoring am wichtigsten sind — Baujahr, Anzahl ungeplanter Stillstände im letzten Jahr, geschätzte Stillstandskosten (in Euro oder Stunden), laufende Jahreswartungskosten. Excel reicht dafür vollständig.
Wenn diese Liste steht, gib sie einem KI-Assistenten und lass dir eine erste Priorisierung berechnen. Nicht als finale Entscheidung — als erstes Gespräch mit dem Datensatz.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- ZVEI Energieeinsparpotenzial elektrische Antriebe: ZVEI — Verband der Elektro- und Digitalindustrie, “Energieeffizienz mit elektrischen Antrieben”, Fachverband Automation (aktuelle Fassung, Download unter zvei.org). Kernaussage: 27,5 Milliarden kWh jährliches Einsparpotenzial durch Modernisierung elektrischer Antriebe in der deutschen Industrie, entspricht ca. 2,2 Milliarden Euro; moderne IE4-Motoren reduzieren Motorverluste um 15 % gegenüber IE3-Klasse; Frequenzumrichter als größter Hebel für variable Last.
- WERKBLiQ / IndustryArena — Alternder Maschinenpark: “Alternder Maschinenpark, was tun? Korrektive Instandhaltung, Retrofit oder Neuinvestition” (de.industryarena.com/werkbliq, abgerufen April 2026). Praxisbeschreibung der Entscheidungslogik zwischen Instandhaltung, Retrofit und Neuinvestition; Betonung, dass faktenbasierte Entscheidungen vollständige Maschinendaten erfordern.
- KfW Research — Investitionsverhalten nach Unternehmensalter: KfW Research, “Altersverteilung bremst Investitionen im Mittelstand” (2023/2024), verfügbar über mittelstandinbayern.de. Investitionsintensität: Unternehmen mit älterer Führung investieren 20 Prozentpunkte seltener als jüngere Vergleichsgruppe.
- IIoT World — ML-Projektversagen: “Why 85% of Machine Learning Projects Fail” (iiot-world.com, 2023). Zentrale Ursachen: fehlende Datenvorbereitung, Überoptimierung auf historische Muster, fehlende organisatorische Einbettung.
- MaintainX Preisangaben: Veröffentlichte Tarife unter getmaintainx.com (Stand April 2026); Essential 16 USD/Nutzer/Monat, Premium 49 USD/Nutzer/Monat.
- Power BI Preisangaben: Veröffentlichte Microsoft-Tarife (Stand April 2026); Pro 12,10 EUR/Nutzer/Monat, Desktop kostenlos.
- Einschätzungen zu Inventuraufwand und Modellerstellung: Eigene Erfahrungswerte aus Beratungsprojekten mit mittelständischen Fertigungsunternehmen; keine repräsentative Studie, aber konsistente Beobachtungen über mehrere Projekte.
Du willst wissen, welche Daten in eurem Unternehmen schon vorhanden sind und wie schnell ein erster Score aufgebaut werden könnte? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Predictive Maintenance: Ausfälle vorhersagen statt reparieren
Maschinenausfälle ankündigen sich durch Vibration, Temperatur und Stromaufnahme — Wochen bevor sie passieren. KI-Modelle erkennen diese Muster und ermöglichen gezielten Eingriff.
Mehr erfahrenQualitätskontrolle per Kamera: Sichtprüfung automatisieren
Visuelle Inspektion von Bauteilen auf Kratzer, Maßabweichungen und Oberflächenfehler per KI-Kamerasystem — schneller und konsistenter als manuelle Prüfung.
Mehr erfahrenTechnische Dokumentation automatisch erstellen
CAD-Daten, Stücklisten und interne Spezifikationen per KI in normgerechte Betriebsanleitungen und Wartungshandbücher umwandeln — Redaktionsaufwand halbieren.
Mehr erfahren