Fertigungszeitschätzungs-Drift-Erkennung
KI findet systematische Muster in der Abweichung zwischen kalkulierten und tatsächlichen Fertigungsstunden — und korrigiert die Schätzregeln, bevor der nächste Auftrag wieder zu günstig angeboten wird.
Es ist Freitagabend, 17:43 Uhr. Andreas Kern, Kalkulationsleiter bei einem mittelständischen Formenbau-Unternehmen in Baden-Württemberg, öffnet den Nachkalkulationsbericht des gerade abgeschlossenen Projekts: Spritzgusswerkzeug für ein Automobilzulieferteil, Angebotspreis 87.000 Euro, Lieferzeit elf Wochen.
Kalkuliert: 840 Stunden. Tatsächlich aufgewandt: 1.240 Stunden.
Andreas kennt dieses Gefühl. Nicht Panik — eher eine müde Resignation. Die Erklärungen liegen auf der Hand: Der Erodier-Abteilung fehlte eine Spezialität, die Funkenerodiermaschinenzustellung lief nicht optimal, der Kunde hat dreimal die Toleranzen nachgebessert. Einmalig, sagt jeder. Kann passieren.
Drei Monate später: neues Werkzeug, ähnliche Bauteilgeometrie, andere Kundennummer. Wieder 34 Prozent über der Kalkulation. Wieder Einmalig.
Was Andreas nicht weiß: In 23 von 31 vergleichbaren Projekten der letzten vier Jahre wurden EDM-intensive Teile mit mehr als vier Kavitäten im Schnitt um 28 Prozent unterschätzt — konsequent, unabhängig vom Kunden, unabhängig vom Auftragswert. Das steht so nirgendwo geschrieben. Es taucht nicht in den Quartalsberichten auf. Es lebt ausschließlich in der Differenz zwischen Angebots- und Nachkalkulation, und niemand hat diese Differenzen je systematisch ausgewertet.
Das ist kein Fehler. Das ist Drift — und er ist lernbar.
Das echte Ausmaß des Problems
Wer im Werkzeugbau oder Formenbau kalkuliert, bewegt sich in einem Dilemma: Jedes Werkzeug ist anders, Wiederholungsteile sind selten, und dennoch müssen die Angebote passen. Die Kalkulation basiert auf Erfahrungswissen — und Erfahrungswissen hat eine unangenehme Eigenschaft: Es veraltert still, ohne es anzukündigen.
Laut einer Studie der WBA Aachener Werkzeugbau Akademie liegt die Kalkulationsgenauigkeit erfahrener Schätzer im Werkzeugbau bei ±20 Prozent — in schwieriger zu schätzenden Bereichen bei bis zu ±40 Prozent. Der Vergleich von Angebots- und Nachkalkulation über mehrere Projekte zeigt Abweichungen zwischen -40 und +70 Prozent der ursprünglich kalkulierten Herstellkosten. Das ist keine Seltenheit — das ist die Regel.
Das Problem ist nicht, dass Fehler passieren. Es ist, dass systematische Fehler nicht erkannt werden:
- Bestimmte Operationstypen werden Jahr für Jahr unterschätzt (z.B. Fünf-Achs-Fräsen bei dünnen Wandstärken, Feinerodieren mit kleinen Elektroden)
- Bestimmte Materialien führen verlässlich zu Mehraufwand (z.B. gehärteter Stahl Typ X beim Nachschleifen)
- Bestimmte Kundenanforderungsprofile erzeugen versteckten Abstimmungsaufwand, der nie im Angebot erscheint
- Bestimmte Geometriemerkmale (tiefe Kavitäten, enge Radien, polieraufwändige Oberflächen) liegen systematisch außerhalb der Erfahrungswerte
Ein typischer Werkzeugbaubetrieb mit 30–80 Mitarbeitenden verarbeitet 80 bis 300 Aufträge im Jahr. Über fünf Jahre akkumuliert das 400 bis 1.500 abgeschlossene Projekte mit Plan-Ist-Vergleich. Diese Datenbasis liegt in jedem ERP-System — ungenutzt.
Wenn manuelle Kalkulation im Werkzeugbau im Schnitt 3,3 Stunden reiner Bearbeitungszeit beansprucht (Innoby, 2024), dann ist die Frage nicht nur, wie schnell kalkuliert wird — sondern wie akkurat. Ein um 30 Prozent zu günstig angebotenes Werkzeug kostet bei einem Auftragswert von 80.000 Euro rund 24.000 Euro Marge, die still verschwinden.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit Drift-Erkennung |
|---|---|---|
| Erkennungszeitraum für systematische Muster | Nie oder durch Zufall | 6–10 Wochen nach Datenaufbereitung |
| Kalkulationsgenauigkeit erfahrener Schätzer | ±20–40 % (WBA-Studie) | Ziel: Systematische Fehler um 40–60 % reduzieren ¹ |
| Aufwand für Nachkalkulationsanalyse | Manuell, stundenlang, selten gemacht | Automatisiert, je Auftrag aktualisiert |
| Sichtbarkeit von Operationstyp-Biases | Nicht vorhanden | Dashboard je Operationsgruppe, Material, Geometrietyp |
| Reaktionsgeschwindigkeit bei neuer Systematik | Monate bis Jahre | Wochen (wenn genug neue Aufträge) |
| Wissensverlust durch Personalwechsel | Hoch — Erfahrungswissen geht verloren | Modell ist unabhängig von Einzelpersonen |
¹ WBA Aachener Werkzeugbau Akademie (2024): Prototyp reduzierte Vorhersagefehler auf durchschnittlich 6 Minuten, 240 % Verbesserung gegenüber Expertenschätzung. Andere Studien (Cambridge AI EDAM, 2023) zeigen Verbesserung von ca. 40 ± 35 % auf 25 ± 20 % mittlerer Abweichung bei parametrischen Methoden. Erfahrungswerte aus ERP-Analysen bei mittelständischen Werkzeugbauern.
Einschätzung auf einen Blick
Zeitersparnis — schwach (1/5) Diese Anwendung spart keine tägliche Arbeitszeit im direkten Sinne. Die Kalkulation wird nicht schneller — sie wird genauer. Kein Mitarbeitender gewinnt jeden Tag 30 Minuten zurück. Was entfällt, sind die langen, unproduktiven Nachgespräche nach abgeschlossenen Projekten: „Warum sind wir 38 Prozent drüber?” — Gespräche, die in vielen Werkzeugbaubetrieben jeden Monat stattfinden, aber zu keinem Ergebnis führen. Der Zeiteffekt ist real, aber diffus und indirekt — unter den verglichenen Werkzeugbau-Anwendungsfällen der schwächste auf dieser Achse.
Kosteneinsparung — niedrig (2/5) Die Einsparung ist real, aber sie realisiert sich langsam und indirekt: Jedes Angebot, das jetzt 15 Prozent genauer kalkuliert ist, schützt Marge, die vorher still verschwunden ist. Das lässt sich schwer einem einzelnen Moment oder einer einzelnen Entscheidung zuordnen. Für ein Unternehmen, das regelmäßig Projekte mit 25–40 Prozent Überschreitung abschließt, ist das ein erheblicher Wert — aber er wird buchhalterisch selten als „KI-Einsparung” ausgewiesen. Verglichen mit Reparaturcluster-Automatisierung oder Toleranzprüfung, die direkte Kostenposten senken, ist das ein mittlerer-niedriger Rang.
Schnelle Umsetzung — mittel (3/5) Wenn historische Plan-Ist-Daten sauber im ERP vorliegen, ist ein erster Analysepilot in 6–8 Wochen machbar: Daten exportieren, aufbereiten, Abweichungsmodell trainieren, erste Muster visualisieren. Oft ist die Datenqualität der limitierende Faktor — nicht die Technologie. Wer ohne saubere Nachkalkulation im ERP startet, braucht 3–6 Monate zusätzliche Vorbereitungszeit. Mittelfeldposition unter den Werkzeugbau-Anwendungsfällen.
ROI-Sicherheit — hoch (4/5) Das ist der stärkste Aspekt dieser Anwendung: Der ROI ist konkret messbar. Du weißt vor der Einführung, wie groß deine durchschnittliche Plan-Ist-Abweichung je Operationsgruppe ist. Du weißt nach der Einführung, ob sie kleiner geworden ist. Kein indirektes Argument über „weichere Entscheidungen” — sondern direkte Verbesserung einer messbaren Zahl. Wenn die Abweichung bei EDM-intensiven Teilen von 28 auf 14 Prozent sinkt, rechnet sich das bei jedem nächsten Angebot nach.
Skalierbarkeit — sehr hoch (5/5) Das ist die stärkste Achse dieser Anwendung: Das Modell lernt mit jedem neuen Auftrag passiv weiter. Kein proportional steigender Aufwand für mehr Projekte, mehr Schätzer oder mehr Operationstypen. Neue Kalibrierungspunkte fließen automatisch ein. Wenn das Unternehmen wächst und mehr ähnliche Projekte gewinnt, verbessert sich die Vorhersagegenauigkeit ohne Zusatzaufwand. Das unterscheidet diesen Anwendungsfall von manuellen Nachkalkulationsprozessen, die mit dem Auftragsvolumen linear wachsen.
Richtwerte — stark abhängig von der Auftragsvielfalt, der ERP-Datenqualität und wie viele Projekte mit vergleichbaren Merkmalen je Jahr bearbeitet werden.
Was das System konkret macht
Das Prinzip ist einfacher als der Name vermuten lässt. Du hast in deinem ERP für jeden abgeschlossenen Auftrag zwei Zahlen: die kalkulierte Stundenzahl (aus dem Angebot) und die tatsächlich erfasste Stundenzahl (aus der Betriebsdatenerfassung). Die Differenz ist die Abweichung. Das ist keine neue Erkenntnis.
Die neue Frage, die Machine Learning stellt, lautet: Welche Eigenschaften eines Auftrags erklären, ob die Abweichung positiv oder negativ ist?
Konkret läuft das so:
-
Datenextraktion aus dem ERP: Für jeden abgeschlossenen Auftrag der letzten 3–5 Jahre werden die relevanten Merkmale extrahiert: Operationstypen und deren Soll-Stunden, Materialkennzeichnung, Geometrieinformationen (wenn aus CAD verfügbar), Auftraggeber-Kategorie, Anzahl der Konstruktionsänderungen, Fertigungstiefe intern vs. extern.
-
Abweichungsberechnung je Teilprozess: Die Abweichung wird nicht nur auf Gesamtauftrag, sondern je Fertigungsoperation berechnet. Wenn Fräsen immer passt und Erodieren immer daneben liegt, soll das sichtbar werden.
-
Mustersuche: Das System sucht, welche Kombination von Merkmalen zuverlässig mit einer bestimmten Abweichungsrichtung korreliert. „Wenn Erodieranteil über 35 Prozent, Wandstärke unter 2 mm, und Material ist 1.2379 — dann Abweichung durchschnittlich +31 Prozent.” Keine Theorie, sondern gelernte Muster aus echten Projekten.
-
Dashboard und Korrekturvorschläge: Schätzer sehen in einem Dashboard, bei welchen Projektmerkmalen ihre Kalkulation historisch systematisch unter- oder überschätzt hat. Das System gibt keine zwingenden Korrekturen vor — es macht die Bias sichtbar. Der Schätzer entscheidet, ob er den Korrekturfaktor anwendet.
-
Kontinuierliche Kalibrierung: Jeder neue abgeschlossene Auftrag fließt ins Modell ein. Wenn ein neues Material eingeführt wird und sich nach drei Aufträgen abzeichnet, dass es systematisch schwerer zu bearbeiten ist, taucht das als Warnhinweis im nächsten Angebot auf.
Zufall oder System — der entscheidende Unterschied
Das ist die konzeptuelle Grundlage dieses Anwendungsfalls, und sie lohnt sich zu verstehen — weil sie entscheidet, ob die Einführung sinnvoll ist.
Zufällige Schätzfehler entstehen aus Faktoren, die du beim Angebot schlicht nicht wissen konntest: Der Auftrag kam herein, als die beste Fräserin krank war. Ein Zulieferteil hatte Toleranzprobleme. Der Kunde änderte die Materialvorgabe nach Auftragserteilung. Diese Fehler sind nicht vorhersagbar. Kein System der Welt kann sie eliminieren. Sie sind statistisch: Manchmal liegst du zu hoch, manchmal zu tief, im Mittel bist du ungefähr richtig. Zufällige Fehler sind ein normaler Teil des Werkzeugbaugeschäfts.
Systematische Fehler entstehen aus Faktoren, die du beim Angebot kennen könntest — aber deine Erfahrungswerte die Realität nicht mehr korrekt abbilden. Vielleicht hat die neue CNC-Anlage die Bearbeitungszeiten für bestimmte Operationen gesenkt, aber der Kalkulationsansatz wurde nie angepasst. Vielleicht ist ein bestimmter Materialtyp teurer in der Bearbeitung geworden, weil der Lieferant die Qualität verändert hat. Vielleicht wurden die Erfahrungswerte ursprünglich von einem erfahrenen Kalkulator erstellt, der vor drei Jahren das Unternehmen verlassen hat — und seitdem werden seine Richtwerte unreflektiert übernommen.
Systematische Fehler kann ein lernfähiges System erkennen und korrigieren. Zufällige Fehler nicht.
Der Test, ob dein Problem systematisch oder zufällig ist: Schau in die Nachkalkulation der letzten 30 Aufträge. Wenn die Abweichungen zufällig um die Nulllinie streuen — mal +15 %, mal -12 % — ist das Rauschen. Wenn sie bei bestimmten Operationstypen oder Materialien konsequent in eine Richtung gehen — das ist Drift, und der ist lernbar.
ERP-Daten als Grundlage — was ihr für den Start braucht
Bevor du an KI denkst, braucht es eine ehrliche Bestandsaufnahme. Diese Anwendung steht und fällt mit der Datenqualität im ERP. Folgende Fragen entscheiden, ob ihr heute starten könnt:
Was zwingend vorhanden sein muss:
-
Systematische Nachkalkulation: Jeder abgeschlossene Auftrag muss tatsächlich erfasste Stunden je Kostenstelle oder Operationstyp enthalten — nicht nur Gesamtauftragsstunden. Wenn ihr nur die Gesamtabweichung kennt, aber nicht, auf welche Fertigunsschritte sie entfällt, sind die Analysemöglichkeiten stark eingeschränkt.
-
Mindestens 3–5 Jahre Daten: Für aussagekräftige Muster braucht es mindestens 50–80 Aufträge mit ähnlichen Merkmalen. Wer jährlich 30 Aufträge verarbeitet und davon 10 auf EDM entfallen, hat nach vier Jahren gerade genug Datenpunkte für erste Trends.
-
Konsistente Klassifizierung: Wenn Operationstypen im ERP unterschiedlich benannt werden — mal „Fräsen CNC”, mal „CNC-Fräsen”, mal „Bearbeitung Fräse” — muss das bereinigt werden. Eine einmalige Normierungsarbeit, die 2–4 Wochen dauern kann.
Was hilfreich, aber nicht zwingend ist:
- CAD-Daten mit Geometriemetadaten (Wandstärken, Kavitätentiefe, Oberflächenrauigkeitsvorgaben) — für tiefere Musteranalyse wertvoll, aber keine Voraussetzung für den Start
- Automatische BDE (Betriebsdatenerfassung) direkt von der Maschine — erhöht die Datengenauigkeit erheblich, aber händische Rückmeldungen funktionieren auch
Was scheitern lässt:
- Kein ERP-System, nur Excel-Dateien oder Papier für die Arbeitszeiterfassung
- Nachkalkulation wird zwar im System erfasst, aber mit so wenig Detail, dass Operationstypen nicht zuordenbar sind
- Weniger als 3 Jahre Daten oder starke Produktmixveränderungen in den letzten Jahren
Konkrete Werkzeuge — was wann passt
Die Werkzeugauswahl hängt wesentlich davon ab, wie du vorgehen willst: Willst du die Analyse selbst aufbauen, oder brauchst du eine fertige Lösung?
KNIME Analytics Platform — Wenn du die Analyse selbst aufbauen willst und kein Entwicklerteam hast, ist KNIME der empfehlenswerteste Einstieg. Kostenlos und Open Source, visuell per Drag-and-Drop bedienbar, stabile ERP-Datenbankanbindung über JDBC-Konnektoren. Du kannst damit die komplette Pipeline aufbauen: Datenimport aus dem ERP, Bereinigung, Abweichungsberechnung, Musteranalyse, Export. Kein Code nötig für Standardanalysen. Einschränkung: Teamarbeit und automatisiertes Scheduling brauchen die bezahlten Hub-Pläne.
Microsoft Power BI — Für die Visualisierung der Ergebnisse ist Power BI die zugänglichste Lösung. Die Desktop-Version ist kostenlos, läuft auf Windows und kann direkt SQL-Datenbankverbindungen zu den meisten ERP-Systemen aufbauen. Ideal für das Dashboard: Abweichung je Operationstyp, Trend über Zeit, Vergleich zwischen Schätzern. Einschränkung: Power BI ist Visualisierung, keine ML-Plattform — die Musteranalyse muss woanders stattfinden (z.B. in KNIME oder Python) und das Ergebnis in Power BI visualisiert werden.
Apromore — Wenn der Prozessablauf selbst analysiert werden soll (nicht nur Soll-Ist-Stunden, sondern: welche Schritte in welcher Reihenfolge, wo entstehen Wartezeiten), ist Apromore eine kostengünstige Process-Mining-Lösung. Die Community Edition ist kostenlos und selbst gehostet. Vorteil: starke Datenschutzposition, da Daten nie das Unternehmensnetzwerk verlassen. Einschränkung: Erfordert IT-Kompetenz für Installation und ERP-Datenbankzugriff, keine deutsche Oberfläche.
Celonis — Für Unternehmen mit SAP, Oracle oder einem komplexen ERP-Ökosystem und einer dedizierten IT-Abteilung. Celonis verarbeitet Zeitstempeldaten aus ERP-Systemen zu Prozessmodellen und kann Plan-Ist-Abweichungen automatisch auf Root-Cause-Ebene analysieren. Die beste technische Lösung — aber mit einem Einstiegspreis von 50.000–100.000 Euro für erste Analyseprojekte nur für größere Betriebe ab ca. 150 Mitarbeitenden wirtschaftlich.
Zusammenfassung: Wann welcher Ansatz
- Einstieg ohne IT-Aufwand, ERP-Daten als Export → KNIME für Analyse + Power BI für Visualisierung
- Prozessablaufanalyse, DSGVO-sensitiv, eigenes IT-Team vorhanden → Apromore
- SAP-Umgebung, größerer Betrieb, Prozessoptimierung über Einzelanalyse hinaus → Celonis
Datenschutz und Datenhaltung
Die gute Nachricht: Dieser Anwendungsfall arbeitet mit internen Produktionsdaten, nicht mit personenbezogenen Kundendaten. Auftragszeiten, Kostenstellen und Operationstypen gelten als Betriebsdaten — die DSGVO greift nur dann direkt, wenn personenbezogene Informationen wie Mitarbeitername oder individuelle Rückmeldezeitstempel in die Analyse einbezogen werden.
Für die meisten Werkzeugbau-Implementierungen gilt:
-
Aggregierte Abweichungsanalyse (kein Personenbezug): Wenn die Analyse auf Auftragsebene oder Kostenstellenebene stattfindet und keine Zuordnung zu einzelnen Mitarbeitenden enthält, ist DSGVO kein direktes Hindernis.
-
Individuelle Zeitrückmeldungen: Sobald analysiert wird, welcher Schätzer systematisch zu günstig kalkuliert, oder welche Werker bestimmte Operationstypen langsamer ausführen, sind personenbezogene Daten im Spiel. Das erfordert eine Interessenabwägung nach Art. 6 Abs. 1 lit. f DSGVO und sollte mit dem Betriebsrat abgestimmt werden.
-
Datenverarbeitung on-premise: KNIME und Apromore Community Edition lassen sich vollständig im eigenen Netzwerk betreiben — keine Daten verlassen das Unternehmen. Das ist für Werkzeugbauer, die Kunden-IP in Konstruktionsdaten haben, ein relevanter Vorteil.
-
Cloud-Lösungen wie Celonis bieten EU-Datenhaltung auf Anfrage an. Bei Verarbeitung von Auftragsdaten mit Kundenbezug (Kundenname, Teilenummer) muss ein AVV nach Art. 28 DSGVO abgeschlossen werden.
Empfehlung: Für den Einstieg lieber on-premise mit KNIME oder Apromore beginnen. Das vermeidet DSGVO-Diskussionen und erlaubt, die Analyse ohne Vertragsbürokratie in Gang zu bringen.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
- Datenbankzugriff auf ERP-System einrichten und Datenschemata dokumentieren: 2–5 Tage intern (IT + Kalkulation zusammen)
- Datenbereinigung (Normierung der Operationstyp-Bezeichnungen, Qualitätsprüfung): 2–4 Wochen, typisch intern
- Analyse-Pipeline aufbauen und validieren: bei KNIME selbst 3–6 Wochen Einarbeitungszeit oder extern 8.000–15.000 Euro für Dienstleisterprojekt
- Dashboard aufbauen: 1–2 Wochen mit Power BI (kostenlos)
Laufende Kosten (monatlich)
- KNIME Analytics Platform (Desktop): kostenlos
- Power BI Desktop: kostenlos; Pro für Sharing im Team: 12,10 Euro/Person/Monat
- Apromore Community Edition (selbst gehostet): kostenlos, nur Serverkosten
- Celonis: ab ca. 50.000–100.000 Euro jährlich (Enterprise, kein KMU-Einstieg)
- Externe Betreuung (optional): 2–4 Stunden/Monat für Modellpflege und Review, ca. 300–600 Euro
Was du dagegenrechnen kannst
Ein Werkzeugbaubetrieb mit 60 Mitarbeitenden kalkuliert 120 Aufträge im Jahr. Wenn 30 davon EDM-intensive Teile sind, und diese im Schnitt um 28 Prozent unterschätzt werden, bei einem durchschnittlichen Auftragswert von 70.000 Euro: Das sind rechnerisch 588.000 Euro Marge, die systematisch aufgezehrt werden — und natürlich sind nicht alle 28 Prozent Abweichung reine Marge. Aber selbst wenn du nur 20 Prozent davon als echten Hebel siehst, sind das über 100.000 Euro pro Jahr Verbesserungspotenzial.
Realistisch: Wenn das Modell die systematischen Fehler um 40–50 Prozent reduziert (was WBA-Forschungsergebnisse als erreichbar zeigen), entspricht das bei obigem Szenario einer Margenverbesserung von 40.000–60.000 Euro im Jahr — bei Einrichtungskosten von 15.000–25.000 Euro. Der ROI ist in den meisten Fällen innerhalb des ersten Jahres erreicht.
Wie du den Nutzen tatsächlich misst
Nicht theoretisch — sondern durch den direkten Vergleich: Berechne die durchschnittliche Abweichungsrate pro Operationsgruppe für die letzten zwei Jahre. Führe das Modell ein. Nach 12 Monaten berechnest du dieselbe Kennzahl erneut. Die Differenz ist der messbare Effekt.
Die politische Herausforderung — wenn das Modell sagt, der Schätzer liegt falsch
Das ist vielleicht das schwierigste Kapitel dieses Anwendungsfalls — und es kommt in keiner Broschüre vor.
Stell dir vor: Das Modell analysiert die letzten vier Jahre und zeigt, dass ein langjähriger Kalkulator bei allen Bauteilen mit engen Fräsradien systematisch 23 Prozent zu günstig kalkuliert. Der Kalkulator hat 15 Jahre Erfahrung, kennt jeden Kunden persönlich und ist eine tragende Säule des Unternehmens.
Was passiert als nächstes? In den meisten Unternehmen: nichts Gutes. Entweder wird das Ergebnis totgeschwiegen, oder es kommt zu einem Konflikt, der das ganze Projekt torpediert.
Was hilft, bevor das passiert:
-
Framing als Lernsystem, nicht als Kontrollsystem: Das Modell zeigt Muster — es beurteilt keine Kompetenz. Erfahrene Schätzer wurden nicht schlechter; das Umfeld hat sich verändert (neue Materialien, neue Maschinen, veränderte Kundenanforderungen), und das Modell erkennt das.
-
Den Schätzer zum Mitautoren machen: Die stärkste Einführungsstrategie ist, dem erfahrenen Kalkulator das Modell gemeinsam mit der Analyse-Verantwortlichen zu zeigen — und ihn zu bitten, die Muster zu erklären. In 80 Prozent der Fälle kennt er den Grund sofort: „Ach, das ist wegen der Umrüstzeiten nach dem Maschinenkauf.” Sein Wissen vervollständigt das Modell. Aus einem potenziellen Kritiker wird ein Verbündeter.
-
Aggregierte Auswertung zuerst: Starte nicht mit einer personalisierten Abweichungsanalyse je Schätzer. Starte mit Operationstypen und Materialgruppen — das ist technisch, nicht personal. Die personenbezogene Sicht kann später kommen, wenn Vertrauen aufgebaut ist.
-
Klare Zuständigkeit in der Geschäftsführung: Die Entscheidung, ob und wie die Erkenntnisse in die Kalkulation einfließen, muss von oben getroffen werden — nicht von der IT-Abteilung oder vom Analysten. Ohne dieses klare Signal bleibt das Modell ein Forschungsprojekt ohne Konsequenz.
Drei typische Einstiegsfehler
1. Die ERP-Daten als gegeben hinnehmen. Das System liefert aus dem ERP Zahlen — und die sehen plausibel aus. Der Fehler liegt nicht in den Zahlen selbst, sondern in ihrer Vergleichbarkeit. Wenn in einem Auftrag die Erodierzeit unter „Fräsen allgemein” gebucht wurde, weil die Kostenstelle mal geändert wurde, dann enthält die Kategorieanalyse einen systematischen Fehler, der wie ein echter Befund aussieht. Lösung: Bevor die Analyse startet, zwei bis drei Wochen für eine gemeinsame Datenqualitätsprüfung mit Kalkulation und Arbeitsvorbereitung einplanen — nicht mit der IT allein.
2. Ein Modell bauen und dann nicht mehr anfassen. Das ist der häufigste und gefährlichste Fehler. Wenn die Maschine X durch eine neue ersetzt wird und die Bearbeitungszeiten sich verändern, stimmen die gelernten Muster nicht mehr. Wenn neue Materialien in den Mix kommen, gibt es noch keine Datenpunkte. Das Modell wird still schlechter, ohne das anzuzeigen. Lösung: Einen klaren Reviewer-Prozess einrichten — mindestens halbjährlich, besser quartalsweise: Stimmen die Abweichungsraten im laufenden Quartal noch mit den historischen Mustern überein? Wenn nicht, was hat sich verändert?
3. Den Piloten zu groß anlegen. Der Reflex ist: Wenn wir das schon tun, dann richtig — alle Auftragsjahre, alle Operationstypen, alle Materialklassen auf einmal. Das Ergebnis: Ein Projekt, das acht Monate dauert und drei Mal die Priorität wechselt, bevor die ersten Ergebnisse liegen. Lösung: Mit einem einzigen Operationstyp anfangen, bei dem die Abweichungsrate am auffälligsten ist. Einen Quick Win erzeugen, der das Vertrauen im Team aufbaut — und danach ausweiten.
Was mit der Einführung wirklich passiert — und was nicht
Die technische Einführung ist nicht das Hauptproblem. Das Hauptproblem ist die Veränderung einer tief eingewurzelten Praxis: Erfahrung als einzige Quelle der Wahrheit.
In Werkzeugbaubetrieben gilt seit Jahrzehnten: Wer lange dabei ist und viele Projekte gesehen hat, hat recht. Das ist kein Fehler — das war lange die einzige skalierbare Form des Kalkulationswissens. Ein System, das sagt „nein, deine langjährige Erfahrung zeigt in dieser Kategorie einen systematischen Bias”, trifft auf sehr gemischte Reaktionen.
Was realistisch passiert:
-
In den ersten Wochen wird das Modell von mindestens einer erfahrenen Person aktiv bezweifelt. Die bevorzugte Strategie: nach einem Gegenbeispiel suchen, das die Muster widerlegt. Das ist gesund — lass es zu. Das Modell sollte robust genug sein, drei oder vier Gegenbeispiele zu überstehen.
-
Die Fertigungsleitung wird das Thema als „Büroprojekt” einordnen. Der Weg aus dieser Schublade: Das Modell mit echten abgeschlossenen Aufträgen validieren und zeigen, dass es die tatsächlichen Abweichungen retrospektiv korrekt erklärt hätte. Das ist überzeugender als jede Präsentation.
-
Nach dem ersten erfolgreichen Einsatz bei einem Neuangebot — wenn das Modell einen Korrekturfaktor empfiehlt und die Geschäftsführung ihn bewusst einbaut — ändert sich die Dynamik. Ein konkreter Fall ist mehr wert als zehn Erklärungen.
Was konkret hilft:
- Das Projekt nicht als IT-Projekt führen, sondern als Kalkulations-Optimierungsprojekt mit Kalkulationsleitung im Steuerkreis
- Monatliche kurze Reviews der aktuellen Abweichungsraten — 30 Minuten, nicht mehr — als Routineereignis etablieren
- Die Nachkalkulation auch für aktuelle Projekte konsequenter erfassen, wenn heute noch Lücken bestehen — das Datenvolumen für das Modell wächst damit aktiv
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenqualitätsprüfung | Woche 1–3 | ERP-Export prüfen, Operationstypen normieren, Datenlücken identifizieren | Mehr Inkonsistenz als erwartet — Normierung dauert länger als geplant |
| Pilotanalyse (ein Operationstyp) | Woche 3–6 | Abweichungsmuster für eine Kategorie visualisieren, mit Experten validieren | Muster zu schwach für Interpretation — mehr Aufträge nötig oder Kategorie zu grob |
| Modellaufbau und Dashboard | Woche 6–10 | Analysemodell auf alle relevanten Kategorien ausweiten, Dashboard aufbauen | Widerstand im Schätzerteam — Kommunikation und Framing zu früh vernachlässigt |
| Produktionsbetrieb | Monat 3–6 | Modell in Kalkulation integrieren, Korrekturfaktoren anwenden, erste Aufträge mit neuen Werten anbieten | Korrekturfaktoren werden nicht konsequent angewendet — kein verbindliches Prozessdesign |
| Kalibrierung und Ausbau | ab Monat 6 | Neue Datenpunkte fließen ein, Modell aktualisieren, neue Kategorien integrieren | Modell wird nicht gepflegt — stille Verschlechterung unbemerkt |
Häufige Einwände — und was dahintersteckt
„Jedes Werkzeug ist anders — da kann kein Modell Muster finden.” Das stimmt für zufällige Unterschiede. Aber systematische Muster entstehen gerade nicht wegen der individuellen Unterschiede, sondern trotz ihnen. Wenn Erodierarbeiten an Stahl 1.2379 über 40 Aufträge hinweg konsequent 25 Prozent länger dauern als kalkuliert — unabhängig davon, wie unterschiedlich die Werkzeuge sonst sind — ist das kein Zufall. Das Modell sucht eben nicht nach Mustern über alle Projekte hinweg, sondern nach Mustern innerhalb definierter Kategorien.
„Unsere Schätzer haben 20 Jahre Erfahrung — die wissen, was ein Projekt kostet.” Erfahrene Schätzer wissen, was ein Projekt kostet — nach dem damaligen Stand. Wenn sich in den letzten fünf Jahren Materialzusammensetzungen, Maschinenpark, Subunternehmerkonditionen oder Kundenanforderungsprofile verändert haben, stimmen die internalisierten Erfahrungswerte möglicherweise nicht mehr. Das Modell aktualisiert sich — das menschliche Gedächtnis aktualisiert sich langsamer. Das ist kein Vorwurf an die Schätzer, sondern eine strukturelle Eigenschaft von Erfahrungswissen.
„Wir machen das schon mit Excel-Nachkalkulationen.” Excel-Nachkalkulationen zeigen dir, was in der Vergangenheit passiert ist. Sie zeigen dir nicht systematisch, warum — und vor allem zeigen sie dir nicht, welche Muster auf zukünftige Angebote angewendet werden sollten. Zwischen einer Nachkalkulation und einer lernenden Drift-Erkennung liegt derselbe Unterschied wie zwischen einem Spiegel und einem Navigationssystem.
Woran du merkst, dass das zu dir passt
- Dein ERP-System enthält Plan- und Ist-Stunden je Kostenstelle für abgeschlossene Aufträge der letzten 3–5 Jahre — und du hast das Gefühl, diese Daten werden nie richtig genutzt
- Du führst regelmäßig Nachkalkulationen durch und erkennst, dass bestimmte Auftragstypen oder Operationen immer wieder auffällig abweichen — aber niemand hat die Zeit, das systematisch zu analysieren
- Ihr habt einen erfahrenen Kalkulator, aber du machst dir Gedanken darüber, was passiert, wenn er oder sie das Unternehmen verlässt — das Modell würde das Wissen konservieren
- Ihr gewinnt regelmäßig Aufträge, die im Nachhinein wenig bis keine Marge abgeworfen haben — und der Grund liegt nicht im Materialeinkauf, sondern in den Fertigungsstunden
- Dein Auftragsvolumen liegt bei mindestens 50–60 Aufträgen pro Jahr, mit genug ähnlichen Projekttypen, um statistische Muster zu erkennen
Drei harte Ausschlusskriterien — wer jetzt noch nicht starten sollte:
-
Unter 50–80 auswertbaren Aufträgen je Projektkategorie. Wenige Datenpunkte produzieren Scheinmuster, die in der Praxis nicht reproduzierbar sind. Ein Mittelmaß von 15 Projekten mit ähnlichen Merkmalen reicht nicht — da regiert noch der Zufall. Erst wenn genug ähnliche Projekte vorliegen, wird das Signal vom Rauschen trennbar.
-
Keine strukturierte Zeitrückmeldung im ERP. Wenn tatsächliche Fertigungsstunden nicht systematisch je Kostenstelle oder Operationstyp erfasst werden — sei es weil die Erfassung zu grob ist, nicht konsistent passiert oder auf Papier läuft — gibt es nichts zu analysieren. Kein KI-System kann einen Plan-Ist-Vergleich machen, wenn die Ist-Seite nicht existiert. Die Vorarbeit ist hier keine KI-Einführung, sondern eine Konsolidierung der BDE.
-
Starke Produktmixveränderung in den letzten Jahren. Wenn euer Unternehmen in den letzten drei Jahren von Serienwerkzeugen auf Prototypen umgestiegen ist, oder umgekehrt, sind historische Muster wenig aussagekräftig für aktuelle Projekte. Das Modell lernt auf Daten, die für die heutigen Anforderungen nicht mehr repräsentativ sind.
Das kannst du heute noch tun
Öffne dein ERP-System und exportiere die letzten zwölf Monate: Auftragsnummer, Soll-Stunden gesamt, Ist-Stunden gesamt, Operationstyp (wenn vorhanden). Lade die Datei in Power BI Desktop (kostenlos) und erstelle ein einfaches Streudiagramm: x-Achse = Soll-Stunden, y-Achse = Ist-Stunden. Wenn alle Punkte um die Diagonale streuen — kein erkennbares Muster. Wenn bestimmte Punkte konsequent oberhalb der Diagonalen liegen — das sind erste Kandidaten für systematischen Drift.
Das dauert zwei Stunden und zeigt dir, ob das Thema relevant für euch ist — bevor du einen Cent ausgibst.
Für den nächsten Schritt — die strukturierte Analyse eines konkreten Projekts — kannst du diesen Prompt nutzen:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- WBA Aachener Werkzeugbau Akademie / digital-manufacturing-magazin.de: Studie zur datengestützten Fertigungszeitprognose im Werkzeugbau. Kernbefund: Prototyp eines ML-Modells erreichte durchschnittlichen Vorhersagefehler von 6 Minuten, 240-prozentige Verbesserung gegenüber Expertenschätzung. Quelle: digital-manufacturing-magazin.de, veröffentlicht ca. 2023–2024. URL: https://www.digital-manufacturing-magazin.de/fertigungszeiten-werkzeugbau-prognostizieren-a-9102bf02c423fc641a1f99503054504e/
- WBA Werkzeugbau Akademie / Beschaffung Aktuell: Kalkulationsgenauigkeit erfahrener Schätzer im Werkzeugbau ±20 %, in schwierigen Bereichen ±40 %; Angebots-/Nachkalkulationsvergleich zeigt Abweichungen zwischen -40 und +70 % der kalkulierten Herstellkosten. Quellen: WBA Studie „Erfolgreich Kalkulieren im Werkzeugbau” (2015, Grundlage weiterhin zitiert) sowie Beschaffung Aktuell / Industrie.de.
- Cambridge AI EDAM (2023): Vergleich von Machine-Learning-Algorithmen zur Vorhersage von Standardzeiten in der Fertigung. Mittlerer Fehler bei parametrischen Methoden ca. 25 ± 20 %; Potenzial zur Reduktion systematischer Fehler durch ML-Kalibrierung. URL: https://www.cambridge.org/core/journals/ai-edam/article/comparative-analysis-of-machine-learning-algorithms-for-predicting-standard-time-in-a-manufacturing-environment/DC675B5316B88F4ED1EF9527CE5A7FB9
- Innoby (2024): Manuelle Kalkulation im Werkzeugbau benötigt durchschnittlich 3,3 Stunden reine Bearbeitungszeit. URL: https://innoby.de/angebotskalkulation-werkzeugbau
- Preisangaben Werkzeuge: KNIME Analytics Platform (kostenlos, Open Source), Power BI Desktop (kostenlos), Power BI Pro (12,10 €/Nutzer/Monat, Stand April 2026), Apromore Community Edition (kostenlos, selbst gehostet), Celonis (ab ca. 50.000–100.000 € erste Analyseprojekte, Stand April 2026).
- Erfahrungswerte aus ERP-Datenanalyse-Projekten: Schätzung Implementierungsaufwand und Datenbereinigungsdauer basierend auf typischen Werkzeugbau-ERP-Projekten (Stand April 2026).
Du willst wissen, ob eure ERP-Daten für eine Pilotanalyse reichen und wo die größten Abweichungsmuster liegen? Meld dich — das klären wir in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Angebotskomplexitäts-Risikoerkennung
KI analysiert eingehende Anfragen auf versteckte Komplexitätstreiber und schätzt das Unterkalkulationsrisiko, bevor der Angebotspreis festgelegt wird.
Mehr erfahrenToleranzstapelungs-Risikoprognose
KI prüft Konstruktionszeichnungen auf Toleranzkombinationen, die statistisch zu Passungsproblemen führen — bevor das erste Werkzeug gefräst wird.
Mehr erfahrenNacharbeits-Ursachen-Clustering
ML gruppiert Nacharbeits-Protokolle nach Muster statt nach Fehlermeldung — und zeigt, ob Dimensionsabweichungen am Maschinensetup, am Rohmaterial oder am Bearbeitungsschritt liegen.
Mehr erfahren