Fehleranalyse im Spritzguss per Bildauswertung
KI erkennt Oberflächenfehler, Einfallstellen und Gratbildung an Spritzgussteilen automatisch am Förderband.
Es ist Dienstagmorgen, 6:47 Uhr. Schichtleiter Markus Ferber steht am Ausgang der Spritzgussanlage und hält ein Gehäuseteil gegen das Licht.
Er dreht es einmal, zweimal. Die Einfallstelle ist da — leicht, aber da. Zehn Teile zieht er zur Nachprüfung heraus. Drei sind eindeutig schlecht, bei zwei weiteren ist er unsicher. Die anderen fünf gehen durch. Das ist keine Nachlässigkeit, das ist Physik: Nach drei Stunden Stichprobenkontrolle bei schlechtem Hallenlicht und nach der vierten Kaffeepause sinkt die Erkennungsrate des menschlichen Auges spürbar. Das weiß Markus selbst.
Am Ende der Schicht wird eine Kundenlieferung kommissioniert. 14.400 Teile, zwei Tage später beim Tier-1-Lieferanten. Die Reklamation kommt vier Wochen danach: 0,9 % Ausschussanteil in der Sendung, Sortierkosten und eine Gegenforderung, die größer ist als der Deckungsbeitrag des gesamten Auftrags.
Das Problem ist nicht Markus Ferber. Das Problem ist, dass Stichprobenkontrolle strukturell blind ist — sie verteilt das Risiko, eliminiert es aber nicht.
Das echte Ausmaß des Problems
Spritzguss produziert schnell. Eine mittelgroße Maschine schießt alle 15–30 Sekunden ein Teil aus dem Werkzeug — das sind 1.000 bis 2.400 Teile pro Stunde je Kavität. Selbst bei einer Prüfquote von 10 Prozent schafft eine Prüfperson realistisch kaum mehr als 600 Teile pro Stunde bei echter Konzentration. Vollständige Sichtprüfung aller Teile von Hand ist damit kein realistisches Szenario.
Die Folge ist bekannt: Stichprobenprüfung nach AQL-Tabellen. Sie gibt statistische Sicherheit — aber keine Einzelteilsicherheit. Ein AQL-Level 2,5 bedeutet: Bis zu 2,5 Prozent Fehlerteile in einer Charge können statistisch unentdeckt durchkommen. Für Automotive-Tier-1-Kunden oder Medizintechnik-Zulieferer ist das inzwischen nicht mehr akzeptabel.
Konkret entstehen aus diesem Gap die größten Kostenpositionen der Kunststoffverarbeitung:
- Reklamationskosten durch fehlerhafte Teile beim Kunden — Sortierkosten, Nachlieferungen, Konventionalstrafen
- Ausschusskosten durch fehlerhafte Teile, die erst spät im Prozess entdeckt werden — Materialverlust, Maschinenzeit, Verpackung
- Nacharbeitkosten für Teile im Grenzbereich, die manuell nachgearbeitet werden könnten, aber nicht sauber identifiziert werden
- Prozessblindheit: Wenn nur 5–10 Prozent der Teile geprüft werden, erhält das Fertigungsteam kein klares Bild darüber, wann ein Prozess anfängt, außerhalb der Toleranz zu laufen — die Erkennung kommt immer mit Verzug
Pexon Consulting berichtet aus Kundenprojekten von Ausschussreduktionen um bis zu 70 Prozent nach der Einführung von Computer Vision-Systemen in der Spritzgussqualitätsprüfung. Die typische Fehlerrate beim Kunden liegt vor der Einführung bei 0,8–1,5 Prozent und fällt danach auf 0,05–0,2 Prozent.
Die Murrplastik Medizintechnik GmbH — Hersteller von Kunststoffkomponenten für Sicherheitsschalter — hat die Erfahrung gemacht, dass Qualitätsprobleme mit rein manueller Prüfung oft erst im Nachhinein zugeordnet werden konnten: “Mit Softwareunterstützung erkennen wir Qualitätsprobleme frühzeitig und können deren Ursachen klar zuordnen” (Detact/Symate, 2021). Das Unternehmen produziert über 6.000 Komponenten täglich mit einem Maschinentakt von 24 Sekunden pro Teil — ein Volumen, das manuelle Vollprüfung von vornherein ausschließt.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI-Sichtprüfung | Mit KI-Inline-Prüfung |
|---|---|---|
| Prüftiefe | 5–10 % der Teile stichprobenartig | 100 % aller Teile |
| Prüfgeschwindigkeit | 400–600 Teile/Stunde je Prüfer | 1.800–7.200 Teile/Stunde je nach System |
| Erkennungsrate Oberflächenfehler | 70–85 % bei konzentriertem Prüfer | Über 96 % (nach Training und Einlaufphase) |
| Fehlerrate beim Kunden | 0,5–1,5 % je nach Branche und Prüfaufwand | Unter 0,2 % (Benchmark: 0,05–0,15 %) |
| Prüfkonsistenz | Abnehmend über Schicht und Schichtübergabe | Konstant über 24/7-Betrieb |
| Fehlerklassifizierung | Ja/Nein, selten mit Fehlertyp | Klassifiziert: Einfallstelle, Grat, Schliere, Delamination etc. |
| Reaktionszeit bei Prozessdrift | Stunden bis Schichtende | Minuten — sofortige Eskalation per Signal an SPS |
Die Vergleichswerte basieren auf öffentlich zugänglichen Projektberichten von Pexon Consulting (2024) sowie der Springer-Nature-Veröffentlichung “Smart defect detection using transfer learning in injection molding” (Springer, 2024). Eigene Erkennungsratenwerte können je nach Defekttyp, Oberfläche und Beleuchtungsqualität variieren.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) Ein KI-Sichtprüfsystem beschleunigt keine bestehende Aufgabe spürbar, denn die Prüfung wird dabei von Stichprobe auf Vollprüfung umgestellt — das ist ein anderes Aufgabenprofil, kein schnelleres. Der Zeitgewinn entsteht indirekt: weniger manuelle Nachprüfung von Ausschuss, weniger Sortieraufwand bei Reklamationen, weniger Ursachensuche bei Prozessdrift. Verglichen mit der Qualitätsprüfprotokoll-Automatisierung oder den Rüstzeitenoptimierungen in dieser Kategorie ist die direkte Zeitersparnis begrenzt.
Kosteneinsparung — sehr hoch (5/5) Das ist die stärkste Achse dieses Anwendungsfalls und der Hauptgrund für die Entscheidung. Reklamationskosten in der Kunststoffverarbeitung umfassen nicht nur den Warenwert, sondern Sortierkosten beim Kunden, Sonderfahrten, Konventionalstrafen und im schlimmsten Fall Linienunterbrechungen beim Abnehmer. Eine Reklamation kostet leicht das 10- bis 50-fache des Teilewertes. Wer diesen Hebel quantifizieren kann, findet für diese Investition fast immer einen positiven Business Case — die Einsparung ist messbar, direkt und dauerhaft. Höchstwert unter den verglichenen Anwendungsfällen.
Schnelle Umsetzung — schwierig (2/5) Das ist der härteste Engpass. Ein KI-Sichtprüfsystem ist keine Software, die man installiert — es ist eine physische Integration in die Produktionslinie. Kameraauswahl, Beleuchtungskonzept, Montagegestell, SPS-Anbindung, Ausschleusmechanismus: Jede dieser Positionen ist ein eigenes Subprojekt. Dazu kommt der Aufbau eines aussagekräftigen Trainingsbilddatensatzes, der Fehler und Gutteile unter Produktionsbedingungen abbildet. Realistisch sind 16–24 Wochen vom Kick-off bis zum stabilen Produktivbetrieb. Schwierigster Einstieg unter den verglichenen Anwendungsfällen.
ROI-Sicherheit — hoch (4/5) Der ROI ist solide, weil er direkt messbar ist: Defektrate vor und nach, Ausschusskosten, Reklamationskosten. Pexon Consulting nennt Amortisationszeiten von 12–18 Monaten für Systeme ab 75.000 Euro. In Branches wie Automotive mit klaren Konventionalstrafen kann der ROI sogar deutlich schneller eintreten. Nicht maximal, weil der ROI stark von der tatsächlichen Reklamationshistorie abhängt — wer bisher wenig Reklamationen hatte (weil er trotz schlechter Prüfung Glück hatte), sieht einen schlechteren Business Case.
Skalierbarkeit — hoch (4/5) Jede Produktionslinie braucht ihre eigene physische Einheit — es gibt keine Software-Skalierung wie bei Cloud-Diensten. Allerdings: Das einmal erarbeitete Know-how (Beleuchtungskonzept, Kamerawahl, Trainingsbildlogik) ist auf weitere Linien übertragbar. Maddox AI und ähnliche Anbieter sprechen von deutlich reduzierten Einrichtungszeiten ab der zweiten Linie. Wer mehrere ähnliche Maschinen betreibt, amortisiert das initiale Lernprojekt über die Folgeinstallationen.
Richtwerte — stark abhängig von Stückzahl, Fehlertyp, Anlagenaufbau und vorhandener Reklamationshistorie.
Was das System konkret macht
Ein KI-Inline-Sichtprüfsystem besteht aus drei physischen Komponenten und einer Software-Schicht:
1. Kamera und Beleuchtung erfassen das Teil unmittelbar nach dem Entformungsvorgang oder auf dem Förderband vor der Verpackung. Je nach Fehlertyp werden unterschiedliche Beleuchtungsverfahren kombiniert: Auflicht für Oberflächentopografie (Einfallstellen, Grate, Schlieren), Durchlicht für Delamination und Einschlüsse, UV-Licht für Verschmutzungen und Verfärbungen. Das Bild muss in der verfügbaren Zeitlücke zwischen zwei Schüssen aufgenommen werden — typisch 2–5 Sekunden.
2. Edge-Computing-Einheit verarbeitet das Bild lokal. Kein Cloud-Upload, kein Latenzrisiko — das Ergebnis muss vor dem nächsten Maschinenöffnen vorliegen. Dabei läuft ein trainiertes Deep-Learning-Modell (typisch auf Basis von Convolutional Neural Networks, in moderneren Implementierungen YOLO-Architekturen oder DINOv2-Ansätze) und klassifiziert: Gutteil, Ausschuss mit Fehlertyp, oder Unsicherheitsfall für manuelle Nachprüfung.
3. SPS-Anbindung schließt den Loop. Bei Ausschuss wird über das Steuerungssystem ein Signal an den Ausschleusmechanismus gegeben — Druckluft, Robotergreifer oder Weiche, je nach Anlage. Optional gehen Häufigkeitstrends der Fehlerklassen in ein Machine Learning-basiertes Frühwarnsystem: Wenn Einfallstellen in einer Kavität zunehmen, kündigt das typischerweise Werkzeugverschleiß an, bevor dieser sichtbar wird.
Wo der echte Aufwand liegt
Der technische Anteil an diesem Projekt ist nicht die KI, sondern die Hardware-Integration. Das hört man von Projekterfahrenen immer wieder: Das Modell trainiert sich in einer Woche. Aber die Beleuchtung sitzt drei Wochen nicht richtig, der Reflexionswinkel stimmt nicht bei glänzenden Oberflächen, der Ausschleusmechanismus kollidiert mit der bestehenden Förderanlage, und die SPS spricht einen anderen Protokollstandard als der Industrie-PC des Vision-Systems.
Das ist kein Argument gegen das Projekt — aber eines gegen die Unterschätzung der mechanischen und elektrischen Integration.
Was die Hardware wirklich braucht
Dieser Abschnitt gehört in die Planung, bevor ein Anbieter kontaktiert wird.
Kamerawahl: Für glatte Spritzgussoberflächen reicht häufig eine 5-Megapixel-Mono-Kamera mit Gegenlichtbeleuchtung. Für tiefe Einfallstellen und Topografieprüfung wird ein 3D-Profilsensor oder Streifenlichtprojektor nötig. Für Mehrfachkavitäts-Werkzeuge mit Handling-Roboter kann die Kamera in den Entnahmegreifer integriert werden — das spart ein separates Förderband-Setup.
Beleuchtung: Keine Entscheidung in diesem Projekt ist wichtiger als die Beleuchtung. Falsch gewählt, erkennt das beste Modell keine Einfallstelle. Richtig gewählt, reichen einfachere Modelle für hohe Erkennungsraten. Bewährte Kombinationen für Spritzgussteile: Koaxiallicht für spiegelnde Oberflächen, Ringlicht für matte Oberflächen, Zeilenbeleuchtung für Inline-Förderband.
Trigger und Synchronisation: Das Kamerasystem muss wissen, wann ein Teil im Sichtfeld liegt. Bei Förderband-Integration typischerweise via Lichtschranke oder Signal aus der Spritzgussmaschine (Euromap-Schnittstelle). Ohne stabilen Trigger entstehen Bewegungsunschärfe und Doppelaufnahmen.
SPS-Kommunikation: Die meisten Spritzgussmaschinen sprechen Siemens S7 oder Profinet. Das Vision-System muss entweder direkt über diese Schnittstellen kommunizieren oder über einen OPC-UA-Gateway angebunden werden. Ohne SPS-Anbindung ist der Ausschleusmechanismus nicht automatisierbar — dann bleibt das System ein Anzeigegerät, kein Prüfsystem.
Kühlzeit und Taktzeit: Das Bild muss nach der Entformung aufgenommen werden, wenn das Teil noch heiß sein kann. Thermische Ausdehnung und Oberflächenbeschaffenheit direkt nach dem Schuss unterscheiden sich von einem abgekühlten Teil. Das Modell muss unter Produktionsbedingungen trainiert werden — nicht im Labor.
Wann das Modell wieder schlechter wird
Das ist der am häufigsten unterschätzte Aspekt dieses Projekts. Das Modell wird nach der Einführung irgendwann schlechter — nicht dramatisch, sondern schleichend. Wenn niemand darauf achtet, passiert es still.
Materialwechsel: Wenn ein neuer Granulatlieferant andere Farbchargen oder leicht abweichende Füllstoffe liefert, verändern sich Oberflächentextur und Reflexionsverhalten. Das Modell erkennt jetzt Gutteile schlechter, weil sie anders aussehen als die Trainingsbilder. Die Falsch-Ausschuss-Rate steigt, die Linie stoppt häufiger — aber niemand versteht warum.
Werkzeugverschleiß: Mit zunehmendem Werkzeugverschleiß verändern sich Oberflächengüte und Gratmuster. Fehler, die bisher eindeutig klassifiziert wurden, liegen jetzt im Graubereich des Modells. Das Modell muss mit frischen Bildern aus dem aktuellen Werkzeugzustand nachtrainiert werden.
Beleuchtungsalterung: Industrielle LED-Beleuchtung altert. Helligkeit, Farbtemperatur und Abstrahlcharakteristik ändern sich über Monate. Was nach 18 Monaten auf dem Sensor ankommt, ist ein anderes Bild als beim Training. Monatliche Kalibrierprotokolle sind kein bürokratischer Aufwand, sondern technische Notwendigkeit.
Neue Fehlertypen: Wenn die Maschine eine neue Fehlerart produziert, die im Trainingsset nicht vorkommt, klassifiziert das Modell sie als Gutteil oder als bekannten Fehler. Niemand bemerkt es, bis beim Kunden der neue Fehlertyp auftaucht. Lösung: Regelmäßige Stichprobenprüfung der “Gutteile”-Entscheidung durch eine Prüfperson — die Automatisierung prüft alles, der Mensch prüft die Entscheidungsqualität der Automatisierung.
Wer ist dafür zuständig? Das muss vor der Inbetriebnahme festgelegt sein: Eine namentlich benannte Person, die Erkennungsraten-Statistiken monatlich auswertet und Nachtrainingsprozesse auslöst. Das ist kein Vollzeitjob, aber es braucht eine klare Zuständigkeit. Ohne sie läuft das System weiter und wird still schlechter.
Konkrete Werkzeuge — was wann passt
Beim Aufbau eines Inline-Sichtprüfsystems gibt es drei grundlegende Wege:
Maddox AI — der stärkste europäische Spezialist. Deutsches Unternehmen aus Tübingen, ISO 27001 zertifiziert, Daten bleiben in Deutschland. Keine Hardware-Lieferung — nur Software, die mit deiner bestehenden oder neu zu beschaffenden Kamerahardware zusammenarbeitet. Referenzkunden: Siemens, Denso, SKF. Risikofreie Testphase: Zahlung erst, wenn vereinbarte Erkennungsziele erreicht sind. Einstieg im mittleren fünfstelligen Bereich. Empfehlung: Wenn DSGVO-Konformität und deutschsprachiger Support wichtig sind und kein Hardware-Gesamtpaket benötigt wird.
Cognex Vision — Weltmarktführer für industrielle Bildverarbeitungssysteme. Hardware und Software aus einer Hand, jahrzehntelange Referenzen in Automotive und Medizintechnik, direkte SPS-Integration mit Industriehardware. Hohe Anfangsinvestition: Prüfstation typisch 25.000–80.000 Euro. Geeignet, wenn die Prüfaufgabe stabil und klar definiert ist und eine langlebige, wartungsarme Lösung gesucht wird. Nicht für wechselnde Prüfaufgaben oder flexible Geometrien.
KEYENCE Vision — direkter Wettbewerber zu Cognex mit ähnlichem Angebot. Tendenziell einfachere Einrichtung, kostenloser Anwendungsberater-Service vor Ort, lokale Präsenz in Deutschland. Preislich ähnlich wie Cognex. Gut geeignet, wenn ein lokaler Support-Partner wichtig ist und die Hardware-Investition in einem Zug erfolgen soll.
Landing AI — No-Code-Plattform für Pilotprojekte. Mit LandingLens lässt sich in Wochen ein Proof of Concept aufbauen, bevor Industriehardware beschafft wird. Kosten im ersten Jahr unter 3.000 Euro. US-Datenhosting ohne einfache EU-Option — für sensible Produktionsbilder muss das mit dem Datenschutzbeauftragten geklärt werden. Sinnvoll als erster Machbarkeitsnachweis.
Roboflow — Plattform für Datensatz-Aufbau, Annotation und erstes Modelltraining. Gut für Teams mit technischen Mitarbeitenden, die ein eigenes Modell entwickeln möchten. Freemium bis zum Starter-Plan (ab 20 USD/Monat). Ebenfalls US-Hosting. Sinnvoll in Kombination mit einer lokalen Deployment-Infrastruktur.
YOLO (Open Source, Ultralytics) — für Betriebe mit eigenem Entwicklungsteam oder IT-Dienstleister. YOLO-Modelle laufen vollständig lokal, keine Cloud-Abhängigkeit, DSGVO-sicher. Einrichtungsaufwand höher, aber volle Kontrolle. Infrastrukturkosten: 500–3.000 Euro einmalig für GPU-Hardware, danach keine laufenden Lizenzkosten.
Zusammenfassung: Wann welcher Ansatz
- Deutschsprachiger Support, DSGVO, keine Hardware-Lieferung → Maddox AI
- Hardware und Software aus einer Hand, stabile Serienproduktion → Cognex oder Keyence
- Erst Machbarkeit beweisen, dann investieren → Landing AI
- Eigenes technisches Team vorhanden, maximale Kontrolle → YOLO + Roboflow
- Annotation und Datensatz-Management → Roboflow
Datenschutz und Datenhaltung
Spritzgussteile enthalten in der Regel keine personenbezogenen Daten. Das reduziert den DSGVO-Aufwand erheblich — die Kameraanlage prüft Oberflächen, nicht Menschen.
Trotzdem gibt es relevante Datenschutzaspekte:
Produktionsbilder als Geschäftsgeheimnis. Fehlerbilder aus der Produktion können Rückschlüsse auf Fertigungsverfahren, Werkzeugdesign und Prozessparameter ermöglichen. Sie sind sensible Unternehmensdaten, auch wenn sie keine personenbezogenen Informationen enthalten. Cloud-Plattformen wie Landing AI oder Roboflow verarbeiten diese Daten standardmäßig auf US-Servern. Für Unternehmen mit Geheimhaltungsvereinbarungen gegenüber ihren Kunden (OEM, Tier-1) sollte das vor dem Einsatz geprüft werden.
Empfohlene Varianten nach Datenschutzbedarf:
- Maximaler Schutz: Maddox AI (Deutschland-Hosting, ISO 27001) oder vollständig lokales YOLO-Deployment
- Mittlere Anforderungen: Landing AI Enterprise oder Roboflow Enterprise mit On-Premise-Option
- Geringes Risiko (kein OEM-Geheimhaltungsvertrag, keine sensiblen Geometrien): Roboflow Starter oder Landing AI Explore für die Pilotphase
SPS- und OT-Netzwerk. Die Anbindung an die Spritzgussmaschine erfolgt über das OT-Netzwerk. Vision-Systeme, die über OPC-UA oder Profinet in die Maschinensteuerung integriert werden, sollten in einem abgetrennten Netzwerksegment laufen — keine direkte Verbindung vom Vision-PC ins Internet. Der Integrator muss das in der Netzwerkplanung berücksichtigen.
Bildarchivierung und Aufbewahrung. Viele Systeme archivieren Bilder mit Prüfergebnis für die Rückverfolgbarkeit (Traceability). Klare Löschfristen und Speicherorte gehören in die Betriebsdokumentation, nicht erst in eine Revision.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
Ein vollständiges System — Kamera, Beleuchtung, Edge-PC, Ausschleusmechanismus, SPS-Anbindung, Inbetriebnahme, Modelltraining — kostet in der Praxis:
- Einfaches System (eine Kamera, eine Fehlerklasse, Förderband): 30.000–60.000 Euro
- Mittleres System (zwei bis drei Kameras, mehrere Fehlerklassen, SPS-Integration): 60.000–120.000 Euro
- Komplexes System (Mehrkavität, mehrere Oberflächen, vollständige MES-Anbindung): 120.000–250.000 Euro
Pexon Consulting nennt als Einstiegspunkt für vollständige Systeme ca. 75.000 Euro (Stand 2024). Hardware-Anbieter wie Cognex und Keyence liegen pro Prüfstation typisch bei 25.000–80.000 Euro ohne Integrationsaufwand.
Laufende Kosten (monatlich)
- Maddox AI: Preise auf Anfrage, mittlerer bis oberer fünfstelliger Bereich für Pilotprojekte
- Cognex/Keyence: Keine laufenden Lizenzkosten — Einmalzahlung, optionaler Wartungsvertrag
- Landing AI (Pilot): ab 250 USD/Monat (Team-Plan)
- Infrastruktur (lokal): Negligible — Edge-PC ist einmalige Investition
Was du dagegenrechnen kannst
Die Rechnung ist einfach — was eine Reklamation kostet, muss bekannt sein.
Beispiel: Ein Kunststoffverarbeiter mit 12 Millionen Euro Umsatz verzeichnet jährlich vier bis sechs Reklamationen bei Automotive-Kunden. Jede Reklamation kostet im Schnitt 18.000 Euro (Sortierkosten beim Kunden, Sonderfahrt, interne Analyse, Konventionalstrafe). Jahresschadenskosten: 72.000–108.000 Euro. Ein System für 90.000 Euro hat sich im konservativsten Szenario in etwa 18 Monaten amortisiert — und das ohne Berücksichtigung des reduzierten Ausschusses und des reduzierten Prüfpersonalaufwands.
Wie du den ROI tatsächlich misst: Vorher und nachher zählen. Reklamationskosten pro Quartal, Ausschusskilo pro Monat, Sortieraufwand intern. Die Kennzahlen müssen vor dem Projekt erhoben werden — wer erst danach anfängt zu messen, verliert den Ausgangswert.
Typische Einstiegsfehler
1. Das Kamera- und Beleuchtungskonzept zu spät festlegen. Es wird ein System ausgeschrieben, ein Anbieter ausgewählt und beauftragt — und erst dann stellt sich heraus, dass die vorhandene Förderbandgeometrie keine stabile Kameraposition erlaubt, oder dass die Beleuchtung für die vorhandene Oberflächengeometrie nicht funktioniert. Beleuchtungsversuche mit Muster-Gutteilen und Ausschussteilen müssen Teil der Angebotsphase sein, nicht der Inbetriebnahmephase. Kein seriöser Anbieter sollte ein finales Angebot abgeben, bevor er die reale Produktionsumgebung gesehen hat.
2. Mit Laborbildern statt Produktionsbildern trainieren. Ein Modell, das mit Teilen unter kontrollierten Laborbedingungen trainiert wurde, versagt in der Halle: andere Beleuchtungswinkel, Bewegungsunschärfe, Schmutzpartikel auf der Förderanlage, thermische Ausdehnung des frisch entformten Teils. Der Trainingsbilddatensatz muss unter realen Produktionsbedingungen aufgebaut werden — 200 bis 500 Bilder je Fehlerklasse, unter den tatsächlichen Lichtverhältnissen und Taktzahlen. Das kostet zwei bis drei Produktionswochen Vorlaufzeit.
3. Die Falsch-Ausschuss-Rate ignorieren. Ein Modell mit 98-prozentiger Erkennungsrate klingt gut. Was bedeutet es konkret? Wenn ein Prozent aller Gutteile fälschlicherweise als Ausschuss ausgeschleust wird und das Produktionsvolumen 10.000 Teile pro Tag beträgt, werden täglich 100 Gutteile weggeworfen. Das muss in die Wirtschaftlichkeitsrechnung. Die richtige Frage ist nicht “Wie hoch ist die Erkennungsrate?”, sondern “Was ist die optimale Balance zwischen Falsch-Ausschuss und Durchlass für unser Produkt und unsere Kundenanforderungen?”
4. Das System einführen und nicht weiterentwickeln — der Wartungsfehler. Das ist der gefährlichste Fehler — und er passiert häufig. Nach der Inbetriebnahme läuft das System, die Erkennungsrate ist gut, und alle sind zufrieden. Sechs Monate später ändert sich das Granulat vom Lieferanten. Zwölf Monate später altert die Beleuchtung. 18 Monate später hat das Werkzeug Verschleiß. Das Modell degradiert still — es gibt kein Warnsignal, nur eine langsam steigende Reklamationsquote, die niemand dem Vision-System zuordnet.
Die technische Lösung ist ein wöchentliches Monitoring der Erkennungsraten-Statistiken und ein klar definiertes Retraining-Protokoll: Wann wird nachtrainiert? Wer entscheidet das? Welche neuen Bilder werden verwendet? Diese Fragen müssen vor dem Go-live beantwortet sein.
Was mit der Einführung wirklich passiert — und was nicht
Die technische Einführung ist selten das größte Problem. Die Widerstands- und Adoptionsmuster sind anders als erwartet.
Die Prüfer-Identitätsfrage. In vielen Spritzgussbetrieben haben erfahrene Prüfer eine starke berufliche Identität: Sie wissen aus jahrzehntelanger Erfahrung, welche Teile gut und welche schlecht sind. Ein System einzuführen, das diese Entscheidung automatisiert, fühlt sich für diese Menschen nach einer Abwertung an — auch wenn das nie so kommuniziert wird. In der Praxis zeigt sich das als skeptische Ablehnung der ersten Systemfehler (“Das System hat fünf Gutteile ausgeschleust, die eindeutig gut waren”) und als Tendenz, die manuelle Prüfung parallel weiterzuführen.
Was hilft: Erfahrene Prüfer frühzeitig in die Bildannotation einbinden. Ihr Expertenwissen ist die wertvollste Ressource beim Aufbau des Trainingsdatensatzes. Wer die Trainingsdaten mitaufgebaut hat, identifiziert sich mit dem Ergebnis statt gegen es zu arbeiten.
Der Pilot beweist nicht das Produktionssystem. Oft läuft ein vierwöchiger Pilot mit 95-prozentiger Erkennungsrate — und dann läuft das Produktionssystem mit 87-prozentiger Erkennungsrate. Der Unterschied: Im Pilot war die Beleuchtung sorgfältig eingestellt, der Datensatz frisch, die Produktionsbedingungen stabil. Im Dauerbetrieb ändert sich alles langsam. Der Pilot beweist die Machbarkeit des Ansatzes — nicht die Qualität des Dauersystems.
Messpunkt-Verschiebung. Das System schleust Ausschuss aus — aber Ausschuss, der vorher die Linie verlassen hätte, bleibt jetzt intern. Die gemessene Reklamationsrate sinkt, aber die interne Ausschussquote steigt zunächst scheinbar. Das ist ein gutes Zeichen, wird aber manchmal als Kostensteigerung fehlinterpretiert. Wichtig: Baseline vor der Einführung klar dokumentieren.
Was konkret hilft:
- Zwei bis drei erfahrene Prüfer als Hauptannotatoren für den Trainingsdatensatz einsetzen
- Parallelbetrieb (manuell + System) für vier bis sechs Wochen nach Go-live — nicht als Kontrolle des Systems, sondern als Kalibrierung
- Wöchentliche Kurzauswertung der Erkennungsstatistiken in den ersten drei Monaten, kommuniziert ans Team
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Anforderungs- und Standortanalyse | Woche 1–2 | Fehlertypen definieren, Taktzeit messen, Kamera- und Beleuchtungskonzept entwickeln, SPS-Schnittstellen klären | Standort ungeeignet für stabile Kameraposition — Umbau nötig |
| Angebots- und Anbieterauswahl | Woche 3–5 | Beleuchtungsversuche mit realen Teilen, Angebote einholen, Hardware-Entscheidung treffen | Beleuchtungstest zeigt: Fehlertyp A nicht detektierbar mit gewählter Methode — Konzeptrevision |
| Hardwarebeschaffung und -installation | Woche 6–10 | Kamera, Edge-PC, Ausschleussystem beschaffen, Montage, SPS-Anbindung, Netzwerkintegration | Lieferzeiten für Industriehardware: 6–10 Wochen; SPS-Kommunikation erfordert zusätzlichen OT-Spezialisten |
| Trainingsbildaufbau | Woche 8–14 (parallel zu Installation) | 200–500 Bilder je Fehlerklasse unter Produktionsbedingungen aufnehmen und annotieren | Zu wenig Ausschussteile für seltenere Fehlerklassen — synthetische Datenerweiterung nötig |
| Modelltraining und Kalibrierung | Woche 12–16 | Erstmodell trainieren, Erkennungsraten validieren, Schwellenwerte kalibrieren | Erkennungsrate für eine Fehlerklasse unter Ziel — Nachtraining mit weiteren Bildern |
| Parallelbetrieb und Go-live | Woche 16–24 | Parallel zur manuellen Prüfung, Abweichungen protokollieren, Modell nachbessern, Rollout abschließen | Falsch-Ausschuss-Rate höher als erwartet — Kalibrierung der Entscheidungsschwelle |
Wichtig: Die Phasen für Trainingsbildaufbau und Hardwareinstallation überlappen bewusst. Wer auf die Hardware wartet, bevor er Bilder sammelt, verliert vier bis sechs Wochen.
Häufige Einwände — und was dahintersteckt
„Wir haben das bisher immer von Hand geprüft, und es hat funktioniert.” Das stimmt wahrscheinlich — bis zu dem Moment, in dem es nicht mehr stimmt. Manuelle Prüfung funktioniert, solange die Fehlerquote tolerierbar ist. Wenn Kundeanforderungen strenger werden (0-ppm-Ziel bei Automotive Tier-1), das Prüfpersonal wechselt oder die Prüfmenge steigt, ist das kein nachhaltiges System mehr. Das Argument ist kein Argument gegen das System — es ist eine Bestandsaufnahme des aktuellen Zustands.
„Das kostet 80.000 Euro, das rechnet sich nie.” Rechne nach. Wie viel kosten zwei bis drei Reklamationen pro Jahr mit Sortierkosten, Sonderfahrt und Konventionalstrafe? Für viele Betriebe sind 80.000 Euro weniger als zwei Reklamationsjahre. Wer die Zahl nicht kennt, sollte sie erst erheben — dann entscheiden.
„Das KI-Modell macht Fehler, da vertraue ich lieber meinen Prüfern.” Das stimmt: Das Modell macht Fehler. Aber die Prüfer auch — systemisch, reproduzierbar und vorhersehbar. Müdigkeit, Konzentrationsschwäche, Schichtübergaben. Das Ziel ist nicht ein fehlerfreies System, sondern ein System, das zuverlässiger und vollständiger prüft als der bisherige Prozess. Bei 100 Prozent Prüftiefe und über 96 Prozent Erkennungsrate ist das fast immer gegeben.
Woran du merkst, dass das zu dir passt
- Dein Reklamationsproblem ist wiederkehrend — nicht ein Ausreißer, sondern eine Linie in der Fehlerhistorie, die sich durch mehrere Aufträge zieht
- Du produzierst Serien mit einer dominanten Geometrie, die mehrere Monate oder Jahre läuft — nicht jeden Tag ein anderes Bauteil
- Deine Kunden stellen Anforderungen, die über AQL-Stichprobenkontrolle hinausgehen: Null-Fehler-Ziel, Endlosprotokoll, Zertifizierungspflicht
- Du hast ein oder zwei Hauptfehlertypen, die wiederholt auftreten und gut definierbar sind (Einfallstelle, Gratbildung, Schlieren) — nicht eine lange Fehlertypenliste mit je 50 Beispielbildern
- Die Taktzahl lässt manuelle Vollprüfung nicht zu — du prüfst strukturell nur Stichproben, weil du nicht anders kannst
Drei harte Ausschlusskriterien — wann es (noch) nicht passt:
-
Unter ca. 50.000 Teilen pro Jahr je Geometrie. Der Aufwand für Trainingsbildaufbau, Hardwareintegration und Modellpflege ist bei kleinen Stückzahlen wirtschaftlich nicht zu rechtfertigen. Eine Prüfstation ab 50.000 Euro amortisiert sich bei Jahresvolumina von weniger als 50.000 Teilen kaum — selbst bei hohen Reklamationskosten pro Teil.
-
Über 15–20 verschiedene Geometrien auf derselben Anlage mit häufigem Werkzeugwechsel. Jede neue Geometrie braucht einen eigenen Trainingsdatensatz und ggf. eine eigene Kamera-/Beleuchtungskonfiguration. Der Retraining-Aufwand bei wöchentlichem Werkzeugwechsel zwischen sehr unterschiedlichen Teilen übersteigt den Nutzen. Für hohe Variantenvielfalt sind regelbasierte Prüfsysteme mit einfacherer Geometrie-Parametrierung oft wirtschaftlicher.
-
Keine stabile Umgebung für Kamerainstallation und keine SPS-Integrations-Kapazität. Wer weder intern noch über einen externen Integrationsdienstleister OT-Expertise verfügbar hat, sollte das Projekt nicht starten. Das Kamerasystem muss in eine Fertigungsumgebung mit Vibrationen, Hitze und Schmutz integriert werden — und dauerhaft dort betrieben werden. Ohne jemanden, der diese Integration verantwortet und im Betrieb wartet, ist das Projekt zu 80 Prozent zum Scheitern verurteilt.
Das kannst du heute noch tun
Der schnellste Machbarkeitstest kostet nichts: Fotografiere heute zehn Gutteile und zehn Ausschussteile mit dem Smartphone — unter den Lichtverhältnissen, unter denen die Teile tatsächlich produziert werden. Lade diese 20 Bilder in Landing AI (kostenloser Einstieg, 1.000 Credits) oder Roboflow hoch und trainiere ein erstes Modell.
Das Ergebnis ist keine Produktionslösung. Aber es zeigt, ob die Fehlertypen überhaupt visuell unterscheidbar sind — eine Voraussetzung, über die manchmal debattiert wird, ohne sie je empirisch geprüft zu haben. Wenn das Modell mit 20 Bildern schon 80 Prozent Erkennungsrate erreicht, ist der visuelle Unterschied groß genug für ein industrielles System.
Für die nächste Stufe — Beleuchtungskonzept und Hardware-Auswahl — hilft dieser Prompt, den du in deinem nächsten Gespräch mit einem Anbieter oder Integrator verwenden kannst:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Murrplastik Medizintechnik GmbH / Detact by Symate: Fallstudie zur KI-gestützten Qualitätskontrolle im Spritzguss, publiziert August 2021. Murrplastik produziert über 6.000 Komponenten täglich (24 Sekunden Takt) und setzt Detact zur Frühwarnung und Fehlerursachenanalyse ein. Quelle: detact.com/en/cases-en/murrplastik
- Pexon Consulting: KI-Sichtprüfung Spritzguss — Systeme ab ca. 75.000 Euro, Amortisation 12–18 Monate, Ausschussreduktion bis zu 70 %. Quelle: pexon-consulting.de/fertigung/optische-qualitaetskontrolle-spritzguss (2024)
- Tede Solutions: “Inline Quality Control and AI in Injection Molding — Vision Systems 2025” — praxisnahe Darstellung der Integrations- und Modelldrift-Problematik, inkl. Kalibrierungszyklen und Retraining-Protokoll. Quelle: tedesolutions.pl/en/blog/inline-ai-vision-systems-quality-control-injection-molding (2025)
- Springer Nature / International Journal of Advanced Manufacturing Technology: “Smart defect detection using transfer learning in injection molding: a comparative exploration study of deep learning architectures” (2024) — wissenschaftlicher Vergleich von CNN-Architekturen für Spritzguss-Defekterkennung, Erkennungsraten 88–96 % je Modell und Fehlertypus. DOI: 10.1007/s00170-024-13768-5
- TH Köln (Technische Hochschule Köln): QuKu-ML Projekt — Kamerabasierte Qualitätsbewertung beim Kunststoff-Spritzguss mit ML-Strategien. Anomalie-basierter Ansatz (Erkennung von “Perfektion” statt Fehlern), 91 % Erkennungsrate mit 1.600 Trainingsbildern. Quelle: th-koeln.de/hochschule/qualitaetskontrolle-beim-spritzgiessen-verbessern
- Preisangaben Cognex Vision, Keyence Vision, Maddox AI: Anbieterangaben und Erfahrungswerte aus Integrationsprojekten (Stand April 2026).
- Scoring-Einordnung: Alle Radarwerte wurden kalibriert gegen den Kunststoff-Branch-Vergleich (UC02 bis UC10, Stand April 2026).
Du willst wissen, ob deine aktuelle Reklamationshistorie für dieses Projekt einen verlässlichen Business Case ergibt — und welche Systemvariante für euren Takt und eure Fehlertypen realistisch ist? Meld dich — das klären wir in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Qualitätskontrolle im Spritzguss
Computer-Vision-Systeme prüfen 100 % der Spritzgussteile inline auf Einfallstellen, Grate und Oberflächenfehler — statt 5 % Stichprobe durch müde Prüfer.
Mehr erfahrenMaterialrezepturen strukturiert dokumentieren
KI wandelt handschriftliche Rezepturen und Mischprotokolle in strukturierte, durchsuchbare Datenbankeinträge um — und schützt vor Wissensverlust wenn erfahrene Mitarbeitende gehen.
Mehr erfahrenKI-gestützte Rezepturoptimierung für Compounds
Machine-Learning-Modelle durchsuchen historische Formulierungsdaten und schlagen Rezepturoptimierungen vor — statt monatelanger Trial-and-Error-Versuchsreihen im Labor.
Mehr erfahren