Zum Inhalt springen
Kunststoff & Gummi spritzgussqualitaetskontrollecomputer-vision

KI-Qualitätskontrolle im Spritzguss

Computer-Vision-Systeme prüfen 100 % der Spritzgussteile inline auf Einfallstellen, Grate und Oberflächenfehler — statt 5 % Stichprobe durch müde Prüfer.

Worum geht's?

Es ist Montag, 6:45 Uhr.

Gundula ist Schichtführerin in einem Spritzgussbetrieb in der Oberpfalz. 18 Maschinen, 3 Millionen Teile im Monat. Sie beginnt die Schicht wie immer: drei Prüfer stellen sich ans Band, greifen sich im Wechsel Teile heraus und drehen sie ins Licht. Fünf Prozent der Produktion — das ist die Quote, mit der ihr Kunde zufrieden ist. „Ausreichend” steht im Qualitätsplan.

Um 11:23 Uhr klingelt das Telefon. Tier-1-Zulieferer, zwei Werke weiter. Dreiundsechzig fehlerhafte Türverkleidungen mit Einfallstellen, alle aus dem gestrigen Nachmittagslos. Die Teile sind bereits in der Vormontagelinie. Rückruf, Nacharbeit, Expresslieferung: 14.200 Euro, plus der Strafzettel aus dem Lieferantenportfolio.

Die Prüferin vom Vortag hatte neun Stunden Schicht hinter sich. Sie hat die Einfallstellen gesehen — oder vielleicht auch nicht. Bei 5-Prozent-Stichprobe braucht es keine Nachlässigkeit, nur Pech.

Das ist kein Ausreißer. In der Kunststoffverarbeitung ist das die Baseline.

Das echte Ausmaß des Problems

Manuelle Sichtprüfung im Spritzguss produziert zwei Probleme gleichzeitig: Sie ist teuer — und sie funktioniert nicht zuverlässig.

Fehlererkennungsrate unter Produktionsbedingungen: Studien aus der industriellen Qualitätssicherung zeigen, dass menschliche Prüfer unter realen Bedingungen — Schichtende, monotone Aufgabe, schnelles Förderband — 70 bis 85 % der Fehler erkennen. Bei einfachen, kontrastreichen Defekten mag das höher sein, bei subtilen Einfallstellen, feinen Graten oder kaum sichtbaren Farbabweichungen liegt die Rate erfahrungsgemäß deutlich darunter. KI-Bildverarbeitungssysteme erzielen in Serienanwendungen in der Kunststoffindustrie konstant 95 bis 99 % Erkennungsrate — unabhängig von Tageszeit und Schicht (laut Pexon Consulting, 2024, und Digitalzentrum Chemnitz-Projekten).

Stichprobe statt 100 %: Die gängige Praxis bei 5-Prozent-Stichprobenprüfung bedeutet rechnerisch: Bei 3 Millionen Teilen im Monat werden 2.850.000 Teile gar nicht geprüft. Wer eine Fehlerrate von 0,3 % hat, schickt pro Monat etwa 8.550 fehlerhafte Teile unentdeckt zum Kunden — von denen er nur einen Bruchteil als Reklamation zurückbekommt. Der Rest bleibt unsichtbar, bis er beim Endkunden auffällt.

Was eine Reklamation wirklich kostet: Die direkte Nacharbeit ist erst der Anfang. In der Automotive-Zulieferkette kommen Lieferantenportfolio-Bewertungen, 8D-Reports, Sonderfahrten, Sortieraktionen beim Kunden und im Extremfall Abmahnungsgebühren dazu. Branchenberatungen schätzen die Gesamtkosten einer Spritzguss-Reklamation auf das 10- bis 50-fache der reinen Materialkosten.

Warum Ausschuss so teuer ist: Ein Spritzgussteil, das bereits Werkzeugverschleiß, Zykluszeit, Materialeinsatz und Energiekosten verbraucht hat und dann am Bandende als Ausschuss aussortiert wird, hat trotzdem alle Herstellungskosten erzeugt. Je später der Fehler erkannt wird, desto teurer.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI (manuell)Mit KI-Bildverarbeitung
Prüfabdeckung5–10 % (Stichprobe)100 % inline
Fehlererkennungsrate70–85 %95–99 %
PrüfgeschwindigkeitTaktzeitbegrenzend bei hohem VolumenKein Taktzeitverlust
PrüfkonsistenzStark abhängig von Prüfer und TageszeitKonstant, 24/7
Fehler beim Kunden0,3–1,5 % (typisch)unter 0,2 % (Ziel)
PrüfdokumentationStichprobenartig, manuellVollständig, automatisch, je Teil
Reklamationskosten/JahrTypisch 1–4 % des UmsatzesSenkt sich messbar ab Monat 8–12

Die Erkennungsraten-Vergleiche basieren auf Industrieprojekten des Digitalzentrums Chemnitz und Angaben von Pexon Consulting (2024). Stichprobenwerte entstammen gängiger PPAP-Praxis. ¹ Erreichbarer Zielwert hängt stark von Fehlertyp, Kameraqualität und Beleuchtungsaufbau ab.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Das System prüft schneller als jeder Mensch — aber der Hauptgewinn liegt nicht in der Prüfgeschwindigkeit, sondern in der Prüftiefe und Abdeckung. Wenn du bisher fünf Prüfer hattest, kannst du nach der KI-Einführung nicht einfach vier entlassen: Jemand muss das System überwachen, Ausschuss physisch ausleiten, Alarm validieren und das Modell bei neuen Fehlertypen oder Produktwechseln nachtrainieren. Zeitersparnis entsteht vor allem durch wegfallende 100-Prozent-Sortierungen nach Kundenreklamationen — und die spürst du im Nachhinein, nicht vorher.

Kosteneinsparung — hoch (5/5) Das ist der stärkste Hebel. Ausschusskosten, Reklamationskosten und Sortierkosten sind direkt messbar, quantifizierbar und amortisieren das System typischerweise in 12 bis 18 Monaten. Das hat in dieser Kategorie den höchsten Kosteneinsparungsgrad: Jeder verhinderte Fehler beim Kunden spart das 10- bis 50-fache seines Materialwerts. Pexon Consulting berichtet von 70 % Ausschussreduktion in realen Spritzguss-Installationen (Anbieterangabe). Qualitätssicherungsanbieter gehen von 60 % Reduktion der Qualitätskosten innerhalb von 18 Monaten aus (Anbieterangabe).

Schnelle Umsetzung — niedrig (2/5) Das ist kein SaaS-Knopf. Ein Kamera-Inline-System braucht mechanische Integration in die Linie, geeignete Beleuchtung (in der Kunststoffprüfung oft das schwierigste Kapitel), einen ausreichend großen Trainingsdatensatz mit annotierten Fehlerbildern und typisch 12 bis 20 Wochen bis zum validierten Produktivbetrieb. Ein Datensatz mit 200 bis 500 Fehlerbeispielen je Fehlertyp ist ein realistisches Minimum — und den muss jemand sammeln, wenn er nicht schon vorhanden ist.

ROI-Sicherheit — hoch (4/5) Der ROI ist klar messbar: Ausschussrate vor der Einführung vs. danach, Reklamationen im Jahresvergleich, eingesparte Sortierkosten. Die Unsicherheit liegt vor allem in der Anlaufphase: Bis das Modell stabil läuft und false positives (unnötiger Ausschuss) und false negatives (durchgelassene Fehler) im akzeptablen Bereich liegen, können weitere 2 bis 4 Monate vergehen. Das ist kein Projektfehler, sondern die Natur von ML-Systemen in der Fertigungsqualität.

Skalierbarkeit — mittel (3/5) Jede Produktionslinie braucht ihr eigenes Kamerasystem mit eigener Beleuchtung und eigenem Modell — zumindest für jede neue Bauteilklasse. Das Wissen aus einem Modell lässt sich begrenzt auf ähnliche Teile übertragen, aber eine vollständige Übertragung ohne Nachtraining ist die Ausnahme. Wer zehn Maschinen ausstatten will, zahlt auch zehnmal die Hardware. Das begrenzt die Skalierbarkeit im Vergleich zu rein software-basierten Anwendungen.

Richtwerte — stark abhängig von Bauteilgeometrie, Fehlertypen, Stückzahlen und vorhandener Prüfdaten-Historie.

Was das System konkret macht

Das technische Prinzip ist Computer Vision kombiniert mit Deep Learning. Eine oder mehrere Industriekameras erfassen jedes Spritzgussteil an einer definierten Position — direkt am Entnahmegreifer, auf dem Förderband oder an einer dedizierten Prüfstation. Beleuchtung ist oft kritischer als die Kamera selbst: Auflicht, Gegenlicht, strukturiertes Licht oder Hochfrequenzbeleuchtung machen unterschiedliche Fehlertypen sichtbar. Einfallstellen brauchen einen anderen Beleuchtungsaufbau als Gratbildung.

Das Modell wurde auf annotierten Fehlerbildern trainiert: Bilder von Gut- und Schlechtteilen, nach Fehlerklasse sortiert. Je mehr Beispiele je Klasse, desto robuster das Modell gegenüber Variationen in Beleuchtung, Materialcharge oder Maschineneinstellung. Im Produktionsbetrieb vergleicht das System jedes eingehende Bild mit dem Modell, klassifiziert das Teil als gut oder fehlerhaft, schreibt das Ergebnis mit Zeitstempel und Maschinennummer in die Datenbank und gibt ein Signal an die Ausschleusung.

Was das in der Praxis bedeutet: Fehlerhafte Teile werden in Echtzeit ausgeschleust, bevor sie in den nächsten Prozessschritt wandern. Die Prüfhistorie ist je Teil vorhanden und lässt sich auf Maschinenparameter, Schicht und Zeitraum zurückverfolgen. Wenn an Maschine 7 zwischen 14 und 16 Uhr gehäuft Einfallstellen auftauchen, ist das in der Datenbank sofort sichtbar — und kann mit Prozessparametern aus dieser Zeit korreliert werden.

Was das System nicht kann

Es sieht nur, was die Kamera sieht. Verdeckte Innengeometrie, mechanische Belastbarkeit, Maßhaltigkeit in der Tiefe oder chemische Eigenschaften bleiben unsichtbar. Für dimensionale Toleranzprüfung braucht es entweder 3D-Sensoren oder KMG-Stichproben parallel. Ein KI-Bildverarbeitungssystem ersetzt keine vollständige Qualitätsstrategie — es ist ein zuverlässiger Baustein davon.

Konkrete Werkzeuge — was wann passt

KEYENCE Vision — Breit eingesetzt in deutschen Spritzgussbetrieben. Besonderer Vorteil: KEYENCE bietet kostenlose Leihgeräte für Vorabtests an. Das lokale Anwendungsberatungsteam kommt in dein Werk, baut einen Testaufbau auf und zeigt dir, was mit deinen konkreten Teilen möglich ist — bevor du eine Kaufentscheidung triffst. Preis: Vollsysteme ab ca. 10.000 bis 30.000 Euro je Prüfstation. Stark bei hohen Taktraten in der Serienfertigung. Einschränkung: proprietäres Ökosystem, Daten schwer exportierbar.

Cognex Vision — Weltmarktführer mit der tiefsten Marktdurchdringung in der Automotive-Zulieferkette. Cognex ViDi ist das Deep-Learning-Modul für unstrukturierte Fehlertypen, bei denen regelbasierte Systeme versagen (z. B. subtile Einfallstellen, sporadische Farbabweichungen). Höhere Anschaffungskosten als KEYENCE, dafür stärkere Integration in übergeordnete MES-Systeme. Empfohlen, wenn Automotive-Kunden IATF-16949-Rückverfolgbarkeit fordern.

Landing AI (LandingLens) — Software-first-Ansatz: funktioniert auf Standard-Industriekameras, ohne Hardware-Lock-in. Einstieg mit freiem Kontingent möglich. Vorteil: eigene Modelle ohne ML-Expertise trainierbar, kontinuierliches Nachtraining aus dem Produktionsbetrieb. Nachteil: US-gehostet (DSGVO-Prüfung erforderlich), kein deutschsprachiger Support, Produktfokus verschiebt sich. Gut als Proof-of-Concept-Tool, bevor du in teure Industriehardware investierst.

Zusammenfassung:

  • Automotive-Zulieferer mit IATF-Anforderungen → Cognex ViDi
  • Serienfertigung hoher Stückzahlen, lokaler Support wichtig → KEYENCE
  • Flexibler Einstieg, Software auf eigener Kamera → Landing AI als Pilotphase

Datenschutz und Datenhaltung

Bilder von Spritzgussteilen enthalten in der Regel keine personenbezogenen Daten — die DSGVO-Anforderungen für diese Anwendung sind daher deutlich weniger kritisch als bei mitarbeiterüberwachenden Systemen. Die relevanten Datenschutzfragen betreffen vor allem Betriebsgeheimnisse: Fehlermuster, Prozessparameter und Bauteilgeometrien sind potenziell sensible Informationen.

KEYENCE und Cognex speichern Produktionsdaten standardmäßig lokal oder im Kunden-Netzwerk — keine Cloud-Abhängigkeit bei on-premise-Konfiguration. Landing AI ist US-gehostet; wer sensible Bauteilinformationen schützen muss, sollte die Edge-Deployment-Option prüfen (Modell läuft lokal, keine Bilddaten in die Cloud).

Wenn das System Personaldaten verarbeitet (z. B. Schichtzuordnung, welcher Mitarbeiter welche Maschine bedient hatte), ist der Betriebsrat einzubeziehen. Das ist kein bürokratisches Detail: Auswertungen auf Schicht- oder Mitarbeiterebene sind in Deutschland mitbestimmungspflichtig (§ 87 Abs. 1 Nr. 6 BetrVG).

Was es kostet — realistisch gerechnet

Einmalige Investition (Hardware + Software + Integration)

  • KEYENCE oder Cognex Komplettsystem je Prüfstation: 15.000–40.000 Euro
  • Beleuchtungsaufbau und mechanische Integration: 5.000–15.000 Euro
  • Projektkosten (Konfiguration, Trainingsdaten, Inbetriebnahme): 8.000–20.000 Euro
  • Gesamtinvestition erste Produktionslinie: typisch 30.000–75.000 Euro

Laufende Kosten

  • Software-Wartung/Support: 1.000–3.000 Euro/Jahr je nach Anbieter
  • Modell-Updates bei neuen Produkten oder Werkzeugwechseln: 2–5 Tage intern oder extern
  • Systemadministration: 0,5–1 Stunde/Woche

Woher der ROI kommt Nehmen wir einen Betrieb mit 1,5 Millionen Teilen/Monat und 0,5 % Fehlerrate, die bisher zu 30 % den Kunden erreichte: Das sind 2.250 fehlerhafte Teile beim Kunden pro Monat. Bei Gesamtreklamationskosten von 50 Euro je Teil (Rückruf, Sortieren, Transport, Strafgebühr): 112.500 Euro/Monat. Selbst wenn das System 60 % davon verhindert, sind das 67.500 Euro monatliche Einsparung — der Invest amortisiert sich in unter einem Jahr.

Dieser Rechenweg setzt voraus, dass die Fehler tatsächlich systematisch und erkennbar sind. Bei sporadischen Materialfehlern, die statistisch zufällig auftreten, ist die Rechnung weniger günstig.

Drei typische Einstiegsfehler

1. Beleuchtung als Nachgedanke behandeln. Die häufigste Projektverzögerung beim Aufbau eines Kamera-Prüfsystems ist nicht die Software — es ist die Beleuchtung. Einfallstellen, feine Grate oder Farbabweichungen in transluzenten Materialien brauchen jeweils andere Lichtkonzepte. Wer die Beleuchtung in der Planungsphase ignoriert und erst bei der Inbetriebnahme beginnt zu testen, verliert 4 bis 8 Wochen. Lösung: Beleuchtungstests sind der erste Schritt, nicht der letzte.

2. Zu wenig Trainingsbilder von Fehlern. Gute Musterteile hat jeder. Systematisch gesammelte, annotierte Fehlerbilder in ausreichender Zahl — 200 bis 500 je Fehlerklasse — hat kaum jemand direkt zur Hand. Der Reflex, schnell zu starten und das Modell später mit mehr Daten zu verbessern, führt zu einer langen Stabilisierungsphase mit hoher false-negative-Rate. Lösung: Fehlerbilder vor Projektstart über mehrere Wochen bewusst sammeln.

3. Das Modell einmal einrichten und danach nicht mehr anfassen. Nach Werkzeugrevision, Rohstofflieferantenwechsel oder neuer Masterbatch-Charge kann ein bisher stabiles Modell anfangen, Fehler zu verpassen — weil sich die visuelle Erscheinung leicht verschoben hat. Wer kein Retraining-Budget und keine Verantwortliche für Modellpflege einplant, hat nach 18 Monaten ein System, das schlechter prüft als bei der Übergabe. Lösung: Monatliche Modellperformance-Reviews und klarer Verantwortlicher für Trainingsdaten-Update.

Was mit der Einführung wirklich passiert

Prüfer, die jahrelang die einzige Qualitätsinstanz am Band waren, reagieren auf das System anfangs mit Skepsis: „Zu viel Ausschuss” (Modell zu streng) oder „das lässt schlechte Teile durch” (Modell zu lax). Beide Einschätzungen sind oft gleichzeitig zu hören — und sie spiegeln eine echte Unsicherheit wider: Prüfer müssen neu lernen, was das System wirklich leisten kann und was in ihrer Verantwortung bleibt.

Das Beste, was du in der Einführungsphase tun kannst: Prüfer aktiv in die Annotation der Trainingsbilder einbinden. Sie kennen die Fehlertypen am besten, wissen wo die Grenzen zwischen Gut und Schlecht liegen, und bauen durch die Mitarbeit Vertrauen in das System auf. Ein Prüfer, der 500 Fehlerbilder selbst annotiert hat, vertraut dem Modell mehr als einer, dem es einfach vor die Nase gesetzt wurde.

In den ersten vier bis acht Wochen läuft das KI-System parallel zur manuellen Prüfung — nicht als Test, sondern zur gemeinsamen Kalibrierung. Abweichungen werden dokumentiert und diskutiert. Erst wenn beide Seiten (Mensch und Modell) auf ähnliche Urteile kommen, schaltet man die manuelle Vollprüfung auf Kontrollstichproben um.

Was sich ändert und was nicht: Die Prüfer arbeiten danach weniger am Band, aber mehr an der Systempflege — Modellüberwachung, Ausschleusung validieren, neue Fehlerbilder dokumentieren. Das ist eine andere Tätigkeit, keine leichtere. Für Betriebe, die bisher viele Aushilfen für Sichtprüfung eingesetzt haben, entsteht hier ein Qualifikationssprung-Bedarf.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Bedarfsanalyse und BauteilauswahlWoche 1–2Welche Teile, welche Fehlertypen, welche Linie — Pilotscope definierenZu viele Teile auf einmal — besser mit einer Bauteilklasse starten
BeleuchtungsversucheWoche 2–5Kameraaufbau testen, Beleuchtungskonzept entwickeln, Fehlerbilder sichtbar machenKein Beleuchtungskonzept gefunden, das alle Fehlertypen zeigt — Aufbau muss überarbeitet werden
Trainingsdaten sammeln und annotierenWoche 4–10Gut- und Fehlerbilder sammeln, annotieren, Datensatz validierenZu wenige Fehlerbilder — Produktion muss gezielt kontrolliert schlechte Teile produzieren oder Feldreklamationen nutzen
Modelltraining und erste ValidierungWoche 10–14Modell trainieren, false-positive- und false-negative-Rate optimierenModell nicht stabil genug — mehr Trainingsdaten oder Beleuchtungsanpassung nötig
Parallelbetrieb und KalibrierungWoche 14–18KI und manuell prüfen parallel, Abweichungen diskutierenPrüfer akzeptieren das System nicht — Kommunikation und Einbindung nacharbeiten
ProduktivbetriebAb Woche 18–20Manuelle Vollprüfung auf Stichprobe reduziert, KI übernimmt Inline-PrüfungWerkzeugrevision verändert Bauteiloptik — Modell muss nachtrainiert werden

Häufige Einwände — und was dahintersteckt

„Unsere Fehlerrate ist gering — das lohnt sich nicht.” Rechne die Gesamtkosten der aktuellen Reklamationen pro Jahr durch. Viele Betriebe unterschätzen sie, weil Sortierkosten beim Kunden, 8D-Reports und Portfoliofolgen nicht auf einer Rechnung stehen. Wenn du die Gesamtkosten pro Jahr auf unter 30.000 Euro schätzt, ist das System möglicherweise tatsächlich überproportioniert — dann ist ein kleiner, manuell unterstützter Prüfkreislauf die wirtschaftlichere Wahl.

„Das System erkennt nie alle Fehler — wir haften trotzdem.” Stimmt. Ein KI-System, das 97 % der Fehler erkennt, verhindert nicht jede Reklamation. Der Unterschied zur manuellen Prüfung ist aber: 97 % Erkennungsrate bei 100 % Prüfabdeckung ist messbar besser als 80 % bei 5 % Stichprobe. Und die dokumentierte Prüfhistorie zeigt im Streitfall, dass alles geprüft wurde — das hat im Lieferantenportfolio Gewicht.

„Wir wechseln ständig Teile und Werkzeuge.” Das ist der reale Schwachpunkt. Wer wöchentlich neue Teile produziert, zahlt proportional viel für Modellpflege. Das System lohnt sich am stärksten für Betriebe mit stabilen Langläufern. Für Lohnfertiger mit hoher Variantenfluktuation gibt es Ansätze mit Transfer Learning — aber die Einführungskomplexität steigt dabei erheblich.

Woran du merkst, dass das zu dir passt

Das passt gut zu deinem Betrieb, wenn:

  • Du mehr als 500.000 Teile pro Monat von einer Sorte produzierst (Wirtschaftlichkeit der Hardware)
  • Du dokumentierbare Reklamationskosten von mehr als 50.000 Euro pro Jahr hast
  • Deine Fehlertypen visuell erkennbar sind (Einfallstellen, Grate, Verfärbungen, Oberflächenmängel)
  • Du stabile Langläufer im Sortiment hast, nicht wöchentlichen Teilewechsel
  • Ein Automotive- oder Tier-1-Kunde IATF-16949 oder 100-Prozent-Prüfdokumentation fordert

Das passt noch nicht, wenn:

  • Dein Hauptproblem dimensionale Maßhaltigkeit ist, nicht Oberflächenfehler (→ dann 3D-Messtechnik)
  • Du noch keine strukturierten Reklamationsdaten hast, um die Ausgangslage zu kennen
  • Du unter 20 Mitarbeitenden arbeitest und keine IT-Ressourcen für Systempflege hast
  • Dein Betrieb vorwiegend Kleinstserien mit unter 10.000 Stück Losgröße produziert

Das kannst du heute noch tun

Berechne für deine aktuellen Reklamationen der letzten zwölf Monate: Wie viele Teile, welche Fehlertypen, welche Gesamtkosten inklusive Sortieraufwand und Expresslieferungen? Diese Zahl ist die Grundlage für jede Wirtschaftlichkeitsrechnung. Ohne sie verhandelst du Angebote ohne Referenzwert.

Dann: Ruf bei KEYENCE an und frag nach einem kostenlosen Vor-Ort-Test. Die kommen mit Leihgeräten zu dir in den Betrieb, bauen einen Testaufbau auf deinen Teilen auf und zeigen dir in einem Tag, ob das Konzept funktioniert — ohne Kaufverpflichtung.

Prompt: Reklamationsdaten analysieren vor KI-Einführung
Du bist ein Qualitätsdatenanalyst in einem Kunststoff-Spritzgussbetrieb. Ich gebe dir eine Liste von Reklamationsdaten aus den letzten 12 Monaten. Analysiere diese Daten und antworte mir: 1. Welche 3 Fehlertypen treten am häufigsten auf? 2. Welche Maschinen oder Werkzeuge sind überdurchschnittlich oft betroffen? 3. Gibt es zeitliche Muster (Schicht, Wochentag, Monat)? 4. Welchen Gesamtschaden schätzt du auf Basis der angegebenen Kosten? 5. Für welche Fehlertypen wäre ein KI-Bildverarbeitungssystem am wirkungsvollsten? [HIER DEINE REKLAMATIONSLISTE EINFÜGEN — Datum, Teil, Fehlertyp, Stückzahl, geschätzte Kosten]
Funktioniert mit ChatGPT, Claude
Beispiel-Ausgabe

Mitarbeiter:in

12 Reklamationen Jan–Dez 2024: Einfallstellen 7x (Teile B-447, verschiedene Maschinen, Nachmittagsschicht), Gratbildung 3x (Maschine 12, Werkzeug W-08), Farbabweichung 2x (Materialwechsel März und Oktober). Geschätzte Gesamtkosten: 38.400 Euro.

KI-Assistent

Auswertung der Reklamationsdaten 2024: **Häufigste Fehlertypen:** 1. Einfallstellen (7 Fälle, 58 %) — dominantes Problem 2. Gratbildung (3 Fälle, 25 %) 3. Farbabweichung (2 Fälle, 17 %) **Maschinenspezifischer Befund:** Gratbildung konzentriert sich auf Maschine 12 / Werkzeug W-08. Entweder Werkzeugverschleiß oder Schließkraftproblem — das lohnt eine separate Inspektion unabhängig von der KI-Frage. **Zeitliches Muster:** Einfallstellen treten gehäuft in der Nachmittagsschicht auf. Mögliche Ursache: thermische Drift der Maschine über den Tag, Abweichung Kühlwassertemperatur oder Ermüdungseffekte in der manuellen Prüfung — beides prüfenswert. **Geschätzter Schaden:** 38.400 Euro direkte Kosten. Ohne Multiplikator für Sortieraufwand beim Kunden und Portfolioeffekte. Realer Schaden erfahrungsgemäß 1,5–3x höher: 57.000–115.000 Euro. **Empfehlung KI-Bildverarbeitung:** Einfallstellen sind der primäre Kandidat — häufigster Fehlertyp, visuell erkennbar, schichtabhängig (gut kontrollierbar). Gratbildung ist durch Werkzeugwartung adressierbar — hier zuerst die Ursache lösen, dann erst KI-Prüfung. Quelle: Analyse der eingegebenen Reklamationsdaten

Quellen & Methodik

  • Pexon Consulting (2024): Fallstudienbericht zur KI-Sichtprüfung im Spritzguss — 70 % Ausschussreduktion in Kundenprojekten; pexon-consulting.de
  • Digitalzentrum Chemnitz (2024): Projektdokumentation “Datengetriebene Qualitätskontrolle im Spritzguss” und “Produktqualität steigern – mit KI zur Qualitätsprognose”; digitalzentrum-chemnitz.de
  • TH Köln (2024): Forschungsprojekt QuKu-ML zur kamerabasierten Anomalieerkennung beim Spritzgießen; th-koeln.de
  • elunic AG: Überblick zur automatischen Qualitätskontrolle, Amortisationswerte 12–18 Monate; elunic.com
  • IATF 16949:2016: Qualitätsmanagementsystem-Anforderungen für die Serienproduktion in der Automobilindustrie; internationale Norm für Tier-1-Zulieferer
  • Eigene Einschätzungen basierend auf publizierten Industrieprojekten und Branchenangaben; keine repräsentative Studie

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar