Zum Inhalt springen
Glas & Keramik qualitaetskontrolleglasfehlerbildverarbeitung

KI-Bildverarbeitung für automatische Glasfehler-Erkennung

Blasen, Kratzer und Einschlüsse im Glas werden manuell zu spät erkannt — erst nach dem Zuschnitt, wenn nichts mehr zu retten ist. KI-gestützte Inline-Inspektion klassifiziert Defekte in Echtzeit direkt am Band.

Worum geht's?

Es ist Freitagmorgen, 6:47 Uhr.

Stefan ist Qualitätsleiter bei einem mittelständischen Architekturglas-Hersteller in Sachsen-Anhalt. Er steht vor einem Palettenstapel zurückgesandter Scheiben — 240 Quadratmeter Sicherheitsglas, das gestern beim Kunden ankam und zur Hälfte wegen Blaseneinschlüssen abgelehnt wurde. Der Liefertermin für ein Frankfurter Bürogebäude ist in drei Wochen. Die Haftungsfrage läuft bereits.

Stefan weiß, warum das passiert ist: Die manuelle Sichtkontrolle findet Blasen unter 1 mm schlicht nicht zuverlässig. Sieben Stunden Schicht, 12.000 Quadratmeter Material, zwei Personen an der Prüfstation. Irgendwann schaut niemand mehr so genau hin.

Das Bittere: Die Blasen sind messbar — sie entstehen durch Gasreaktionen im Zinnbad mit vorhersehbaren Parameterkonstellationen. Sie könnten erkannt werden, bevor das Glas ins Schneidwerk kommt. Aber das System dafür fehlt.

Das ist kein Problem von zu wenig Personal. Das ist ein Problem der Erkennungsgeschwindigkeit — und die löst Computer Vision besser als jedes menschliche Auge.

Das echte Ausmaß des Problems

Glasfehler lassen sich in drei Hauptgruppen einteilen: eingeschlossene Gasphase (Blasen, Knoten), feste Fremdkörper (Steinchen, Kristalleinschlüsse) und Oberflächenfehler (Kratzer, Schlieren, Beschichtungsdefekte). Alle drei entstehen an unterschiedlichen Stellen im Prozess und verlangen unterschiedliche Prüfmethoden — was manuelle Inspektion strukturell überfordert.

Die Zahlen aus der Branche sind ernüchternd: Architekturglas-Produzenten berichten von Ausschussquoten von 2–6% bei Premiumqualitäten (Architektur, Automobil), niedrigeren Qualitätsklassen (Verpackungs- und Basistarif) sind es 4–8%. Auf einer mittelgroßen Floatglasanlage mit 500 t/Tag Durchsatz entsprechen 3% Ausschuss täglich rund 15 t unverkäuflichem Material — bei einem Materialwert von 0,80–2,50 €/kg macht das 12.000–37.500 € täglich.

Das ist nur der direkte Ausschussverlust. Hinzu kommen:

  • Reklamationskosten: Defekte, die den Kunden erreichen, kosten das 5–10-fache des Materialwertes — Rücktransport, Nachlieferung, Montageaufwand, Regressforderungen
  • Späterkennungseffekt: Fehler werden bei der manuellen Prüfung oft erst nach dem Zuschnitt entdeckt — dann ist nicht nur das Rohmaterial verloren, sondern auch die Schneid-, Schliff- und Logistikkosten
  • Prozessblindheit: Ohne systematische Fehlerdokumentation fehlt die Datenbasis für Ursachenanalyse; der gleiche Schmelzfehler wiederholt sich, weil niemand den Zusammenhang sieht

Laut einer Studie an der Technischen Universität Ilmenau entstehen bei Glasherstellern rund 70% der Qualitätskosten nicht durch die Fehlerkorrektur, sondern durch das Nicht-Erkennen: zu spät, zu selten, zu unvollständig.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlManuelle SichtprüfungKI-Inline-Inspektion
Erkennungsrate Blasen über 0,5 mm60–80 %95–99 %
Erkennungsrate Blasen unter 0,5 mmunter 30 %85–95 %
Zeitpunkt der FehlererkennungNach ZuschnittAm laufenden Band, vor Zuschnitt
Durchsatz je Prüfpunkt1.000–3.000 m²/SchichtUnbegrenzt (Bandgeschwindigkeit)
FehlerdokumentationManuell, lückenhaftVollautomatisch, jeder Defekt positioniert
Personalaufwand Qualitätskontrolle2–4 Vollzeitstellen/Linie0,5–1 Stelle (Systemüberwachung)
Rückverfolgbarkeit auf ProzessparameterKaum möglichDirekt: Defektposition → Schmelzzeitpunkt

Die Erkennungsraten sind Erfahrungswerte aus industriellen Pilotprojekten; die exakten Werte hängen stark von Fehlertyp, Glasdicke, Bandgeschwindigkeit und Systemkalibrierung ab.

Einschätzung auf einen Blick

Zeitersparnis — sehr hoch (5/5) Die manuelle Endkontrolle ist personalintensiv und begrenzt skalierbar. Bei zwei bis vier Schichtstellen pro Linie, die täglich vier bis acht Stunden Prüfaufwand leisten, entfällt durch Inline-Automatisierung der größte Teil dieser Zeit komplett. Das ist unter den Anwendungsfällen dieser Kategorie der deutlichste Zeitgewinn — weil es sich nicht um Entlastung, sondern um vollständigen Aufgabenwegfall handelt.

Kosteneinsparung — hoch (4/5) Die direkte Ausschussreduktion um 30–60% ist bei bekanntem Materialwert und Volumendurchsatz präzise in Euro ausdrückbar. Dieser Anwendungsfall spart mehr Materialkosten ein als die meisten anderen in dieser Kategorie — nur Brennprozessoptimierung mit kombinierten Energie- und Ausschusseinsparungen erzielt eine höhere Gesamtwirkung. Die Installation selbst (Kamerasysteme, Licht, Software) kostet 80.000–500.000 €, was die Kosteneinsparung auf einen Nettowert nach Amortisation begrenzt.

Schnelle Umsetzung — niedrig (2/5) Hier ist Realismus gefragt: Eine Inline-Inspektion lässt sich nicht in wenigen Wochen einrichten. Die Kamerainstallation erfordert Halterungen und Sicherheitsabstände am laufenden Band, das Lichtdesign für transparente Materialien ist eine eigene Disziplin, das Modelltraining braucht Tausende annotierter Fehlerbilder aus eurer spezifischen Produktion. Vier bis zwölf Monate bis zum produktiven Einsatz sind realistisch — das macht diesen Anwendungsfall zu einem der aufwändigsten Einstiege in dieser Kategorie.

ROI-Sicherheit — hoch (4/5) Anders als bei Einsparungen, die über Proxy-Metriken gemessen werden müssen, ist der ROI hier direkt messbar: Ausschussstücke zählen, Materialkosten kennen, Reklamationsrate vergleichen. Die Kausalität zwischen Systemerkennung und Ausschussreduktion ist eindeutig belegbar, was diesen Anwendungsfall für Investitionsfreigaben besonders überzeugend macht.

Skalierbarkeit — mittel (3/5) Jede weitere Produktionslinie braucht eine eigene Kamerainstallation, Kalibrierung und ggf. angepasstes Modell — wegen unterschiedlicher Glastypen, Bandgeschwindigkeiten und Fehlerspektren. Das ist nicht trivial. Auf breiter Basis skalierfähig ist das System nur, wenn Linien ähnliche Produkte herstellen und Modelle übertragen werden können.

Richtwerte — stark abhängig von Glastyp, Bandgeschwindigkeit, Fehlerspektrum und vorhandener Produktionsinfrastruktur.

Was das System konkret macht

Das technische Prinzip: Eine oder mehrere Industriekameras (Zeilenkameras oder Flächenkameras, je nach Bandbreite und Geschwindigkeit) scannen das Glasband kontinuierlich. Das Lichtdesign ist dabei entscheidend — bei transparentem Glas arbeitet man typischerweise mit Durchlichtverfahren (Gegenlicht sichtbar durch das Material) für Blasen und Einschlüsse sowie mit Streulichtverfahren (schräger Auflicht) für Oberflächenkratzer. Manche Systeme kombinieren beide Methoden.

Das aufgenommene Bild wird in Echtzeit durch ein Deep Learning-Modell analysiert — ein Convolutional Neural Network (CNN), das auf Tausenden gelabelter Fehlerbilder aus eurer Produktion trainiert wurde. Das Modell liefert innerhalb von 50–200 Millisekunden:

  • Fehlertyp: Blase, Einschluss, Kratzer, Schliere, Beschichtungsfehler
  • Position: Koordinaten auf der Glasscheibe (für spätere Zuschnittsoptimierung oder Ausschleusmarkierung)
  • Schweregrad: Abweichung von Spezifikation (Klasse A, B, C je nach Kundennorm)
  • Schmelz-Zeitkorrelation: Zurückrechnung, zu welchem Zeitpunkt dieses Bandstück die Schmelze verlassen hat

Der letzte Punkt ist für Prozessverbesserungen besonders wertvoll: Häufen sich Blasen zu einem bestimmten Schmelzzeitpunkt, hat das System gerade einen Parameter-Drift erlebt — und das Maschinenprotokoll kann gezielt auf dieses Zeitfenster hin analysiert werden.

Was das System nicht kann

Kein Kamerasystem erkennt 100% aller Defekte — das ist physikalisch unmöglich bei optischen Methoden. Defekte, die kleiner als die optische Auflösung der verwendeten Kamera sind, bleiben unsichtbar. Bei sehr schnell laufenden Bändern (über 20 m/min) kann die Belichtungszeit zu kurz werden, was die Erkennungsrate für kleine Defekte senkt. Diese Grenzen müssen beim Systemdesign berücksichtigt und in den Prüfvorschriften dokumentiert werden.

Konkrete Werkzeuge — was wann passt

ISRA VISION — Marktführer für Flachglas-Inspektion mit jahrzehntelanger Spezialisierung auf transparente und reflektierende Materialien. Systeme für Floatglas, Autoscheiben, Display-Glas und Solarmodule. Vollständige Hardware-Software-Pakete inklusive Lichtdesign, Kamerasystem und Defektklassifikation. Empfehlenswert für Hersteller, die ein produktionserprobtes Gesamtpaket wollen, ohne interne ML-Kompetenz aufzubauen. Kosten: 80.000–500.000 € Investition, abhängig von Linienbreite und Bandgeschwindigkeit. Kein Self-Service-Einstieg — projektbasiertes Vorgehen.

Cognex Vision — Weltmarktführer für industrielle Bildverarbeitungssysteme. Breite Produktpalette von einfachen Barcode-Readern bis zu vollständigen Deep-Learning-Prüfsystemen (VisionPro mit Deep Learning). Gut etabliert in deutschen Fertigungsbetrieben, deutschsprachiger Support. Geeignet wenn ihr Kamerahardware, Beleuchtung und Software lieber separat konfigurieren wollt — mehr Flexibilität, aber mehr Integrationsaufwand. Ab ca. 5.000–30.000 € pro Prüfstation für einfachere Setups.

Keyence — Eigene Hochgeschwindigkeits-Kameraprodukte mit integrierter Bildverarbeitungssoftware. Stärke: sehr schnelle Inbetriebnahme durch All-in-One-Lösungen, einfache regelbasierte Konfiguration. Für gut definierte, stabile Fehlertypen ausreichend. Grenzen: KI-basierte Klassifikation komplexer Fehlerformen (wie kristalline Einschlüsse oder subtile Schlieren) ist schwächer als spezialisierte Deep-Learning-Systeme.

Landing AI — No-Code-Plattform für den Proof-of-Concept. Wenn ihr beweisen wollt, dass KI-Fehlererkennung für eure spezifischen Defekttypen funktioniert — bevor ihr in industrielle Hardware investiert. Trainiert ein erstes Modell mit 50–200 Bildern eurer typischen Glasfehler. Kein deutschsprachiger Support, US-Hosting. Als Pilottool geeignet; für Inline-Produktion auf Bandgeschwindigkeit nicht ausreichend.

Zusammenfassung: Wann welcher Ansatz

  • Flachglas-Inline mit Vollpaket-Anspruch → ISRA VISION
  • Flexible Konfiguration, gute deutsche Referenzen → Cognex
  • Schneller Einstieg mit eigener Hardware → Keyence
  • Interner PoC vor Investitionsentscheid → Landing AI

Was ihr hardware-seitig braucht

Ein Punkt, der in Planungsgesprächen oft unterschätzt wird: Die Kamerasoftware ist das Einfachste. Das Schwierige sind die mechanischen und optischen Voraussetzungen.

Für eine Inline-Glasinspektion braucht ihr:

  • Kamerahalterung: stabile, erschütterungsfreie Konstruktion am Band; jede Vibration produziert Bewegungsunschärfe
  • Lichtarchitektur: Durchlicht-Panele für Blasen/Einschlüsse, Streulicht für Kratzer — getrennte Steuerung, Abschirmung gegen Fremdlicht aus der Produktionshalle
  • Trigger-System: Bandgeschwindigkeitsmessung (Encoder) für synchrone Kameraauslösung — ohne das entstehen verzerrte Bilder bei unterschiedlicher Bandgeschwindigkeit
  • Reinigung: Glasstaub und Schleifmittelreste auf Linsen zerstören die Bildqualität innerhalb von Stunden; automatische Reinigungszyklen sind Pflicht
  • Temperaturmanagement: Produktionsöfen neben dem Band erzeugen Hitze und Vibrationen — Kameragehäuse müssen für Temperaturen bis 60 °C ausgelegt sein

Diese Hardware-Anforderungen kosten Zeit und Geld — und sind der Hauptgrund, warum Inline-Glasinspektion längere Implementierungszeiten hat als reine Software-Lösungen.

Datenschutz und Datenhaltung

Glasproduktions-Bilddaten enthalten keine personenbezogenen Daten — die DSGVO ist für diesen Anwendungsfall nur insofern relevant, als dass auf dem Betriebsgelände aufgenommene Daten auch Informationen über Produktionsmethoden und proprietäre Glasrezepturen enthalten können.

Der relevante Schutzbereich ist hier Betriebs- und Geschäftsgeheimnisse: Produktionsbilder von Glas geben implizit Auskunft über Fertigungsverfahren, die wettbewerbsrelevant sind. Das spricht für:

  • On-Premise-Verarbeitung: Die Bildauswertung sollte im eigenen Netzwerk stattfinden, nicht in einer US-Cloud. Cognex und ISRA VISION bieten lokale Verarbeitung.
  • EU-Hosting bei Cloud-Komponenten: Wenn ihr Landing AI für den PoC nutzt, liegen Trainingsbilder auf US-Servern — vor dem Hochladen mit der Rechtsabteilung klären, ob Produktionsbilder als vertraulich eingestuft sind.
  • Netzwerksegmentierung: Das Kamerasystem sollte im OT-Netzwerk bleiben und keinen direkten Internet-Zugang haben. Updates und Modell-Uploads über eine gesicherte Verbindung.

Sprecht außerdem euren Betriebsrat an, bevor ihr das System einführt: In einigen Produktionsumgebungen werden Bilder vom Band als Überwachungsmaßnahme interpretiert, auch wenn sie auf Glasqualität fokussieren. Eine klare Kommunikation — was aufgenommen wird, wie lange gespeichert, wer Zugriff hat — verhindert unnötige Widerstände.

Was es kostet — realistisch gerechnet

Investitionskosten (einmalig)

  • ISRA VISION Flachglas-Komplettsystem: 80.000–400.000 € je nach Linienbreite und Funktionsumfang
  • Cognex-basiertes Custom-Setup: 40.000–150.000 € (Hardware + Systemintegration)
  • Mechanik, Licht, Trigger-Verkabelung: 10.000–50.000 € zusätzlich (oft unterschätzt)
  • Modelltraining und Validierungsprojekt: 20.000–60.000 € (wenn extern begleitet)

Laufende Kosten (jährlich)

  • Wartungsvertrag: 8.000–40.000 € (typisch 10–15 % des Systemwertes)
  • Modell-Updates bei neuen Fehlertypen oder Produktwechsel: projektabhängig, 5.000–20.000 €

Gegenzurechnen Eine mittelgroße Floatglaslinie mit 200 t/Tag Durchsatz und 3 % Ausschussquote verliert täglich ca. 6 t Material im Wert von 6.000–18.000 €. Eine Ausschussreduktion um 40 % spart 2.400–7.200 € täglich — das sind 720.000–2.160.000 € jährlich. Selbst im konservativen Szenario (15–20 % statt 40 % Reduktion, weil nicht alle Fehlertypen erkannt werden) amortisiert sich ein 150.000 €-System in unter 12 Monaten.

Wie du den ROI tatsächlich misst Nicht als Schätzung, sondern als Messung: Dokumentiert vier Wochen lang eure aktuelle Ausschussrate und Fehlertypen (manuell) — das ist eure Baseline. Nach Systemeinführung vergleicht ihr dieselben Metriken. Der Unterschied ist eure belegte Einsparung.

Drei typische Einstiegsfehler

1. Das Lichtdesign als Nachgedanke behandeln. Fast jedes Inline-Glasinspektionsprojekt, das scheitert oder weit hinter den Erwartungen zurückbleibt, hat dasselbe Problem: Das Beleuchtungssystem wurde zu spät geplant oder zu günstig eingekauft. Für transparentes Glas ist das Licht nicht eine Begleitkomponente — es ist der Kern der Fehlererkennung. Blasen werden im Durchlicht sichtbar, Kratzer nur unter bestimmten Streulicht-Winkeln. Wer die Lichtarchitektur als Standardzubehör behandelt und das erstbeste Industrielicht einbaut, trainiert sein Modell auf schlechten Bildern — und wundert sich, warum die Erkennungsrate bei 70 % stagniert, statt bei 95 % anzukommen. Lösung: Das Lichtdesign als erstes in Auftrag geben, nicht als letztes. Vor der Kameraauswahl.

2. Mit zu wenigen und zu einseitigen Fehlerbildern trainieren. Ein CNN-Modell ist nur so gut wie die Beispiele, die es gesehen hat. Wer 200 Bilder von Blasen einpflegt und 20 von Kratzer und 0 von Schlieren, bekommt ein Modell, das Blasen gut erkennt und den Rest halluziniert oder ignoriert. Typisches Szenario: Das System ist in der Testphase beeindruckend, aber nach dem Go-Live tauchen in der Reklamation Fehlertypen auf, die das Modell als “kein Defekt” klassifiziert. Lösung: Vor dem Training systematisch alle Fehlertypen erheben und proporational annotiern — auch die seltenen. Das kostet extra Zeit in der Anlaufphase, aber deutlich weniger als ein Retraining nach dem Launch.

3. Das Modell nicht kontinuierlich aktualisieren. Glas-Produktionsparameter ändern sich: neue Rohstoffchargen, andere Zinnbadchemie, Temperaturregime-Anpassungen. Was der Schmelzofen heute als Blase produziert, kann sich im Erscheinungsbild leicht von dem unterscheiden, was das Modell vor einem Jahr gelernt hat. Systeme, die nach dem Launch nicht regelmäßig mit aktuellen Produktionsdaten nachtrainiert werden, driften in der Erkennungsleistung nach unten — still und ohne Alarm. Lösung: Quartalsweises Review der Modellperformance einplanen (gemessen an: Ausschlusspräzision vs. manuelle Stichproben). Neue Fehlerbilder sammeln und einpflegen, wenn Produktparameter wechseln.

Was mit der Einführung wirklich passiert — und was nicht

Die Technik funktioniert schneller als erwartet — die Organisation reagiert langsamer als erhofft.

Ein typisches Muster: Das Kamerasystem läuft, die Erkennungsrate liegt beim Piloten bei 93 %, alle sind beeindruckt. Dann der Go-Live. Und plötzlich blockiert das System die Linie, weil es einen Kratzer als kritisch einstuft, den erfahrene Prüferinnen als “innerhalb der Toleranz” kennen. Die Schicht stoppt das System manuell. Der Qualitätsleiter bekommt am nächsten Tag die Rückmeldung: “Das System ist zu streng.”

Das ist kein technisches Versagen — es ist ein Kalibrierungsproblem mit organisatorischer Konsequenz. Die Schwellenwerte für Fehlerschwere müssen gemeinsam mit den Prüferinnen und den Qualitätsstandards ausgehandelt werden, bevor das System in den Produktivbetrieb geht. Wer das als technisches Detailproblem abtut, verliert das Vertrauen der Schicht in die ersten Wochen.

Weitere Widerstands-Muster:

Die erfahrenen Prüferinnen und Prüfer, die jahrelang “mit dem Auge” geprüft haben, erleben das System oft als Kritik an ihrer Arbeit. Wichtig: Das System nicht als Ersatz positionieren, sondern als Unterstützung für die Fälle, die das Auge bei acht Stunden Schicht nicht mehr zuverlässig sieht — die Sub-Millimeter-Defekte nach Stunde sechs.

Die Produktionsleitung, die auf Durchsatz optimiert, akzeptiert Linien-Stopps nur, wenn der Nutzen klar größer ist als die Ausfallzeit. Das erfordert eine Rückkopplung: Wie viel Ausschuss hat das System diese Woche verhindert, in Euro ausgedrückt? Diese Zahl muss sichtbar sein — im Schichtprotokoll, im Monatsbericht.

Was konkret hilft:

  • System im Advisory-Modus starten: Empfehlungen anzeigen, aber Bediener entscheidet — bis Vertrauen aufgebaut ist
  • Monatliche Qualitätsrunden mit den Schichtteams: Was hat das System richtig erkannt? Was hat es übersehen?
  • Fehler, die das System verpasst hat und die in der Reklamation auftauchten, umgehend ins Trainingsdatenset aufnehmen

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Systemauswahl & KonzeptionMonat 1–2Anbieter-Evaluation, Linienbegehung, Lichtkonzept, MES-SchnittstellenklärungLichtdesign-Anforderungen unterschätzt — führt zu späterem Redesign
HardwareinstallationMonat 3–5Kamerahalterungen, Lichtpanele, Trigger-Verkabelung, SchutzgehäuseProduktionsstillstand für Installation nicht genehmigt — Verzögerung
Datenerhebung & ModelltrainingMonat 4–7Fehlerbilder sammeln, annotieren, Modell trainieren, erste ValidierungZu wenige seltene Fehlertypen im Datensatz — Modell blind für bestimmte Defekte
Pilotbetrieb Advisory-ModusMonat 6–9System läuft parallel zur manuellen Prüfung, Schwellwerte kalibriertSchicht deaktiviert System wegen Fehlalarmen — Feinjustierung der Sensitivität
ProduktivbetriebMonat 9–12Ablösung der manuellen Prüfung für erkannte Fehlertypen; Dokumentation der ROI-BaselineModell-Drift bei Rohstoffchargenwechsel — Monitoring und Nachtraining

Häufige Einwände — und was dahintersteckt

„Unsere Fehler sind zu vielfältig, das kann kein Modell lernen.” Das ist der häufigste Einwand — und er stimmt in einer Frühphase. Kein Modell lernt 40 Fehlertypen von Anfang an. Das ist aber kein Argument gegen das System, sondern für eine priorisierte Einführung: Die drei häufigsten und teuersten Fehlertypen zuerst. Bei den meisten Herstellern machen zwei bis drei Fehlertypen 70–80 % des Ausschusses aus. Ein Modell, das diese drei perfekt erkennt, liefert bereits den Großteil des wirtschaftlichen Nutzens.

„Wir haben keine Bilder für das Training.” Das ist ein lösbares Problem — aber ein reales. Bilder müssen aus der laufenden Produktion gesammelt werden, bevor das Training starten kann. Das dauert je nach Fehler-Häufigkeit vier bis zwölf Wochen. Schneller geht es, wenn ihr die manuellen Prüferinnen und Prüfer von Anfang an einbindet: Sie markieren Defekte direkt am Band mit einer einfachen App, das System lernt in Echtzeit.

„Das ist zu teuer für uns.” Stimmt für kleine Betriebe unter 10 Mio. € Jahresumsatz. Für mittelgroße Hersteller ist die Frage nicht “können wir uns das leisten”, sondern “können wir uns leisten, es nicht zu tun”. Eine Reklamation im Automobilglas-Segment kostet schnell 50.000–200.000 € — und eine erfolgreiche KI-Inspektion verhindert pro Jahr mehrere davon.

Woran du merkst, dass das zu dir passt

  • Deine Ausschussrate liegt über 1,5 % — und du weißt nicht genau, bei welchem Fehlertyp sie entsteht, weil die Dokumentation zu lückenhaft ist
  • Reklamationen aus Glasfehlern erreichen euch mehrmals pro Quartal — und die Rückverfolgung zur Ursache scheitert, weil ihr keine Positons-Dokumentation am Band habt
  • Deine Prüfpersonen klagen über Ermüdung bei langen Schichten — und der Ausschuss steigt nachweislich in den letzten zwei Stunden einer Achtschicht
  • Ihr produziert Spezialitäten mit engen Toleranzen: Automobilglas, Optikelemente, Display-Glas, Architekturglas mit zertifizierten Fehlerklassen — wo Fehlentscheidungen direkte Haftungsfolgen haben

Wann es (noch) nicht passt — drei harte Ausschlusskriterien:

  1. Deine Ausschussquote liegt unter 0,8 % und kommt nicht aus erkennbaren Inline-Fehlern. In diesem Fall übersteigen die Systemkosten den erzielbaren Nutzen bei weitem. Bevor du in Kameratechnik investierst, lohnt sich eine Fehlerursachenanalyse: Kommt der Ausschuss aus der Schmelze, dem Zuschnitt, dem Transport? Nur wenn er am Band messbar entsteht, hilft ein Kamerasystem.

  2. Dein Produktionsmix wechselt sehr häufig — täglich unterschiedliche Glasdicken, Farbtönungen, Beschichtungen. Jeder Produktwechsel erfordert entweder separate Modelle oder aufwändiges Retraining. Für Kleinserienhersteller mit hoher Variantenvielfalt ist Inline-KI derzeit wirtschaftlich kaum zu rechtfertigen.

  3. Keine interne Kompetenz für kontinuierliche Modellpflege. Ein Kamerasystem, das nach der Einführung nicht regelmäßig nachtrainiert und kalibriert wird, verliert innerhalb von sechs bis zwölf Monaten an Erkennungsleistung. Ohne eine namentlich verantwortliche Person mit Zeit und Grundkenntnissen in Machine Learning ist das Ergebnis ein teures System, das schlechter wird als die manuelle Prüfung, die es ersetzen sollte.

Das kannst du heute noch tun

Bevor du auch nur einen Anbieter kontaktierst: Führe für vier Wochen eine strukturierte Fehlerdokumentation am Band ein. Notiere bei jeder fehlerhaften Einheit: Fehlertyp, Position im Band, ungefähre Uhrzeit. Das kostet nichts, braucht keine Software — und liefert dir zwei wertvolle Erkenntnisse: Wo entsteht der meiste Ausschuss? Und welche Fehlertypen treten häufig genug auf, dass sich ein Modelltraining lohnt?

Diese Daten sind außerdem dein stärkstes Argument für die Investitionsfreigabe.

Für den ersten digitalen Schritt: Nutze Landing AI mit 10–20 Smartphone-Fotos eurer häufigsten Glasfehler. Das zeigt dir in einer Stunde, ob das Grundprinzip der KI-Bilderkennung für eure Defekttypen funktioniert — bevor du Wochen in Anbieterverhandlungen verbringst.

Prompt: KI-Systemauswahl für eure Glaslinie
Du bist ein Experte für industrielle Qualitätssicherung in der Glasproduktion. Ich produziere [GLASTYP: z.B. Floatglas / Architekturverglasung / Automobilglas / Pharmaglas] und habe folgende Qualitätsprobleme: Häufigste Fehlertypen: [z.B. Blasen 0,5–2 mm, Schlieren, Kratzer nach Schneidwerk] Aktuelle Ausschussquote: [z.B. 3,2% vom Gesamtdurchsatz] Produktionslinie: [z.B. Bandbreite 3,2 m, Geschwindigkeit 8 m/min] Wo wird aktuell geprüft: [z.B. manuelle Sichtprüfung nach Kühlofen, vor Zuschnitt] Budget-Horizont: [z.B. Investitionsfreigabe bis 200.000 €] Bitte analysiere: 1. Welche Fehlertypen sind für KI-Bildverarbeitung am besten geeignet? 2. Welches System-Setup macht für meine Linie Sinn (Kameratyp, Lichtprinzip)? 3. Was sind die kritischen Erfolgsfaktoren für die Implementierung? 4. Wo liegen die realistischen Grenzen — was würde das System NICHT erkennen?
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Glastyp: Beschichtetes Floatglas (Low-E) 4–12 mm. Fehlertypen: Blasen 0,3–3 mm, Kratzer (Handling), gelegentlich Einschlüsse aus Schmelze. Ausschussquote: 4,1%. Bandbreite: 2,8 m, Geschwindigkeit 10 m/min. Prüfung: Manuell nach Kühlofen, 2 Prüfer je Schicht. Budget: bis 180.000 €.

KI-Assistent

Basierend auf deinen Angaben empfehle ich folgendes Vorgehen: **Geeignete Fehlertypen für KI:** Blasen über 0,5 mm: sehr gut automatisierbar mit Durchlicht-Kamera. Einschlüsse aus der Schmelze: gut erfassbar. Kratzer aus Handling: nur mit Streulicht-Setup detektierbar — erfordert zweites Beleuchtungssystem. **System-Setup:** Für Bandbreite 2,8 m und 10 m/min empfehle ich eine Zeilenkamera (4K) mit Gegenlicht-Panel (LED, gleichmäßige Ausleuchtung über Bandbreite) für Blasen/Einschlüsse. Zweites System mit Dunkelfeldbeleuchtung für Kratzerkennung. Trigger über Bandencoder für synchrone Auslösung. **Kritische Erfolgsfaktoren:** 1. Lichtabschirmung der Produktionshalle — Fremdlicht verfälscht Ergebnisse 2. Vibrations-Entkopplung der Kamerahalterung 3. Mindestens 500 annotierte Fehlerbilder je Fehlertyp für stabiles Modelltraining 4. Advisory-Modus in den ersten 8 Wochen — Bediener-Feedback einsammeln vor Automatisierung **Grenzen des Systems:** Blasen unter 0,3 mm nicht zuverlässig erkennbar bei 10 m/min (optische Auflösung/Belichtungszeit-Konflikt). Beschichtungsfehler in der Low-E-Schicht (Pinhole, Risse in der Beschichtung) nur mit Spezialmethoden (UV-Anregung) detektierbar — über die angegebenen 180.000 € hinaus. Empfehlung im Budget: Cognex VisionPro mit Custom-CNN — ca. 120.000–160.000 € inkl. Hardware und Ersttraining. ISRA VISION liegt über dem Budget-Rahmen.

Quellen & Methodik

  • Ausschussquoten Glasproduktion: Erfahrungswerte aus industriellen Pilotprojekten; ZGU Ilmenau (Zentrum für Glas- und Umweltanalytik), Forschungsberichte zur automatischen Sichtprüfung; eigene Schätzungen basierend auf publizierten Fallstudien.
  • Erkennungsraten KI-Systeme: AGC Inc. Fallstudie (automatisierte Inspektion mit 95%+ Erkennungsrate); DigitalDefynd AI in Glass Industry Report 2026; Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung (IOSB), Leitfaden automatische Sichtprüfung.
  • ROI-Benchmarks Qualitätsinspektion: Capella Solutions, „AI-Driven Quality Control in Factories” (2024); ifactoryapp.com, „AI Vision Inspection for Manufacturing” (2026).
  • ISRA VISION Produktdaten: Hersteller-Website isravision.com (Stand April 2026).
  • Technische Glasfehler-Klassifikation: Spektrum Lexikon der Optik, Artikel „Glasfehler”; Fraunhofer IPK, Referenzprojekt „Automatische optische Inspektion von Glasrohr” (veröffentlicht).

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar