Zum Inhalt springen
Elektrotechnik smtaoiloetstellen

Lötstellenfehler per KI-Bildanalyse in der SMT-Fertigung erkennen

Deep-Learning-basierte Automated Optical Inspection (AOI) erkennt Lötstellenfehler, Bauteilversatz und Kurzschlüsse auf SMT-Linien zuverlässiger als regelbasierte Systeme — Pseudofehlerrate drastisch gesenkt.

⚡ Auf einen Blick
Problem
Klassische regelbasierte AOI-Systeme erzeugen auf dicht bestückten Platinen (BGA, QFN) Pseudofehlerraten von 20–40 % — Bediener bestätigen Alarm für Alarm manuell und verlieren Vertrauen ins System, echte Fehler werden übersehen.
KI-Lösung
KI-AOI-Systeme trainieren auf realen Produktionsbildern und unterscheiden zuverlässig zwischen echten Defekten und akzeptablen Variationen — Pseudofehlerrate unter 5 %, echte Defekterkennungsrate über 98 %.
Typischer Nutzen
Nacharbeit und Fehlalarme um 60–80 % reduziert, Durchsatz auf der SMT-Linie erhöht, Ausschussrate messbar gesenkt — insbesondere bei BGA- und QFN-Bestückung.
Setup-Zeit
8–14 Wochen bis Pilotbetrieb an erster Linie
Kosteneinschätzung
30.000–150.000 € Investition; ROI 6–18 Monate
KI-basierte AOI / Deep Learning Visual Inspection (Cognex VisionPro Deep Learning, Koh Young KAP, Keyence XG-X — etablierte Anbieter)
Worum geht's?

Es ist Montagmorgen, 6:47 Uhr. Britta Hausmann öffnet die AOI-Alarmauswertung für die Nachtschicht — und sieht 214 offene Prüfalarme auf drei Platinenvarianten.

  1. Für eine einzige Nachtschicht.

Britta ist Qualitätsingenieurin bei einem EMS-Dienstleister in Augsburg, 180 Mitarbeitende, Schwerpunkt Automotive- und Industrieelektronik. Sie weiß, was diese Zahl bedeutet: Bevor die Frühschicht mit der regulären Produktion beginnt, werden zwei Techniker zwei Stunden damit verbringen, Alarm für Alarm manuell am Mikroskop zu bestätigen. Die Erfahrung sagt ihr, dass davon rund 190 Fehlalarme sein werden — Reflexionen auf BGA-Kugeln, Schattenwürfe durch hohe Kondensatoren, Lötmengenvariationen, die das regelbasierte System noch nie akzeptiert hat. Und irgendwo dazwischen vielleicht zwei oder drei echte Brücken, die nicht rechtzeitig gefunden werden, weil das Team nach dem hundertsten Fehlalarm nicht mehr so genau hinschaut.

Das nennt sich in der Branche “Alarm Fatigue”. Und es kostet mehr als nur Arbeitszeit.

Das echte Ausmaß des Problems

In der SMT-Fertigung sind Lötfehler das teuerste Problem, das zuverlässig vermieden werden kann — sofern die Inspektionssysteme nicht selbst zur Fehlerquelle werden.

Klassische regelbasierte AOI-Systeme arbeiten mit festen Schwellenwerten: Ist der Grauwert an Position X unter Wert Y, schlägt das System an. Das funktioniert gut für eindeutige Fehler wie fehlende Bauteile oder massive Lötbrücken. Es versagt aber systematisch bei dicht bestückten Platinen mit kleinen Packages:

  • BGA (Ball Grid Array) und LGA (Land Grid Array): Die Lötverbindungen liegen unter dem Bauteil. 2D-Systeme sehen nur den äußeren Rand. Beleuchtungswinkel, Reflexionen der Bauteilunterseite und Schattenwürfe benachbarter Komponenten erzeugen ständig Alarme für einwandfreie Verbindungen.
  • QFN (Quad Flat No-Lead) und DFN-Bauteile: Keine sichtbaren Lötbeine. Das System muss aus sehr wenigen Grauwertpixeln ableiten, ob die Verbindung ausreicht — und entscheidet dabei nach fixen Regeln, die die natürliche Variation von Lötmenge und Benetzungswinkel nicht abbilden.
  • 01005-Widerstände und 0201-Kondensatoren: Bei Sub-Millimeter-Packages reagieren regelbasierte Schwellenwerte auf kleinste Beleuchtungsänderungen. Wird eine Hallenlampe getauscht oder das Tageslicht durch ein offenes Dachfenster stärker, ändern sich die Alarmraten messbar.

Ergebnis: In der Praxis erzeugen regelbasierte AOI-Systeme auf komplexen Platinen Pseudofehlerraten von 20 bis 40 Prozent aller Alarme. Intelliarts hat in einer unabhängig dokumentierten Implementierung für einen PCB-Hersteller ermittelt, dass Pseudofehler ca. 7.000 USD pro Panel jährlich an Nachprüfungskosten erzeugen — bei einer Fehlererkennungsrate des Basissystems von 95 Prozent. Für eine mittelgroße SMT-Linie mit mehreren hundert Panels täglich summiert sich das schnell.

Das eigentliche Risiko ist subtiler: Alarm Fatigue führt zu echten Durchlässen. Wenn Techniker routinemäßig 90 Prozent aller Alarme als Fehlalarme bestätigen, beginnen sie bei der Prüfung abzukürzen. Echte Brücken, kalte Lötstellen und Tombstoning-Fehler rutschen durch — und werden erst in der Funktionsprüfung, im Feldtest oder beim Kunden entdeckt. Einer Studie zufolge erzeugen unentdeckte Defekte in der Elektronikfertigung Fehlerausfallraten von 2 bis 5 Prozent im Feld — mit entsprechenden Garantie- und Rückrufkosten.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlRegelbasiertes AOIKI-AOI nach Einführung
Pseudofehlerrate (False Calls)20–40 % aller Alarme3–8 % aller Alarme
Erkennungsrate echter Defekte85–92 %96–99,5 %
Manuelle Nachprüfzeit pro Schicht2–4 Stunden (Techniker)20–45 Minuten
Programmiertransfer bei neuen Boardtypen6–10 Stunden manuell1,5–3 Stunden (KI-Assist)
Reaktion auf BeleuchtungsänderungenSchwellenwerte manuell anpassenModell lernt Variation mit

Die Erkennungsraten stammen aus publizierten Anwenderstudien und Herstellerberichten; individuelle Ergebnisse hängen stark von Bauteilmix, Lötprozessqualität und Qualität der Trainingsdaten ab. Das konservativste unabhängig dokumentierte Ergebnis aus einem PoC mit Computer Vision-Klassifikator (Intelliarts, 2022) lag bei 99 Prozent Gesamtgenauigkeit mit Inferenzzeiten unter einer Sekunde.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Die direkten Zeitgewinne entstehen ausschließlich beim QA-Personal: Wer täglich zwei bis vier Stunden Alarmwarteschlangen abarbeitet, reduziert das auf 20 bis 45 Minuten. Für das gesamte Unternehmen ist das eine spürbare, aber nicht dominante Einsparung — anders als Anwendungsfälle, die direkt in der Linienproduktion Zeit sparen. Mittelfeldposition unter den elektrotechnischen Anwendungsfällen.

Kosteneinsparung — sehr hoch (5/5) Der stärkste Hebel: Jeder unentdeckte Lötfehler, der in der Funktionsprüfung oder im Feld auffällt, kostet ein Vielfaches eines rechtzeitig gefundenen Fehlers. Nacharbeit an bestückten Platinen kostet 200–500 EUR je nach Komplexität; Feldausfälle im Automotive-Segment sind kostspielig bis existenzbedrohend. Die Kosteneinsparung durch weniger Ausschuss, weniger Nacharbeit und weniger Garantiefälle ist für diese Anwendung die höchste im Branch.

Schnelle Umsetzung — mittel (3/5) Bis zum stabilen Pilotbetrieb vergehen realistisch 8 bis 14 Wochen: Trainingsdaten erheben und beschriften, Modell trainieren, parallele Validierung gegen das bestehende System, Linienintegration. Das ist anspruchsvoller als reine Software-Anwendungsfälle in diesem Branch, aber kürzer als klassische Industrie-4.0-Projekte. Die größte Variable ist die Verfügbarkeit von Defektbildern aus dem laufenden Betrieb.

ROI-Sicherheit — sehr hoch (5/5) Kein Anwendungsfall im Branch ist so direkt messbar: Pseudofehlerrate, Nacharbeitskosten pro Woche, Ausschussanteil, Techniker-Stunden in der Alarmprüfung — all das ist vor dem Projekt vorhanden und nach dem Projekt direkt vergleichbar. Keine indirekte Wirkung, keine Attribution über mehrere Stufen. Höchste ROI-Sicherheit im Branch zusammen mit der Qualitätsprüfung Endkontrolle.

Skalierbarkeit — mittel (3/5) Jede neue Platinenvariante braucht eigene beschriftete Trainingsdaten — das ist kein einmaliger Aufwand, sondern wiederkehrende Arbeit bei jedem Produktanlauf. Jede zusätzliche SMT-Linie erfordert eine eigene Hardware-Investition von 80.000 bis 200.000 EUR. Software-Modelle lassen sich nach einem anfänglichen Training auf ähnliche Boardtypen übertragen, aber nicht eins zu eins kopieren. Ehrlich bewertet: moderate Skalierbarkeit, deutlich besser als manuelle Prüfung, aber kein Software-as-a-Service-Modell.

Richtwerte — stark abhängig von Bauteilkomplexität, Linienvolumen und vorhandener Datenbasis.

Was ein KI-AOI-System konkret macht

Der entscheidende Unterschied liegt darin, wie das System eine Lötverbindung bewertet.

Ein regelbasiertes System fragt: Liegt der Helligkeitswert an Position X außerhalb des festgelegten Toleranzbandes? Es prüft Pixel gegen feste Schwellenwerte, die ein Programmierer manuell für jedes Bauteil eingestellt hat. Das System kennt nicht den Unterschied zwischen “Reflexion durch ungünstigen Beleuchtungswinkel” und “echter Brücke” — es sieht nur den Pixelwert.

Ein KI-AOI-System auf Basis von Deep Learning wertet das gesamte Bild der Lötverbindung ganzheitlich aus. Ein trainiertes neuronales Netz — in der Regel ein Convolutional Neural Network (CNN) — hat Tausende von Bildern echter Lötverbindungen gesehen: einwandfreie Verbindungen mit natürlicher Reflexion, leichte Schieflagen, die nach Norm noch zulässig sind, und echte Fehler wie Brücken, kalte Lötstellen und Tombstoning. Daraus hat es gelernt, was akzeptable Variation bedeutet — und was nicht.

Was das System konkret unterscheidet:

  • Lötbrücke vs. Solder-Ball: Eine echte Brücke verbindet zwei Pads elektrisch. Ein vereinzelter Lotball daneben ist optisch ähnlich, aber elektrisch unproblematisch — regelbasierte Systeme alarmieren beides, KI-Systeme lernen den Unterschied.
  • Kalte Lötstelle vs. mattierte Oberfläche: Kalte Lötstellen entstehen durch zu schnelles Abkühlen oder Erschütterungen — die Oberfläche sieht matt und körnig aus. Bestimmte bleifreie Lotlegierungen haben jedoch natürlich eine matte Oberfläche. Ohne diesen Kontext schlägt das regelbasierte System zuverlässig an.
  • Tombstoning bei 01005: Wenn ein Mini-Widerstand sich beim Löten aufstellt, weil eine Seite schneller benetzt, ist das ein echter Fehler. KI-Systeme erkennen die charakteristischen Bildmuster zuverlässig — regelbasierte Systeme haben mit der kleinen Fläche und den Reflexionen Probleme.

Das Modell läuft direkt in der Prüfstation, typischerweise auf einem lokalen Industrie-PC oder auf der integrierten Recheneinheit des AOI-Systems. Die Auswertung dauert weniger als eine Sekunde pro Bauteil und blockiert die Liniengeschwindigkeit nicht.

2D oder 3D — was für deine Bauteile wirklich zählt

Das ist die erste Frage, die du beantworten musst, bevor du ein KI-AOI-System evaluierst. KI kann auf 2D- und 3D-Systemen gleichermaßen eingesetzt werden — aber welche Messtechnik geeignet ist, hängt von deinem Bauteilmix ab.

2D-KI-AOI wertet Kamerabilder in der Draufsicht aus. Das reicht für die meisten bedrahteten und SMT-Standardbauteile: Widerstände, Kondensatoren, SOT-Packages, SOICs. Die KI verbessert die Erkennungsrate gegenüber regelbasierten 2D-Systemen deutlich. Kosten: die günstigste Einstiegsoption, typisch 30.000–80.000 EUR für ein vollständiges System.

3D-KI-AOI misst zusätzlich Lötvolumen, Komponentenhöhe und Coplanarität durch Phasenshift-Triangulation oder Laserprojektion. Notwendig wenn:

  • BGA und LGA auf der Platine sind: Dort liegt die einzige zuverlässige Information über die Verbindungsqualität im Volumen der Lötbumps — das sieht nur 3D.
  • QFN/DFN mehr als 20 Prozent deines Bauteilmixes ausmachen: Coplanarität und ausreichende Lotmenge unter dem Package sind nur dreidimensional bewertbar.
  • Baugruppen für Sicherheitsanwendungen (Automotive ASIL, Medizintechnik) gefertigt werden: SPC-Kennzahlen (Cp, Cpk) über Lötvolumen-Verteilungen setzen 3D-Messdaten voraus.

3D-Systeme kosten deutlich mehr (80.000–200.000 EUR) und brauchen mehr Trainingsdaten, aber für die genannten Bauteiltypen ist 2D-Inspektion keine echte Alternative — auch mit der besten KI nicht.

Faustregel: Wenn weniger als 10 Prozent deiner Bauteile BGA oder QFN sind und du kein IATF-16949-Qualitätsnachweispflicht für Lötvolumen hast, fang mit 2D an. Bei jedem anderen Profil rechne direkt mit 3D.

Konkrete Werkzeuge — was wann passt

Koh Young — Der Spezialist für 3D-Lötstelleninspektion. Marktführer für SPI (Lötzinndruckinspektion) und 3D-AOI in der Serienelektronikfertigung. Die KI-gestützte Auto-Programmierung (KAP) reduziert den Einrichtungsaufwand für neue Boardtypen laut Herstellerangaben um bis zu 70 Prozent. Der Koh Young Process Optimizer (KPO) verknüpft SPI- und AOI-Daten für proaktive Prozessregelung. Sinnvoll wenn: hoher BGA/QFN-Anteil, Automotive-Qualitätsnachweise erforderlich, Hochvolumen-Produktion. Investition: ab ca. 80.000 EUR für 3D-AOI, vollständige SPI+AOI-Linie typisch 200.000–400.000 EUR.

Cognex VisionPro Deep Learning — Cognex hat seine traditionelle regelbasierte Bildverarbeitungsplattform (VisionPro) mit einem Deep-Learning-Modul (ehemals ViDi) ausgestattet. Besonders stark für PC-basierte Systeme, in denen das Deep-Learning-Modell auf Standard-Industriehardware läuft — flexibel, wenn du eigene Integratoren einsetzt oder bestehende Cognex-Kameras weiter verwenden willst. Die In-Sight-2800- und -3800-Kameraserie kombiniert Bildaufnahme und KI-Inferenz in einem Gerät. Sinnvoll wenn: gemischte Prüfaufgaben (nicht nur Lötstellen), bestehende Cognex-Infrastruktur, individuelles Integration. Investition: Gesamtsystem typisch 25.000–80.000 EUR je Prüfstation.

Keyence XG-X Vision System — Keyence bietet mit der XG-X-Serie Hochgeschwindigkeitsinspektionssysteme, die regelbasierte Prüflogik mit KI-Fehlererkennung kombinieren. Der Vorteil: Hardware und Software aus einer Hand, Konfiguration ohne Programmierkenntnisse, kostenloser Vor-Ort-Support durch den deutschen Außendienst. Die Deep-Learning-Fähigkeiten sind weniger ausgereift als bei spezialisierten Anbietern — für Standardbauteile ausreichend, für komplexe BGA-Inspektion begrenzt. Sinnvoll wenn: kein eigenes CV-Team, geringer BGA-Anteil, schneller Einstieg gewünscht. Investition: ab ca. 15.000 EUR für Einstiegssysteme.

Landing AI (LandingLens) — Die einzige echte Software-first-Option in dieser Liste. LandingLens ermöglicht das Training eigener Defekterkennungsmodelle ohne ML-Hintergrund — nur Bilder hochladen, beschriften, trainieren. Kein eigenes AOI-System erforderlich, läuft auf vorhandener Kamerahardware oder Edge-Devices. Der Einstieg ist günstig (freemium, ab 250 USD/Monat für Teams), die Grenzen liegen bei der Hardware-Integration (keine native SPS-Anbindung) und dem US-Datenhosting. Sinnvoll wenn: Pilotprojekt auf bestehendem 2D-AOI, begrenzte Budget, Proof-of-Concept vor Hauptinvestition. Kosten: 0–2.000 USD/Monat für die Software; Hardware separat.

Zusammenfassung — wann welcher Ansatz:

  • Hochvolumen, BGA/QFN-schwer, Automotive-Nachweis → Koh Young
  • Gemischte Aufgaben, bestehende Cognex-Infrastruktur → Cognex
  • Standardbauteile, kein eigenes CV-Team → Keyence
  • Pilot, bestehendes System nachrüsten → Landing AI

Der Labeling-Engpass: Wer beschriftet die Fehlerbilder?

Das ist die Frage, die über Erfolg oder Misserfolg des Projekts entscheidet — und die in keiner Systemdemo beantwortet wird.

Ein Deep-Learning-Modell für Lötstelleninspektion braucht Trainingsdaten. Das bedeutet: echte Bilder aus deiner Produktion, sortiert nach “einwandfrei” und “fehlerhaft”, und innerhalb der fehlerhaften Kategorie nach Fehlertyp (Brücke, kalte Lötstelle, Tombstoning, fehlende Bestückung, Bauteilversatz). Für ein stabiles erstes Modell braucht es erfahrungsgemäß 500 bis 2.000 beschriftete Bilder pro Boardtyp — mit ausreichend Beispielen jedes Fehlertyps.

Das Problem: Fehlerbilder sind selten. Wenn dein Prozess gut läuft, hast du pro Woche vielleicht 20 bis 50 echte Defektbilder. Hochwertige Trainingsdaten sammeln dauert daher Wochen bis Monate — es sei denn, du hast historische AOI-Alarmdaten, die du nachträglich labeln kannst.

Wer darf labeln? Das ist die zweite kritische Frage. Schlechtes Labeling tötet Modelle. Wenn Techniker A eine leicht matte Lötstelle als “kalte Lötstelle” kennzeichnet und Techniker B dasselbe Bild als “einwandfrei”, lernt das Modell inkonsistente Regeln — und produziert genau die Varianz, die es eigentlich eliminieren soll.

Ein belastbares Labeling-Protokoll für SMT-AOI sieht so aus:

  • Zwei unabhängige Bewerter pro Bild, bei Uneinigkeit ein definierter Schlichter (Qualitätsleitung oder Löttechnik-Spezialist)
  • IPC-A-610-Norm als Referenz: Akzeptable, nicht empfohlene und abgelehnte Verbindungen sind dort für Klasse 2 und 3 klar definiert. Das Labeling erfolgt nach Normklasse, nicht nach persönlicher Einschätzung
  • Foto-Referenzstandard: Für jeden häufigen Fehlertyp ein Referenzbild mit Normzitat — damit auch neue Techniker konsistent labeln
  • Audit-Spur: Wer hat wann was beschriftet, und welche Korrekturen wurden vorgenommen? KI-Plattformen wie Landing AI zeigen Inkonsistenzen im Labeling automatisch an — nutze das aktiv

Wenn du kein strukturiertes Labeling-Protokoll hast, bevor du ein Angebot für ein KI-AOI-System einholst, kaufst du eine Maschine, die du nicht effektiv einrichten kannst.

Datenschutz und Datenhaltung

Die Verarbeitung von Produktionsdaten in der SMT-Fertigung ist aus DSGVO-Sicht weniger heikel als in vielen anderen KI-Anwendungen: Bilder von Leiterplatten enthalten in der Regel keine personenbezogenen Daten.

Trotzdem gibt es reale Datenschutz- und Vertraulichkeitsaspekte:

  • Produktionskonfidentialität: Für Automotive- und Medizintechnik-Kunden sind die Platinenlayouts, Bauteilbestückungen und Fehlerprävalenzen hochvertrauliche Informationen. Ein Cloud-Dienst, der diese Bilder auf US-Servern speichert, verletzt typische Geheimhaltungsvereinbarungen — auch wenn kein personenbezogener Datenschutz im DSGVO-Sinne berührt ist.
  • Lokale Verarbeitung als Standard: Alle etablierten Hardware-Anbieter (Koh Young, Cognex, Keyence) verarbeiten Bilder lokal auf dem Systemrechner. Kein automatischer Datentransfer zu Herstellerservern. Das ist der industrielle Standard und für Automotivanwendungen praktisch Pflicht.
  • Landing AI und Cloud-Plattformen: Landing AI verarbeitet standardmäßig auf US-Servern. Für den Pilotbetrieb kann das akzeptabel sein — aber vor Produktionseinsatz sollte die Datenschutz-Folgenabschätzung prüfen, ob Produktionsbilder unter Geheimhaltung fallen. Die Enterprise-Option mit On-Premise-Deployment löst das Problem.
  • Fernwartung: Alle Anbieter bieten Remote-Support via VPN an. Das sollte vertraglich geregelt und protokolliert sein — besonders wenn der Systemintegrator Zugriff auf das gleiche Netz hat wie das MES.
  • AVV nur bei Auftragsverarbeitern: Wenn das KI-System Bilder an einen externen Dienstleister überträgt (Cloud-Training, externe Labeling-Dienstleister), ist ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO zu schließen. Für vollständig lokale Systeme entfällt das.

Was es kostet — realistisch gerechnet

Einmalige Investition (Systemkosten)

  • Einstiegssystem 2D-KI-AOI (z. B. Landing AI auf vorhandenem AOI): 0–10.000 EUR Software + bestehende Hardware
  • Vollständiges 2D-KI-AOI-System neu: 25.000–60.000 EUR (Kamera + KI-Software + Integration)
  • 3D-KI-AOI (Koh Young Zenith, Cognex In-Sight 3D): 80.000–200.000 EUR
  • Systemintegration in MES/SPS: 10.000–40.000 EUR zusätzlich
  • Trainingsdaten erheben, labeln, validieren: intern 40–80 Stunden, extern 5.000–20.000 EUR

Laufende Kosten

  • Software-Wartung: typisch 10–15 % des Systempreises pro Jahr
  • Modell-Updates bei neuen Boardtypen: 4–20 Stunden intern je Variante
  • Landing AI Softwarelizenz: 250–2.000 USD/Monat je nach Plan

Was du dagegenrechnen kannst Ein typischer Ausgangszustand: 2 Techniker verbringen täglich je 2 Stunden mit der Alarmwarteschlange. Das sind 4 Technikerstunden täglich, bei einem internen Kostensatz von 35–55 EUR/Stunde macht das 140–220 EUR täglich, ca. 35.000–55.000 EUR pro Jahr. Hinzu kommen Nacharbeitskosten für echte Defekte, die in der Alarmflut übersehen werden: Nacharbeit an einer komplexen Baugruppe kostet 200–500 EUR; Feldausfälle mit Garantieabwicklung ein Vielfaches davon.

Konservatives Szenario (nur 50 Prozent der Technikerzeit eingespart, keine Reduktion bei Feldausfällen): 17.500–27.500 EUR Einsparung pro Jahr — genug, um ein Einstiegssystem innerhalb von zwei bis drei Jahren zu amortisieren. In Szenarien mit messbarer Reduktion von Nacharbeit und Feldausfällen ist der ROI deutlich kürzer: Branchenberichte nennen 6 bis 18 Monate Amortisationszeit als typisch für KI-AOI-Systeme in der Serienfertigung.

So misst du den ROI tatsächlich Bevor das System in Betrieb geht: Vier Wochen Baseline-Messung. Pseudofehlerrate, Techniker-Stunden in der Alarmprüfung, echte Defektdurchläufe (aus Funktionsprüfung), Nacharbeitskosten je Woche. Nach dem Go-live dieselben Kennzahlen — wöchentlich. Das ist die einzige belastbare Grundlage für die ROI-Diskussion mit der Geschäftsführung.

Typische Einstiegsfehler

1. Das Modell mit zu wenigen oder zu einseitigen Trainingsdaten einrichten. Der häufigste Fehler: Man startet mit 50 Beispielbildern — weil mehr nicht verfügbar waren — und wundert sich, dass das Modell in der Produktion schlechter läuft als das alte regelbasierte System. Ein KI-Modell braucht repräsentative Variation: einwandfreie Verbindungen bei unterschiedlicher Beleuchtung, unterschiedlichen Lotmengen, unterschiedlichen Positionstoleranzen. Und echte Defekte jedes Typs, der relevant ist. Wer nicht mindestens 500 sauber beschriftete Bilder pro Boardtyp hat, sollte das Modell noch nicht produktiv einsetzen.

2. Das bestehende AOI-System einfach durch ein KI-System ersetzen, ohne den Prozess zu verstehen. KI-AOI findet zuverlässig Defekte — aber wenn die Lötprozessqualität schlecht ist, wird die Fehlerrate auch nach der Einführung hoch bleiben. Ein KI-System, das täglich 500 echte Defekte findet, ist kein Erfolg — es zeigt, dass der Lötprozess (Schablonendruck, Bestückungsgenauigkeit, Reflow-Profil) selbst die eigentliche Ursache ist. Vor der KI-AOI-Einführung gehört eine kurze Prozessanalyse: Wo kommen die meisten Defekte her? Ist das ein Inspektionsproblem oder ein Produktionsproblem?

3. Das Modell einmalig trainieren und dann nicht mehr pflegen. Das ist der gefährlichste Fehler, weil er sich langsam einschleicht. Wenn eine neue Lötlegierung eingeführt wird, ändert sich die Oberflächenoptik. Wenn ein Bestückungsautomat kalibriert oder gewechselt wird, ändert sich die typische Platziergenauigkeit. Wenn der Lötrahmen für ein neues Boarddesign angepasst wird, ändern sich die Reflexionsmuster. Das Modell wurde auf den alten Zustand trainiert — es beginnt schleichend schlechter zu werden, ohne dass ein offensichtlicher Alarm ertönt. Ergebnis: sechs Monate nach der Einführung ist die Pseudofehlerrate wieder gestiegen, aber niemand hat es bemerkt, weil niemand die Baseline gemessen hat.

Die Lösung: monatliches Monitoring der Pseudofehlerrate und Defekterkennungsrate als fester KPI. Ein Schwellenwert, bei dem ein Retraining ausgelöst wird (z. B. Pseudofehlerrate über 10 Prozent über zwei Wochen). Und eine klare Zuständigkeit: Wer ist für das Modell verantwortlich? Diese Frage muss beantwortet sein, bevor das System in Betrieb geht.

Was passiert, wenn sich die Platine ändert

Das ist das unterschätzteste Thema in jedem KI-AOI-Projekt und verdient eine ehrliche Behandlung.

Ein Deep-Learning-Modell lernt, auf genau dem Material zu erkennen, auf dem es trainiert wurde. Das funktioniert wunderbar — solange sich nichts ändert. Sobald sich etwas ändert, beginnt die Erkennungsleistung zu sinken. Was sich in der Praxis ändert:

Neue Boardrevision: Ein Redesign, das die Pad-Geometrie ändert, die Bestückungsdichte erhöht oder neue Bauteiltypen einführt, macht das bestehende Modell teilweise ungültig. Nicht vollständig — viele Merkmale bleiben gleich. Aber ein Nachtraining auf den neuen Boardtyp ist notwendig.

Neue Lötlegierung: Der Umstieg von einer Standardlegierung auf eine Hochtemperaturlegierung ändert die Oberflächenoptik der Lötstellen messbar. Was das alte Modell als einwandfrei gelernt hat, sieht unter dem neuen Material anders aus — Falsch-Positiv-Rate steigt.

Produktionsparameter-Drift: Wenn das Reflow-Profil angepasst wird, die Schablone gewartet wird oder ein Bestückungsautomat kalibriert, ändert sich die statistische Verteilung der einwandfreien Verbindungen. Das Modell wurde auf den alten Zustand trainiert.

Neue Bauteilhersteller: Dasselbe Bauteil von einem anderen Lieferanten hat manchmal einen anderen Körper, andere Leads, andere Reflexionseigenschaften. Das kann für das Modell eine unbekannte Klasse sein.

Was das praktisch bedeutet:

  • Bei jedem Produktanlauf (NPI — New Product Introduction) muss ein Modell-Update eingeplant werden. Zeitaufwand: 4 bis 20 Stunden, abhängig von der Komplexität der Änderung
  • Als Daumenregel: Für jeden Boardtyp, der mehr als 5 Prozent deines Wochenvolumens ausmacht, eine aktuelle Modellversion pflegen
  • Systeme wie Landing AI unterstützen “Active Learning” — das Modell markiert Bilder, bei denen es unsicher ist, und schlägt sie zur Nachlabelung vor. Das reduziert den Retraining-Aufwand erheblich
  • Für EMS-Dienstleister mit hunderten verschiedenen Boardtypen: Modell-Lifecycle-Management ist ein eigenständiger Prozess, der intern jemanden braucht, der ihn besitzt

Diese Wartungsrealität ist einer der Hauptgründe, warum die Skalierbarkeit in dieser Kategorie nur mittel bewertet wird. Das System wird besser mit der Zeit — aber nicht von allein.

Was mit der Einführung wirklich passiert — und was nicht

Die Technik ist selten das Hauptproblem. Die größere Herausforderung sind die Prozesse und Menschen um das System herum.

Die “Das-System-entscheidet-jetzt-alles”-Falle: Wenn das neue KI-AOI-System live geht und eine deutlich niedrigere Alarmrate zeigt, besteht die Versuchung, die manuelle Nachprüfung komplett abzuschaffen. Das ist verfrüht. In den ersten vier bis sechs Wochen muss das Modell noch validiert werden: Wird es auch bei seltenen Defekttypen, die in der Trainingsphase unterrepräsentiert waren, korrekt entscheiden? Starte mit parallelem Betrieb — beide Systeme laufen, aber nur das alte ist entscheidungsrelevant. Erst wenn die Erkennungsraten des neuen Systems über zwei Wochen stabil sind, wechsle zur alleinigen Nutzung.

Widerstand aus der Qualitätssicherung: “Das Modell irrt sich manchmal” ist eine häufige Aussage von Technikern, die täglich mit dem alten System gearbeitet haben. Das stimmt — aber das alte System irrte sich in 35 Prozent der Fälle. Der Vergleich muss mit den richtigen Zahlen geführt werden. Eine ehrliche Baseline-Messung vor dem Start macht diesen Vergleich möglich und verhindert, dass subjektive Eindrücke die Entscheidung dominieren.

Was konkret hilft:

  • Zwei oder drei Techniker, die das System täglich nutzen, frühzeitig in die Trainingsdaten-Erstellung einbeziehen — Systemkenntnis entsteht durch Mitgestaltung
  • Eine klare Eskalationsregel für Grenzfälle: Was macht ein Techniker, wenn das System “einwandfrei” sagt, er aber unsicher ist? Protokollierter Eingriff mit Foto ist besser als Ignorieren
  • Monatliches Review der Alarmstatistik: Wo war das System sicher, wo unsicher? Das gibt Hinweise für das nächste Nachtraining und stärkt das Vertrauen ins System

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Prozess-Analyse & SystemauswahlWoche 1–2Defekttypologie erfassen, 2D vs. 3D entscheiden, Anbieter evaluieren, PoC planenEntscheidung ohne PoC — zu früher Systemkauf auf Basis Demo
Trainingsdaten erhebenWoche 2–6Defektbilder aus laufender Produktion sammeln, historische AOI-Alarmbilder sichten, Labeling-Protokoll erstellenZu wenige Defektbilder — Produktion läuft gut, Fehler sind selten
Modelltraining & ValidierungWoche 5–9Erstes Modell trainieren, gegen Testdatensatz validieren, Grenzfälle nachbeschriften, IterationenModell generalisiert nicht — zu wenig Variation in den Trainingsdaten
Parallelbetrieb an LinieWoche 9–12Neues System läuft parallel zum Altsystem; Abweichungen täglich protokollieren und auswertenStresstest für das Team — doppelter Aufwand kurzfristig akzeptabel
Go-live & Baseline-VergleichWoche 12–14Altsystem abschalten, neues System übernimmt, Wochen-KPIs gegen Baseline vergleichenFrühzeitiger Druck, Altsystem sofort abzuschalten — Widerstand wenn Übergang zu hastig

Wichtig: 8 bis 14 Wochen ist der realistische Rahmen für die erste Linie. Jede weitere Linie mit demselben Boardtyp geht schneller (Modell kann übertragen werden). Jede Linie mit neuen Boardtypen startet den Trainingsdatenprozess neu.

Häufige Einwände — und was dahintersteckt

„Wir haben ein gutes regelbasiertes System, das funktioniert.” Wenn die Pseudofehlerrate unter 8 Prozent liegt und kein Techniker täglich mehr als 20 Minuten in der Alarmwarteschlange verbringt, stimmt das wahrscheinlich. Für einfache Bestückungen ohne BGA/QFN ist regelbasiertes AOI mit sorgfältiger Kalibrierung ausreichend. Wenn die Pseudofehlerrate höher liegt — und das ist bei dichten, modernen Bestückungen fast immer der Fall — ist “funktioniert” eine Selbsttäuschung, die sich in Technikerzeit und Durchläufen ausdrückt.

„Wir können uns das nicht leisten.” Das Gegenargument liegt in der eigenen Buchhaltung: Addiere die wöchentliche Technikerzeit in der Alarmprüfung, die Nacharbeitskosten des letzten Quartals und schätze die Kosten eines typischen Garantiefalls. Wenn diese Summe über 50.000 EUR pro Jahr liegt, ist ein Einstiegssystem für 30.000 EUR in weniger als einem Jahr amortisiert — konservativ gerechnet. Die Frage ist nicht, ob du es dir leisten kannst, sondern ob du die Baseline gemessen hast.

„Was, wenn das KI-Modell einen echten Fehler durchlässt?” Das werden KI-Systeme gelegentlich tun — genau wie jedes andere System. Die relevante Frage ist: Wie oft passiert das im Vergleich zum Altsystem? Publizierte Studien zeigen, dass KI-AOI in gut eingerichteten Umgebungen 96 bis 99,5 Prozent der echten Defekte findet, gegenüber 85 bis 92 Prozent bei regelbasierten Systemen. Das bedeutet statistisch weniger Durchlässe, nicht mehr. Und für sicherheitskritische Anwendungen: KI-AOI ersetzt die Funktionsprüfung nicht, sondern ergänzt sie.

Woran du merkst, dass das zu dir passt

  • Du fertigst SMT-Baugruppen mit BGA-, QFN- oder 01005/0201-Anteil und die aktuelle Pseudofehlerrate liegt über 10 Prozent
  • Techniker verbringen täglich mehr als eine Stunde mit der manuellen Bestätigung von AOI-Alarmen, die sich größtenteils als Fehlalarme herausstellen
  • Du hast historische Defektbilder aus dem laufenden Betrieb — auch wenn unstrukturiert gespeichert — die du für das initiale Modelltraining nutzen kannst
  • Du fertigst Serien mit mindestens 200 gleichartigen Platinen pro Woche — darunter lohnt sich der Trainingsaufwand wirtschaftlich selten
  • Du hast einen Qualitätsingenieur oder Fertigungstechniker, der Kapazität und Interesse hat, das Modell langfristig zu betreuen (Labeling, Retraining, Monitoring)
  • Deine Kunden stellen steigende Qualitätsanforderungen (IATF 16949, PPAP, statistische Prozesssteuerung) und das aktuelle System liefert keine belastbaren Volumendaten

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Unter 200 Platinen pro Woche je Boardtyp oder reiner Prototyp-/Einzelfertiger. Der Trainingsaufwand amortisiert sich erst bei ausreichend Volumen. Mit 50 Platinen pro Woche wirst du nie genug Defektbilder für stabile Modelle sammeln. Regelbasiertes AOI oder manuelle Prüfung ist die richtige Wahl.

  2. Keine beschrifteten Trainingsdaten verfügbar und kein Prozess, diese zu erstellen. Wer weder historische Defektbilder hat noch die Kapazität, einen Labeling-Prozess nach IPC-A-610 aufzubauen, kann kein valides Modell trainieren. Das System wird schlechter performen als das regelbasierte Altsystem — oder es wird teuer von einem externen Dienstleister trainiert, was den ROI erheblich verlängert.

  3. Kein dedizierter Ansprechpartner für Modellpflege. Ohne eine namentlich benannte Person, die monatlich Erkennungsraten überprüft, Nachtrainings auslöst und Grenzfälle bewertet, wird das System innerhalb von 12 bis 18 Monaten degradieren. “Die IT macht das” oder “das macht das System selbst” sind keine funktionierenden Antworten.

Das kannst du heute noch tun

Der schnellste Weg zum Klarheitsgespräch mit dir selbst: Öffne die AOI-Alarmstatistik der letzten vier Wochen. Zähle:

  1. Wie viele Alarme gab es gesamt?
  2. Wie viele davon wurden manuell als Fehlalarm bestätigt?
  3. Wie viele echte Defekte fand das System in dieser Zeit?

Wenn Nummer 2 mehr als 15 Prozent von Nummer 1 ist, hast du ein quantifizierbares Problem. Das ist deine Baseline — und der Ausgangspunkt für jede ROI-Diskussion.

Der nächste Schritt: Einen Prompt nutzen, um deine Defekttypologie zu strukturieren — die Grundlage für den Labeling-Plan.

Defekttypologie und Labeling-Plan für KI-AOI
Du hilfst mir, eine strukturierte Defekttypologie für ein KI-AOI-System in der SMT-Fertigung zu erstellen. Unsere Produktion: - Boardtypen: [BOARDTYP 1, BOARDTYP 2, ...] - Hauptbauteile: [BGA ja/nein, QFN ja/nein, 01005 ja/nein, SOIC, Widerstände/Kondensatoren, ...] - Produktionsvolumen: [ca. X Platinen/Woche] - Aktuelles AOI-System: [Hersteller/Modell oder "regelbasiert ohne KI"] - Häufigste gemeldete Fehlertypen laut aktueller Alarmstatistik: [FEHLERTYP 1, FEHLERTYP 2, ...] Erstelle mir: 1. Eine priorisierte Liste der Fehlertypen, die für das Modelltraining am wichtigsten sind (nach Häufigkeit und Risikoniveau sortiert) 2. Für jeden Fehlertyp: Mindestanzahl Trainingsbilder, typische Erscheinungsbilder, Abgrenzung zu akzeptabler Variation nach IPC-A-610 Klasse 2/3 3. Ein Labeling-Protokoll mit Entscheidungsregeln für Grenzfälle 4. Eine Liste von Fragen, die ich einem KI-AOI-Anbieter im ersten Evaluierungsgespräch stellen sollte
Funktioniert mit Claude, ChatGPT, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Boardtypen: Motorsteuergerät Typ A und Leistungsversorgung Typ B. Hauptbauteile: BGA ja, QFN ja, Widerstände/Kondensatoren ab 0402. Volumen: ca. 350 Platinen/Woche. Aktuell: regelbasiertes 2D-AOI (Yamaha). Häufigste Fehlertypen laut Alarmliste: Lötzinnbrücken, Schein-Brücken an BGA-Ecken, fehlende Widerstände, Tombstoning bei 0402.

KI-Assistent

**Priorisierte Defekttypologie für deine SMT-Linie:** **Prio 1 — Trainingsrelevanz hoch, Risikoniveau kritisch:** • Echte Lötbrücken (benachbarte Pads verbunden): Min. 150 Bilder; erscheint als heller Steg zwischen Pads; IPC Klasse 3: null Toleranz • Tombstoning 0402 (Bauteil steht aufrecht): Min. 80 Bilder; charakteristisches Schattenband; IPC Klasse 2/3: Ablehnung • Fehlende Bestückung (Bauteil fehlt): Min. 100 Bilder je Bauteiltyp; klarer Kontrast zu Pad ohne Bauteil **Prio 2 — Trainingsrelevant, aber auch False-Call-Quelle:** • Schein-Brücken BGA-Ecke: Min. 300 Einwandfrei-Bilder mit natürlichen Reflexionsmustern, Min. 80 echte Brücken-Bilder; diese Klasse treibt eure aktuelle Pseudofehlerrate — sie braucht besonders viele "einwandfrei"-Beispiele • Unzureichende Benetzung QFN: Min. 120 Bilder; schwer abzugrenzen von korrekter bleifreier Lötoptik — IPC-A-610 Abschnitt 8.3 als Referenz verwenden **Labeling-Protokoll — Entscheidungsregeln:** 1. Für jede zweifelhafte Klassifikation: IPC-A-610 Bild-Referenz aufrufen 2. Zwei Bewerter unabhängig → bei Unstimmigkeit: Qualitätsleitung entscheidet und dokumentiert Begründung 3. Bilder mit natürlichen Reflexionen (Schein-Brücke BGA) mit Tag "false-call-risk" markieren — für das Modell besonders wertvolle Trainingsdaten **Fragen für den Anbieter-Termin:** - Wie viele Trainingsbilder braucht euer System für BGA-Schein-Brücken-Erkennung bis unter 8 % Pseudofehlerrate? - Unterstützt das System Active Learning — also automatische Markierung von Grenzfall-Bildern im laufenden Betrieb? - Wie lange dauert ein Nachtraining bei neuer Lötlegierung? - Gibt es eine OPC-UA-Schnittstelle für MES-Anbindung?

Quellen & Methodik

  • Pseudofehlerrate regelbasierter AOI-Systeme (20–40 %): Mehrfach in der Fachliteratur dokumentiert; bestätigt durch Branchenanwenderstudien bei Intelliarts (2022, Implementierungsbericht) und Boolean & Beyond (2024). Anwenderspezifische Raten hängen von Bauteilmix und Kalibrierungsaufwand ab.
  • Falsch-Positiv-Kosten ca. 7.000 USD/Panel/Jahr: Intelliarts, „Case Study: Reducing False Alarms in the Automated Optical Inspection System” (2022), intelliarts.com. Unabhängig dokumentiert mit Methodenbeschreibung.
  • KI-AOI Erkennungsrate 96–99,5 %, False-Call-Rate unter 5 %: Boolean & Beyond, „PCB Solder Joint Inspection with AI” (2024); bestätigt durch publizierte Studien auf SpringerLink (2024) zur maschinellen Lernklassifikation von AOI-Falschmeldungen.
  • Amortisationsdauer 6–18 Monate: Branchenrichtwert aus mehreren publizierten ROI-Analysen (averroes.ai 2026, unitxlabs 2025). Variiert stark je nach Linienvolumen und Ausgangs-Defektrate.
  • Koh Young KAP: 70 % Zeitersparnis bei Programmierung: Koh Young Technology, Produktkommunikation und technische Berichte (2023–2024). Herstellerangabe; unabhängige Validierung nicht vorgelegen.
  • IPC-A-610: IPC — Association Connecting Electronics Industries, „Acceptability of Electronic Assemblies”, aktuelle Revision. Normreferenz für Lötverbindungsklassifikation.
  • Trainingsdatenbedarf und Labeling-Kosten: Elementary ML, „8 Critical Challenges that Kill Automated Inspection Projects” (2024), elementaryml.com; Schätzung 50.000–200.000 USD für umfassende Datensätze aus unabhängiger Analyse.

Du willst wissen, ob euer aktuelles AOI-System aufrüstbar ist und welcher Anbieter am besten zu eurem Bauteilmix passt? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar