Zum Inhalt springen
Maschinenbau spsstoerungsdiagnosewartung

SPS-Störungsmeldungen automatisch diagnostizieren

KI analysiert SPS-Fehlercodes, Alarmlogs und Maschinenzustand — und liefert dem Wartungstechniker sofort einen strukturierten Diagnosebericht statt Fehlercode-Suche im Handbuch.

⚡ Auf einen Blick
Problem
Wartungstechniker verbringen 30–50% der Störungszeit mit Fehlersuche in Handbüchern und Logdateien. Erfahrungswissen über wiederkehrende Muster ist nicht systematisch dokumentiert.
KI-Lösung
LLM mit Zugriff auf SPS-Logs, Maschinendokumentation und historischen Reparaturberichten — strukturierte Diagnose + Lösungsvorschlag in natürlicher Sprache.
Typischer Nutzen
Diagnosezeit um 40–70% kürzer. Weniger Eskalationen an Senior-Techniker oder Hersteller-Support.
Setup-Zeit
8–12 Wochen bis erstem produktivem Pilot (1 Maschinentyp)
Kosteneinschätzung
17.000–54.000 € Einrichtung, 1.800–4.900 €/Monat laufend
LLM direkt (Handbuch als Kontext, kein Setup)Node-RED + RAG-Pipeline on-premisesSiemens Industrial Edge (vollintegriert)
Worum geht's?

Mittwoch, 14:47 Uhr. Die Spritzgießmaschine in Halle 2 steht — Fehlercode 4731, die SPS zeigt ein Diagnosebit, das Markus Hölzel, der Wartungstechniker, nicht auf Anhieb deuten kann.

Markus greift zum dicken Siemens-S7-Handbuch, blättert sich durch 1.200 Seiten, findet den Code — und liest: “Fehler in der Kommunikation zwischen Hauptsteuerung und Peripherie-Modul.” Das können drei Dinge sein: ein Kabel, ein Modul oder eine inkompatible Softwareversion. Er ruft Michael an, den erfahrenen Senior-Techniker. Michael ist gerade in der Mittagspause und braucht 20 Minuten. Solange läuft die Maschine nicht — und jede Minute Stillstand kostet bei dieser Anlage rund 85 Euro.

Das passiert nicht einmal. Das passiert drei bis fünf Mal pro Woche.

Das Frustrierende: Fehlercode 4731 mit hoher Schranktemperatur ist ein bekanntes Problem. Es stand im Reparaturbericht vom März. Nur weiß das Markus nicht, weil dieser Bericht in einer Excel-Tabelle auf dem Laufwerk von Michael liegt — nicht in einem System, das er durchsuchen könnte.

Das echte Ausmaß des Problems

Fehlersuche in modernen SPS-Systemen ist kein Problem von gestern — im Gegenteil. Je komplexer die Maschinen werden, desto mehr Fehlercodes und Diagnosebits gibt es, und desto weniger Wartungstechniker kennen alle auswendig.

Die Realität im Mittelstand: Bei ungeplanten Ausfällen einer Produktionsmaschine verbringen Techniker im Schnitt 30 bis 50 Prozent der Reparaturzeit mit der Fehlersuche, nicht mit der Reparatur. Eine Auswertung von Service-Einsätzen an über 80 Siemens-SPS-Installationen (2025) zeigt: 60 Prozent der Ausfälle wären mit besserer Dokumentation und systematischer Diagnosevorbereitung vermeidbar gewesen — sie gehen nicht auf Hardware-Versagen zurück, sondern auf Bedienungsfehler, veraltete Parametereinstellungen und unbekannte, aber wiederkehrende Fehlermuster.

Das Problem verschärft sich mit jeder neuen Maschine: Jeder Maschinentyp hat sein eigenes Handbuch, seine eigene Fehlerlogik, seine eigenen Kalibrierungsparameter. Wer im Betrieb drei oder vier verschiedene Maschinentypen fährt, braucht entweder Techniker mit sehr breiter Erfahrung — oder ein System, das diese Erfahrung an den Ort der Störung bringt.

Die Kosten sind unbarmherzig: Laut Siemens-Auswertung von 2024 (analysiert von IndexBox) kosten Netzwerk- und Produktionsausfälle Fortune-500-Hersteller im Schnitt rund 260.000 US-Dollar pro Stunde pro Anlage. Für den deutschen Mittelstand liegt die Zahl bescheidener, aber immer noch schmerzhaft: 500 bis 2.000 Euro pro Stunde Stillstand für eine mittlere Produktionsmaschine. Ein Pharmahersteller mit Reinraumanforderungen zahlt das Drei- bis Fünffache. Dauert die Fehlersuche im Schnitt 2 bis 3 Stunden, kostet ein ungeplanter Ausfall 1.000 bis 6.000 Euro — bevor überhaupt die erste Schraube gelöst ist.

Das Alarmflut-Problem: Warum Fehlercodes allein nicht reichen

Moderne SPS-Systeme generieren bei einer Störung nicht einen einzigen Fehlercode. Sie generieren Dutzende — manchmal Hunderte — von Alarm-Ereignissen in wenigen Minuten. Dieses Phänomen hat einen Namen in der Automatisierungstechnik: Alarm Flood (Alarmflut).

Der ANSI/ISA-18.2-Standard definiert eine Alarmflut als mehr als 10 Alarme innerhalb von 10 Minuten. In der Praxis sehen Wartungstechniker bei größeren Störungen 50 bis 200 Meldungen — überlagert, kaskadierend, ohne klare Kausalstruktur. Der erste Alarm ist oft nicht die Ursache, sondern eine Folgeerscheinung. Das eigentliche Problem liegt drei Ebenen tiefer in der Logik.

Klassische Alarmmanagement-Systeme (SCADA-Alarmlisten, HMI-Protokolle) zeigen dir was gemeldet wurde — aber nicht warum und in welcher Reihenfolge die kausale Kette verlief. Ein LLM-basiertes Diagnosesystem kann die zeitliche Abfolge der Alarm-Ereignisse, die Sensor-Zustandswerte und die historischen Reparaturberichte gemeinsam auswerten und daraus die wahrscheinlichste Ursachenkette ableiten. Das ist der Kernvorteil gegenüber einem einfachen Fehlercode-Nachschlagewerk.

Das SPS-Protokoll-Ökosystem — was du wirklich vorfindest

Bevor du eine KI-Diagnose aufbaust, musst du verstehen, was deine Maschinen überhaupt an Daten liefern können. Die SPS-Landschaft in deutschen Fertigungsbetrieben ist nicht homogen — und die Anbindungsmöglichkeit hängt stark vom Hersteller und Baujahr ab.

Siemens SIMATIC S7 (S7-300, S7-400, S7-1200, S7-1500) Die mit Abstand häufigste SPS in Deutschland. Die alten S7-300- und S7-400-Baureihen (Baujahr vor 2010) sprechen kein OPC UA nativ — du brauchst entweder einen OPC-UA-Gateway (z. B. Softing oder KEPServerEx) oder eine Kommunikationskarte mit S7-TCP/IP. Neuere S7-1500- und S7-1200-Steuerungen haben OPC-UA-Server integriert und sind direkt ansprechbar. Im TIA Portal lässt sich der Diagnose-Puffer per Programm auslesen und an externe Systeme exportieren.

Beckhoff TwinCAT (TwinCAT 2, TwinCAT 3) TwinCAT 3 hat OPC-UA nativ eingebaut und gilt als eines der integrations-freundlichsten SPS-Systeme auf dem Markt. Der OPC-UA-Server läuft direkt auf dem PLC-Prozess, nicht als externes Add-on. Diagnosedaten, Programm-Variablen und Alarm-Events sind per Standard-Interface abrufbar. Das macht Beckhoff-Installationen technisch zum einfachsten Ausgangspunkt für eine KI-Diagnose-Pipeline.

Rockwell Automation / Allen-Bradley (ControlLogix, CompactLogix) In Nordamerika und in exportorientierten deutschen Maschinenbauunternehmen mit Kunden in den USA häufig anzutreffen. Allen-Bradley nutzt das proprietäre EtherNet/IP-Protokoll — OPC-UA ist über FactoryTalk Gateway oder KEPServerEx als Adapter erhältlich. Direkte OPC-UA-Unterstützung hat Rockwell erst mit neueren Controllern (CompactLogix 5380+) eingeführt. Ältere Installationen erfordern Middleware.

Fazit für die Praxis: Fragt vor dem Projektstart, welche SPS-Generationen und -hersteller ihr im Betrieb habt. Ein gemischter Maschinenpark mit S7-300 (kein OPC UA), Beckhoff TwinCAT (OPC UA nativ) und alten Allen-Bradley-Steuerungen (EtherNet/IP) braucht ein Protokoll-Gateway als erste Investition — bevor irgendetwas in Richtung KI passieren kann.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-DiagnoseMit KI-Diagnose
Durchschnittliche Diagnosezeit je Störfall45–120 Min15–45 Min
Reparaturen, die Eskalation an Senior-Techniker brauchen40–60 % der Fälle15–25 % der Fälle
Fehlerquote bei Selbstdiagnose durch Berufsanfänger20–35 % (Fehldiagnose)unter 5 % (LLM mit Wissensbasis)
Kosten pro externem Hersteller-Support-Einsatz500–2.000 €Deutlich seltener nötig
Diagnosequalität bei Alarmflut (50+ Alarme)stark degradiertstrukturierte Ursachenkette

Die Vergleichswerte stammen aus Interviews mit Maschinenherstellern und Wartungsdienstleistern in Deutschland sowie aus Praxisberichten der industriellen Automatisierungs-Community. Die Einsparung ist nicht nur Zeit, sondern auch die Vermeidung von Fehldiagnosen, die zu unnötigem Teileaustausch und zusätzlichen Stillständen führen.

Einschätzung auf einen Blick

Zeitersparnis — hoch (4/5) 30 bis 60 Minuten Diagnosezeit je Störfall sind messbar und real — das ist nicht der größte Hebel im Vergleich zur Bildverarbeitung oder automatisierten Maschinendokumentation, die Zeit in Stunden sparen, aber bei häufigen Störungen und hohen Stillstandkosten absolut relevant. Warum nicht 5? Weil die Reparaturzeit selbst nicht sinkt — nur die Diagnose wird schneller.

Kosteneinsparung — mittel (3/5) Die Einsparung ergibt sich indirekt: kürzere Ausfallzeiten, weniger Eskalationen an den Hersteller-Support, Vermeidung von Fehldiagnosen. Weniger greifbar als bei der Optimierung des Energieverbrauchs, wo du direkt Kilowattstunden einsparst. Die ROI-Rechnung braucht realistische Stillstandkosten deiner Anlage.

Schnelle Umsetzung — mittel (3/5) 8 bis 12 Wochen für einen produktiven Pilot mit einem Maschinentyp sind realistisch: Dokumente sammeln, OPC-UA-Anbindung konfigurieren, Reparaturberichte indexieren, Prompts justieren, Feldtest mit echten Störfällen. Das geht schneller als Bildverarbeitung oder Predictive Maintenance (die Monate an Trainingsdaten braucht), aber langsamer als eine einfache Chatbot-Einbindung. Wer ältere SPSen ohne OPC UA hat, addiert 2–4 Wochen für die Gateway-Einrichtung.

ROI-Sicherheit — hoch (4/5) Diagnosezeit ist direkt messbar — du kannst vor und nach der Einführung stoppen, wer wie lange an der Fehlersuche arbeitet. Das macht die Rechnung transparenter als bei indirekten Effekten. Der einzige Unsicherheitsfaktor ist die Qualität der vorhandenen Dokumentation — schlechte Handbücher führen zu schlechteren KI-Diagnosen.

Skalierbarkeit — niedrig (2/5) Das ist die echte Schwäche: Jeder neue Maschinentyp braucht seine eigene Wissensbasis. Wenn du heute eine KEBA-Spritzgießanlage, morgen eine Negri Bossi und nächste Woche eine Krauss Maffei kaufst, musst du jedes Mal von vorne dokumentieren und einpflegen. Das Modell lässt sich nicht einfach auf die nächste Maschine übertragen — es ist maschinentyp-spezifisch, nicht universell.

Richtwerte — stark abhängig von Stillstandkosten der Anlage, Verfügbarkeit von Maschinendokumentation und vorhandener OPC-UA-Anbindung.

Was ein KI-Diagnose-System konkret macht

Ein SPS-Diagnose-System kombiniert drei Komponenten:

OPC-UA-Datenanbindung: Moderne SPS-Systeme sprechen OPC UA — einen offenen Standard für Industrie-4.0-Kommunikation. Das System verbindet sich mit der SPS, liest in Echtzeit Fehlercodes, Diagnosebits, Sensor- und Stellgliedwerte aus und speichert sie zur Analyse. Ältere Steuerungen ohne nativen OPC-UA-Support werden über Protokoll-Gateways eingebunden.

Wissensbasis aus Dokumentation: Alle Maschinenhandbücher, Schaltpläne, Fehler-Nachschlagewerke und internen Reparaturberichte werden in eine durchsuchbare Basis eingespielt. Das RAG-Verfahren (Retrieval-Augmented Generation) sorgt dafür, dass das System nur auf tatsächlich vorhandene Dokumentation antwortet — kein Erfinden, keine Halluzination.

Strukturierte Diagnoseausgabe: Tritt eine Störung auf, erzeugt das System einen Diagnosebericht: Fehlercode interpretiert, wahrscheinliche Ursachen mit Quellenangabe aus der Dokumentation, zeitliche Abfolge der Alarm-Ereignisse ausgewertet, Selbsthilfeschritte oder Eskalationsempfehlung (“Hersteller anrufen” versus “bekanntes Problem, Lösung im Servicehandbuch S. 342”).

Das System ersetzt nicht das Urteil des Technikers — es beschleunigt die Diagnose. Ein Berufsanfänger mit guter KI-Unterstützung findet die richtige Ursache schneller als ein Senior-Techniker, der ohne System durchs Handbuch blättern muss.

Die OPC-UA-Pipeline konkret: Vom Fehlerbit zur Diagnose

Die technische Kette hinter einem SPS-Diagnose-System ist weniger komplex als sie klingt — aber sie hat drei Integrationspunkte, an denen Projekte in der Praxis stecken bleiben.

Schritt 1 — Datenerfassung (OPC-UA-Server → Datenpuffer) Die SPS läuft als OPC-UA-Server. Ein leichtgewichtiger Client — zum Beispiel Node-RED mit dem node-red-contrib-opcua-Paket — verbindet sich bei jeder Alarm-Aktivierung oder zyklisch (alle 5–30 Sekunden) und liest den Diagnose-Puffer aus. Die Rohdaten (Alarm-Code, Zeitstempel, Kanal-ID, Sensor-Zustand) gehen in eine Zeitreihendatenbank wie InfluxDB.

Schritt 2 — Kontext-Anreicherung (Zeitreihen → strukturierter Kontext) Das Diagnose-System aggregiert die letzten N Alarm-Ereignisse (z. B. 30 Minuten vor der Haupt-Störung), korreliert sie mit Sensor-Werten aus InfluxDB und formuliert einen strukturierten Kontext-Block für das LLM: “Fehlercode 4731 aufgetreten; vorangegangene Alarme: Temperatur-Warnung bei 62 °C (vor 18 Min.), Kommunikations-Timeout PE-Modul (vor 11 Min.); letzter Maschinenzyklus normal beendet.”

Schritt 3 — LLM-Diagnose (Kontext + Wissensbasis → Diagnosebericht) Das LLM (z. B. Claude über API) empfängt den Kontext-Block zusammen mit den relevanten Handbuch-Abschnitten aus der RAG-Wissensbasis und gibt einen strukturierten Bericht aus: Ursache, Wahrscheinlichkeit, Quellenangabe, Handlungsschritte.

Wo Projekte stecken bleiben: Schritt 1 ist oft der aufwendigste — nicht wegen der Technologie, sondern weil OT-Netzwerke und IT-Systeme häufig physisch getrennt sind (Demilitarisierte Zone). Den Weg vom SPS-Netzwerk in die Unternehmens-IT zu öffnen erfordert die Abstimmung zwischen Produktion, IT-Security und manchmal dem Maschinenhersteller. Plane dafür 2–4 Wochen Abstimmungsaufwand ein.

Konkrete Werkzeuge — was wann passt

Claude oder Gemini als LLM-Kern Beide Modelle sind auf technische Dokumente trainiert und können komplexe Fehlerlogik in strukturierten Ausgaben darstellen. Claude hat eine größere Kontextlänge (bis 200.000 Token), was hilft, wenn du Handbücher mit Hunderten von Seiten verarbeitest. Gemini ist bei hohem Durchsatz günstiger. Beide erlauben API-Nutzung ohne Training auf deinen Daten, wenn du das im Vertrag festlegst.

Node-RED für die OPC-UA-Pipeline Visueller Flow-Editor mit über 5.000 Community-Nodes — darunter vollständige OPC-UA-Client-Nodes für Siemens S7 (via S7-Protokoll), Beckhoff TwinCAT und alle anderen OPC-UA-Server. Kostenlos und selbst-hostbar. Ideal, um den Daten-Pipeline-Schritt von der SPS in die Zeitreihendatenbank zu realisieren, ohne eigenen Code schreiben zu müssen.

Siemens Industrial Edge oder Siemens Insights Hub für größere Siemens-Umgebungen Wenn du bereits tief in Siemens-Automatisierung investiert hast, bringt Industrial Edge vorkonfigurierte OPC-UA-Konnektoren und direkte S7-1500-Anbindung mit. Die Diagnose-App läuft dann am Edge-Device direkt in der Produktion, ohne Cloud-Latenz. Insights Hub ist die werkübergreifende Cloud-Variante für Betriebe mit mehreren Standorten.

InfluxDB für Zeitreihendaten Um Störungen rückwirkend zu analysieren und Muster zu erkennen (“Dieser Fehler tritt immer auf, wenn die Temperatur über 65 °C steigt”), brauchst du eine Zeitreihendatenbank. InfluxDB ist Open Source, läuft on-premise und ist günstig im Betrieb. Die OSS-Version ist kostenlos.

Eigenes RAG mit Chroma oder Weaviate als Vektordatenbank Für maximale Kontrolle über deine Reparaturberichte und Wissensbasis: Chroma (Open Source, kostenlos) oder Weaviate (selbst hostbar, EU-DSGVO-konform) als Vektorspeicher, Handbücher und Reparaturberichte als indexiertes Wissen, Claude oder Gemini für die Diagnoseantwort. Das ist die Variante mit den niedrigsten laufenden Kosten und der höchsten Datenkontrolle. Erfordert initiale Entwicklerarbeit, aber danach vollständige Unabhängigkeit von Cloud-Diensten.

Zusammenfassung — wann welcher Ansatz:

Datenschutz und Datenhaltung

Reparaturberichte enthalten oft sensible Informationen: Betriebsparameter, Fehlerfrequenzen, standortbezogene Ausfallmuster. Das fällt zwar nicht unter die DSGVO — es sind keine personenbezogenen Daten —, aber sehr wohl unter Betriebsgeheimnis und den Schutz von Geschäftsgeheimnissen gegenüber Maschinenhersteller und Wettbewerbern.

Datenhaltungs-Empfehlungen je Tool:

  • Claude und Gemini erlauben API-Nutzung ohne Speicherung von Trainingsdaten, wenn du das explizit per Enterprise-Vertrag vereinbarst. Anthropic und Google bieten beide AVV (Auftragsverarbeitungsvertrag) an.
  • Chroma und Weaviate (selbst gehostet) — Daten verlassen das Unternehmen nicht. Maximale Kontrolle.
  • Siemens Industrial Edge verarbeitet Daten lokal am Edge-Device; nur explizit konfigurierte Datenpunkte gehen optional in die Cloud. Siemens ist ein deutsches Unternehmen, DSGVO-konforme Datenhaltung in der EU ist Standard.
  • InfluxDB on-premises: kostenlos und vollständig unter eigener Kontrolle. InfluxDB Cloud hostet auf US-Servern — für sensible Betriebsdaten die schlechtere Wahl.

Besondere Vorsicht bei: Rezeptur- und Verfahrensdaten in der Pharmaindustrie sowie Sicherheits-SPS-Daten (Safety-PLCs für Maschinenverriegelungen). Diese Daten sollten nie in eine externe Cloud gehen — hier ist ein vollständig selbst gehostetes System Pflicht.

Was es kostet — realistisch gerechnet

Einrichtung:

  • Dokumente digitalisieren und per OCR erfassen: 2.000–8.000 € (abhängig von Handbuchvolumen und Format)
  • OPC-UA-Gateway einrichten (bei älteren SPS ohne nativen OPC-UA-Support): 2.000–6.000 € (Software-Lizenz + Konfigurationsaufwand)
  • Reparaturberichte indexieren und aufbereiten: 5.000–15.000 € (intern oder über einen externen Dienstleister)
  • RAG-System aufbauen (eigenentwickelt oder als Managed Service): 8.000–25.000 € (abhängig von Komplexität)

Laufende Kosten:

  • LLM-API-Kosten (Claude oder Gemini): 300–1.500 € pro Monat (abhängig von Störungshäufigkeit und Abfragevolumen)
  • Vektordatenbank-Hosting (Chroma selbst gehostet oder Weaviate Cloud): 0–400 € pro Monat
  • InfluxDB on-premises: 0 € (Open Source)
  • Pflege und laufende Dokumentations-Updates: 1.500–3.000 € pro Monat (interne oder externe Ressource)

Gesamtrechnung (konservativ):

  • Einrichtung: 17.000–54.000 €
  • Monatlich: 1.800–4.900 €
  • Amortisation nach 6–10 Monaten, wenn die Maschine im Schnitt 2–3 Ausfälle pro Woche hat und jeder Ausfall 1.500 € Stillstandkosten verursacht. In einem konservativen Szenario (30 % der theoretischen Einsparung) amortisiert sich das System in 12–18 Monaten.

Vier typische Einstiegsfehler

Fehler 1: Die SPS-Anbindung unterschätzt Du planst 2 Wochen für die technische Einrichtung ein — und stehst nach 6 Wochen immer noch vor der Frage, wie du das OT-Netzwerk mit dem IT-Netzwerk verbindest. Das ist in vielen Betrieben eine Sicherheits-, Infrastruktur- und Zuständigkeitsfrage, keine technische. Was hilft: Frühzeitig klären, ob euer IT-Security-Team OT-zu-IT-Traffic durch eine Demilitarisierte Zone erlaubt, und wer der Ansprechpartner auf Produktionsseite für Netzwerkfragen ist.

Fehler 2: Zu wenig Zeit für die Aufbereitung der Dokumente Du sammelst alle Handbücher, lädst sie ins RAG-System und erwartest, dass es funktioniert. In Wirklichkeit stecken die Handbücher voller Ungenauigkeiten, widersprüchlicher Versionen und schlecht gescannter Seiten. In den ersten zwei bis drei Monaten sind die Diagnosen dann schlecht, weil das Modell aus schlechten Dokumenten schlechte Ausgaben liefert. Was hilft: 4–8 Wochen Dokumentenpflege und Test mit echtem Techniker-Feedback einplanen.

Fehler 3: Keine Rückkopplung mit den Technikern Du trainierst das System am Schreibtisch und rollst es dann in der Werkstatt aus. Die Techniker sagen: “Das Ding schlägt immer Unsinn vor.” Das Modell braucht echtes Feedback aus den Reparaturberichten — wer hat den Fehler tatsächlich behoben, was war die wirkliche Ursache? Ohne diese Rückkopplung stagniert die Qualität. Was hilft: Eine feste Rückmeldeschleife einbauen — Techniker geben nach jeder Reparatur an, ob die KI-Diagnose hilfreich war (ja/nein/teilweise), und das System lernt daraus.

Fehler 4: Die Wissensbasis veraltet still Nach einem Jahr merkst du: Neue Maschinenversionen, neue Fehlercodes, neue Verfahrensdokumente sind nicht in deiner Basis. Das System stützt sich auf veraltete Informationen und gibt Diagnosen, die zum alten Hardware-Stand passen, nicht zum aktuellen. Das ist gefährlicher als gar kein System — denn es klingt selbstbewusst und irrt sich. Was hilft: Klare Verantwortung festlegen — wer aktualisiert die Dokumentation, sobald es neue Maschinensoftware gibt? Ohne aktive Pflege sinkt der Nutzen innerhalb von 12–18 Monaten deutlich.

Was mit der Einführung wirklich passiert — und was nicht

Was passiert: Die ersten Wochen sind frustrierend. Die Techniker sind skeptisch: “Noch ein IT-System, das uns Zeit kostet.” Viele überlesen die KI-Diagnose und greifen zum Handbuch, weil sie dem System nicht vertrauen. Das ist normal — Vertrauen entsteht durch echte, nachprüfbare Erfolge.

Nach 4–6 Wochen mit echtem Feedback ändert sich das. Wenn die KI drei Störungen hintereinander richtig diagnostiziert, fangen auch Berufsanfänger an, das System zu nutzen — nicht weil es angeordnet wurde, sondern weil es funktioniert und Zeit spart.

Die stärksten Treiber für die Akzeptanz sind:

  • Störungen, die selten sind, aber teuer (1–2 Mal pro Monat, 5.000 € pro Ausfall): Dort spart das System sichtbar Zeit.
  • Jüngere Techniker, die sich ohnehin unsicher fühlen: Sie nutzen das System als Sicherheitsnetz — wenn KI und Handbuch übereinstimmen, sind sie sicherer in der Entscheidung.
  • Nachtschichten und Wochenenddienste: Wenn der Senior-Techniker nicht erreichbar ist, wird die KI-Diagnose zum Rettungsanker.

Was nicht passiert: Das System ersetzt nicht die Erfahrung der Senior-Techniker. Es macht ihre Erfahrung teilbar und skalierbar. Senior-Techniker werden nicht überflüssig — sie werden von der Routinefehlersuche entlastet und können sich auf knifflige, ungewöhnliche Ausfälle konzentrieren. Und: Die KI erkennt keine Fehler, die noch nicht beschrieben wurden. Treten völlig neue Fehlermodi auf (neue Softwareversion, Umbau der Anlage), muss das System erst mit neuem Wissen gefüttert werden.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
OT/IT-Infrastruktur klären2–4 WochenOPC-UA-Anbindung prüfen, Netzwerk-Freigabe abstimmen, ggf. Gateway beschaffenSPS-Netzwerk ist nicht direkt erreichbar — Netzwerktrennung verzögert das Projekt
Dokumentenaufbereitung4–8 WochenHandbücher sammeln, OCR prüfen, Fehlerlogik-Dokumentation erstellenSchlechte Scanqualität verzögert OCR-Nacharbeiten
RAG-System einrichten2–4 WochenVektordatenbank aufsetzen, Embedding-Modell konfigurieren, API-Anbindung bauenZu klein dimensioniert — zu wenig Speicher für alle Handbücher
Pilot mit 1–2 Maschinentypen6–10 WochenLive-Test mit echten Störfällen, Techniker-Feedback sammeln, Prompts justierenDokumentation unvollständig — KI kann häufige Fehler nicht erklären
Einführung auf weitere Maschinen3–6 MonateWeitere Maschinentypen indexieren, Techniker schulen, laufend optimierenPflegeprozess (wer aktualisiert die Dokumentation?) nicht geklärt
RegelbetriebLaufendMonatliche Wissensbasis-Updates, Feedback einarbeiten, Kosten optimierenDokumentation veraltet — Nutzen sinkt nach 12–18 Monaten ohne aktive Pflege

Häufige Einwände — und was dahintersteckt

Einwand 1: “Dem System vertraut doch keiner. Die Techniker gehen nach Bauchgefühl.” Das stimmt — löst sich aber nach 4–6 Wochen, wenn die Diagnosen stimmen. Der Schlüssel ist Glaubwürdigkeit durch Quellenangaben: Das System sagt nicht “Wahrscheinlich ist das Modul defekt”, sondern “Fehlercode 4731 tritt auf, wenn das Peripherie-Modul nicht antwortet. Siemens-S7-1500-Handbuch, S. 387. In deinem Fehlerlog zeigt sich dieses Muster auch am 12.03., als ein Austausch nötig war.” Mit Quellenangabe schwindet die Skepsis.

Einwand 2: “Unsere Handbücher sind auf Englisch, Französisch oder Japanisch. Das System müsste übersetzen.” Ja, und das geht: Mit DeepL oder einem mehrsprachigen LLM lassen sich Handbücher vor der Indexierung übersetzen. Der Aufwand liegt bei ein paar Tagen, nicht Monaten. Alternativ: Mehrsprachige Wissensbasis indexieren und das LLM auf Deutsch antworten lassen — das funktioniert gut mit aktuellen Modellen wie Claude.

Einwand 3: “Das ist zu komplex für unsere IT. Wir haben keine Python-Entwickler.” Dann nimm Node-RED für die Daten-Pipeline (kein Code nötig) und einen betreuten RAG-Dienst statt Eigenbetrieb. Oder hol dir für die Einrichtung eine Automatisierungs-Agentur und übernimm den Betrieb danach mit dem eigenen Team. Die Alternative — weiter mit Handbuch-Wälzen zu arbeiten — kostet jeden Monat mehr als die Einrichtung.

Woran du merkst, dass das zu dir passt

  • Ihr habt drei oder mehr Maschinentypen im Betrieb, die unterschiedliche Fehlerlogik haben
  • Ungeplante Ausfälle kosten mehr als 500 € pro Stunde Stillstand
  • Ihr lagert Wartung aus oder habt Techniker im Nachtdienst, die bei seltenen Fehlern nicht sofort Support bekommen
  • Es gibt bereits interne Reparaturberichte oder Wartungs-Logs, aus denen das System lernen kann
  • Eure Maschinen sprechen OPC UA oder haben eine offene Datenschnittstelle (S7-TCP/IP, EtherNet/IP mit Gateway)

Wann es der falsche Zeitpunkt ist — drei harte Ausschlusskriterien:

  1. Zu wenig Maschinenvielfalt und Störungshäufigkeit: Ihr habt nur einen Maschinentyp im Betrieb, oder es gibt durchschnittlich weniger als 5 ungeplante Störungen pro Monat. Dann lässt sich der Einrichtungsaufwand (17.000–54.000 €) nicht amortisieren. Ein gutes Fehlercode-Wiki auf Confluence und eine strukturierte Reparaturbericht-Vorlage bringt mehr.

  2. Keine digitale Wartungshistorie vorhanden: Reparaturberichte liegen handschriftlich vor, oder es gibt schlicht keine dokumentierten Reparaturen aus den letzten Jahren. Das System braucht mindestens 50–100 dokumentierte Störungsfälle, um sinnvolle Muster ableiten zu können. Zuerst dokumentieren — dann KI.

  3. Maschinen mit vollständig proprietärem, geschlossenem Protokoll: Ältere CNC-Steuerungen bestimmter Hersteller (z. B. ältere Fanuc-Modelle ohne EtherNet/IP-Option) liefern keine externen Datenschnittstellen. Wenn der Hersteller keine OPC-UA-, Modbus- oder TCP/IP-Anbindung bietet und kein Retrofit-Kit existiert, ist das ein K.o.-Kriterium — bis zu einer zukünftigen Maschinengeneration.

Das kannst du heute noch tun

Heute kostenlos starten:

Sammle deine SPS-Handbücher (Papierkopien reichen, scanne sie bei Bedarf ein) und leg sie digital ab. Erstelle dazu eine Liste aller Fehlercodes, die in den letzten 12 Monaten an deinen Maschinen aufgetreten sind.

Öffne Claude (kostenloser Plan) und teste das Prinzip: Kopiere einen Fehlerbericht aus deinem Wartungs-Log hinein und frage: “Was könnten die Ursachen sein, basierend auf diesen Symptomen?” Das kostet dich 30 Minuten und gibt dir ein Gefühl, ob die Idee für deinen Betrieb überhaupt passt.

Wenn das gut funktioniert: Teste mit dem nächsten echten Störfall, ob die KI eine nützliche Diagnose liefert — bevor du einen Cent in Infrastruktur investierst.

Prompt für SPS-Fehlerdiagnose
Du bist ein Diagnose-Assistent für SPS-Fehlersuche. Dir stehen folgende Unterlagen zur Verfügung: - Siemens S7-1500 Fehlercode-Referenz (als Anhang) - Maschinen-Reparaturberichte der letzten 24 Monate (als Anhang) - Kalibrierungs-Dokumentation (als Anhang) Der Wartungstechniker meldet folgende Störung: [FEHLERSYMPTOME EINFÜGEN] Gib eine strukturierte Diagnose aus: 1. Fehlercode-Interpretation (mit Quellenangabe aus den Unterlagen) 2. Die drei wahrscheinlichsten Ursachen (mit Begründung und Quellenangabe) 3. Zeitliche Alarm-Kette: Welche Voralarm-Meldungen könnten auf die Hauptursache hindeuten? 4. Selbsthilfe-Schritte (konkret, Schritt für Schritt) oder Eskalations-Empfehlung 5. Ähnliche Störungen aus der Reparaturhistorie (wenn vorhanden, mit Datum und Lösung) Wenn du keine gesicherte Antwort aus den Unterlagen geben kannst, sag das explizit.
Funktioniert mit Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Fehler 4731, Maschine KEBA ProCentric, Diagnose-Bit zeigt 'E_PE_MOD_NOK', Temperatur im Schaltschrank 68 °C, letzter Neustart vor 2 Tagen. Vorher: Temperatur-Warnung 62 °C vor 18 Minuten, dann Timeout-Alarm PE-Verbindung vor 11 Minuten.

KI-Assistent

Fehlercode 4731 — Peripherie-Modul-Fehler (KEBA-ProCentric-Handbuch, S. 287) Alarm-Kette analysiert: Temperatur-Warnung (62 °C) → Timeout PE-Verbindung → Modul-Fehler. Das deutet auf thermischen Stressausfall hin, nicht auf Firmware. Wahrscheinliche Ursachen (geordnet nach Häufigkeit): 1. Korrosion am Steckkontakt — Temperatur 68 °C liegt über Normalbetrieb (55 °C laut Handbuch S. 112). Oxidation beschleunigt sich ab 60 °C. Stecker ausbauen, Kontaktflächen mit Isopropanol reinigen, wieder einbauen. Dauer: 20–30 Min. 2. Hardware-Defekt durch Überhitzung — nach längerer Betriebszeit über 65 °C möglich. Bei wiederkehrendem Fehler nach Schritt 1: Modul austauschen. 3. Firmware-Inkompatibilität — weniger wahrscheinlich (Neustart war vor 2 Tagen, Firmware-Update unbekannt). Firmware-Stände prüfen, wenn Schritte 1–2 keinen Erfolg haben. Ähnliche Fälle in deinen Reparaturberichten: 05.11.2024 (Steckkontakt, Lösung in 25 Min.) und 12.03.2025 (Firmware nach SW-Update). Beide ohne Modul-Austausch behebbar. Selbsthilfe: Schritte 1–2 versuchen. Wenn nach zwei Versuchen erfolglos: Hersteller-Support anrufen (ca. 800 €). Hinweis Schranktemperatur: Normalbetrieb laut Handbuch unter 55 °C — 68 °C ist dauerhaft zu hoch. Belüftung oder Klimatisierung des Schaltschranks überprüfen, sonst ist mit Folgeausfällen zu rechnen.

Quellen & Methodik

  • Siemens PLC Troubleshooting Guide 2025/2026 (koeed.com, 2026) — Auswertung von Service-Einsätzen an über 80 Siemens-SPS-Installationen; Basis für die Aussage, dass 60 % der Ausfälle durch bessere Dokumentation und systematische Diagnose vermeidbar wären.
  • FD-LLM: Large Language Model for Fault Diagnosis of Machines (arXiv:2412.01218v1, Dezember 2024) — Akademische Validierung von LLM-basierter Maschinendiagnose. Zeigt: Llama3-Instruct erreicht 99,7 % Genauigkeit innerhalb bekannter Betriebsbedingungen — fällt aber auf 43–53 % ab, wenn das Modell auf andere Maschinenkomponenten als die Trainingsdaten generalisieren muss. Direkte Evidenz für die Notwendigkeit komponentenspezifischer Wissensdatenbanken.
  • IndexBox / Siemens-Auswertung 2024 (indexbox.io, 2024) — Analyse der Siemens-Studie zu Produktions-Ausfallkosten: Fortune-500-Hersteller tragen im Schnitt 260.000 USD/Stunde/Anlage durch ungeplante Ausfälle.
  • ANSI/ISA-18.2 Alarm Management Standard — Definition und Grenzwerte für Alarmflut (>10 Alarme in 10 Minuten); Basis für den Abschnitt zum Alarmflut-Problem.
  • VDMA OPC UA — Leitfaden (vdma.org, 2022–2026) — Offizielle Dokumentation des VDMA; OPC UA ist der Standard für Industrie-4.0-Maschinenkommunikation und -Diagnose.
  • OPC UA Implementation: Rockwell, Siemens, and Beckhoff (control.com, 2024) — Herstellerspezifischer Vergleich der OPC-UA-Implementierungen; Basis für den Protokoll-Ökosystem-Abschnitt.
  • Eigene Interviews mit Maschinenherstellern und Wartungsdienstleistern in Deutschland (2025) — Kennzahlen zu Stillstandkosten, Support-Eskalation und Diagnosezeit basieren auf Rückmeldungen aus der KMU-Fertigung.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar