Zum Inhalt springen
Aufzug- & Fördertechnik ausfallfrühwarnungwartung

Mikro-Ausfallmuster-Erkennung

KI analysiert Fahrtdaten, Türzyklen und Motorstromprofile auf schwache Signale, die Wochen vor einem Ausfall erkennbar sind — und verwandelt Notfalleinsätze in planbare Wartung.

Worum geht's?

Es ist Freitagabend, 18:47 Uhr.

Markus Fehr ist Serviceleiter bei einem mittelständischen Aufzugwartungsunternehmen, 340 Anlagen im Bestand, sechs Techniker im Außendienst. Sein Telefon klingelt: Krankenhaus Standort Nord, Aufzug B3 steht, Operationsbereich kann nicht mehr versorgt werden. Notfalleinsatz.

Er schaut in das Wartungsprotokoll von B3. Reguläre Inspektion vor sieben Wochen — alles unauffällig. Der Techniker war dort, hat die Checkliste abgehakt, hat nichts beanstandet. Und jetzt steht die Anlage.

Fehr schickt den diensthabenden Techniker, der drei andere Einsätze unterbrechen muss. Notfall-Stundensatz. Wochenendpauschale. Die Anlage ist erst am nächsten Morgen wieder in Betrieb. Das Krankenhaus rechnet ihm einen Vertragsmalus an.

Was Fehr nicht wusste: Die Türöffnungszeit von B3 hatte sich in den letzten sechs Wochen schrittweise um 18 Prozent verlängert. Das Motorstromsignal des Türantriebs zeigte eine zunehmende Stromspitze beim Schließen. Zwei erkennbare Vorläufermuster — wenn jemand in die Daten geschaut hätte.

Niemand hatte geschaut. Nicht weil niemand wollte, sondern weil 340 Anlagen täglich keine Aufmerksamkeit bekommen. Bis sie ausfallen.

Das echte Ausmaß des Problems

Der TÜV-Verband hat 2023 rund 667.000 Aufzugsanlagen in Deutschland unabhängig geprüft. Das Ergebnis: Bei 10,3 Prozent wurden erhebliche Mängel festgestellt, bei weiteren 0,6 Prozent gefährliche Mängel — rund 4.000 Anlagen, von denen knapp 3.000 stillgelegt werden mussten. Nur 46 Prozent aller geprüften Aufzüge waren mängelfrei (TÜV-Verband, Anlagensicherheitsreport 2023).

Das klingt nach einem Sicherheitsthema. Es ist auch ein Wirtschaftlichkeitsthema.

Der Unterschied zwischen einem Notfalleinsatz und einem geplanten Wartungseinsatz ist nicht nur organisatorischer Art — er ist betriebswirtschaftlich. Ein ungeplanter Störungseinsatz kostet je nach Tageszeit und Entfernung drei- bis fünfmal so viel wie derselbe Eingriff planbar durchgeführt. Dazu kommen: Vertragsstrafen aus SLA-Klauseln, Reputationsschäden gegenüber dem Gebäudebetreiber, und das Risiko, dass der Techniker andere Touren unterbricht.

Für ein mittelständisches Aufzugwartungsunternehmen mit 300–500 Anlagen im Bestand und 10–15 Notfalleinsätzen pro Monat ergibt sich ein erheblicher Hebel. Wenn fünf dieser Einsätze durch vorausschauende Wartung vermieden werden können, entspricht das allein bei den Mehrkosten des Notfallmodus einem fünfstelligen jährlichen Einsparpotenzial — bevor der Verwaltungsaufwand und die Vertragsstrafenreduzierung eingerechnet sind.

Hinzu kommt der Wettbewerbsaspekt. Die vier größten Aufzughersteller — Schindler, Otis, KONE und TK Elevator — betreiben alle proprietäre Telemetrieplattformen für ihre eigenen Anlagen: Schindler Ahead, Otis ONE, KONE 24/7 Connected Services und TK Elevator MAX. Wer als unabhängiges Wartungsunternehmen oder als Hersteller ohne eigenes IoT-Backend konkurriert, verliert diese Differenzierung — und mittelfristig auch die attraktivsten Vollwartungsverträge.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit Mikro-Ausfallmuster-Erkennung
Erkennungszeitpunkt vor AusfallErst bei Störungsmeldung2–6 Wochen vorher durch Signalanalyse
Notfalleinsatzquote (Anteil ungeplanter Einsätze)20–35% aller EinsätzeZiel: unter 10% bei voll angebundenen Anlagen
Kosten je Störungseinsatz vs. geplanter WartungFaktor 3–5× AufschlagPlanbare Einsätze zu Normalkosten
WartungsintervallStarr (monatlich / vierteljährlich)Bedarfsorientiert nach Anlagenzustand
Techniker-Touren-Effizienz5–8 Anlagen/Tag, reaktiv disponiert8–12 Anlagen/Tag, vorausschauend gebündelt
Vertragsmarge bei VollwartungHängt an Ausfall-GlückKalkulierbarer durch reduzierte Notfallkosten

Quellen für Kostenfaktor und Notfallquoten: Branchenrichtwerte aus Fachliteratur und TK Elevator MAX Felddaten (128.000 angebundene Anlagen, 2024); Techniker-Routenwerte aus Erfahrungen mit Wartungsunternehmen 50–500 Anlagen.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Der direkte Zeitgewinn für Techniker ist real, aber moderat: Weniger Notfalldisposition, gebündeltere Touren, keine unterbrochenen Einsätze mehr. Grob geschätzt 1–2 Stunden weniger Dispositionsaufwand pro Techniker und Woche. Das ist keine revolutionäre Zeitersparnis — der eigentliche Hebel dieser Lösung liegt anderswo. Wer primär Arbeitszeit sparen will, ist mit einem guten Routenoptimierungs-Tool schneller am Ziel.

Kosteneinsparung — hoch (4/5) Das ist der Kern dieses Anwendungsfalls. Ein Notfalleinsatz kostet ein Wartungsunternehmen drei- bis fünfmal mehr als derselbe Einsatz planbar durchgeführt — Notfall-Stundensatz, Anfahrkosten außerhalb regulärer Touren, gegebenenfalls Wochenendpauschalen. Für jeden vermiedenen Notfalleinsatz sind das 200–600 Euro Mehrkosten, die entfallen. Bei 300 Anlagen im Bestand und einer Reduktion von 10 auf 3 Notfalleinsätzen pro Monat ergibt das 1.400–4.200 Euro monatliche Einsparung allein durch diese eine Kennzahl.

Schnelle Umsetzung — niedrig (2/5) Das ist der härteste Haken. Bis ein Modell verlässliche Alerts liefert, braucht es Telemetrie-Infrastruktur, eine Datenhistorie, Labeling-Arbeit (welche Signale gingen einem echten Ausfall voraus?) und Validierungszyklen. Realistisch sind 8–16 Wochen bis zum ersten belastbaren Alert — vorausgesetzt, die Anlagen haben eine aktuelle Steuerung mit Datenexportschnittstelle. Ältere Analog-Anlagen sind ohne Hardware-Nachrüstung nicht einbindbar.

ROI-Sicherheit — hoch (4/5) Der ROI-Nachweis ist direkter als bei vielen anderen KI-Anwendungsfällen: Du zählst Notfalleinsätze vor und nach, und du siehst, welche davon durch einen vorherigen Alert vermieden wurden. Das ist keine indirekte Wirkungskette — es ist eine direkte Kosten-Nutzen-Rechnung. Einschränkung: Der Nachweis braucht mindestens 6 Monate Laufzeit, und in den ersten Monaten gibt es falsch-positive Alerts, die das Bild verzerren.

Skalierbarkeit — sehr hoch (5/5) Jede weitere Anlage, die ins System aufgenommen wird, verbessert das Modell. Mehr Ausfallmuster aus mehr Anlagen bedeuten mehr Vergleichspunkte für neue Anomalie-Erkennung. Das ist der stärkste Skalierungseffekt in dieser Branche: Ein Unternehmen, das 500 Anlagen anbindet, hat ein messbares besseres Modell als eines mit 50 — und damit einen echten Wettbewerbsvorteil gegenüber kleineren unabhängigen Wartungsunternehmen.

Richtwerte — stark abhängig von Flottenalter, Herstellervielfalt und vorhandener Telemetrie-Infrastruktur.

Schwache Signale: Was Wochen vor dem Ausfall schon messbar ist

Das Konzept der Mikro-Ausfallmuster ist technisch greifbar. Jede der drei häufigsten Ausfallklassen — Türstörungen, Antriebsausfälle und Sicherheitskreisfehler — hat charakteristische Vorläufersignale, die Wochen vor dem eigentlichen Ausfall messbar werden.

Türstörungen (ca. 40–50% aller Aufzugausfälle) Der Türantrieb ist mechanisch und verschleißt kontinuierlich. Die messbaren Vorboten:

  • Zyklusdrift: Die Türöffnungszeit verlängert sich schrittweise — 5%, dann 10%, dann 15%. Keine einzelne Fahrt fällt auf; über 200 Zyklen hinweg ist der Trend eindeutig.
  • Stromspitzen beim Schließen: Der Motorstrom des Türantriebs steigt beim Schließvorgang unregelmäßig — ein Zeichen für mechanischen Widerstand (Laufflächen, Rollen, Riemenverschleiß).
  • Reversalfrequenz: Häufigeres Umkehren der Tür beim Schließversuch, auch wenn keine Person im Türbereich ist.

Forschungsdaten aus der Analyse von Motordaten (MDPI, 2024) zeigen: Diese Kombination aus Zyklusdrift und Stromspitzen ist 10–20 Tage vor einem harten Türfehler erkennbar, der zu einer Passagier-Behinderung führt.

Antriebsausfälle (ca. 20–30% aller schweren Störungen) Der Traktionsantrieb (Motor, Getriebe, Bremsanlage) gibt frühe Signale über:

  • Motorstrom-Signatur: Machine Learning analysiert das Stromsignal des Fahrmotors mittels Fast-Fourier-Transformation. Lagerschäden im Motor erzeugen charakteristische Subharmonische — erkennbar 3–6 Wochen vor physischem Lagerversagen (Artesis / MDPI Forschung zu Motor Current Signature Analysis, 2024).
  • Bremsenverhalten: Die Stromenveloppe beim Bremsen verändert sich, wenn die Bremsbeläge verschleißen — eine kontinuierliche Drift, die in Einzelfahrten unsichtbar ist.
  • Vibrationsabweichung: Beschleunigungsprofile zeigen asymmetrische Muster, wenn Führungsschienen oder Seilrollen ungleichmäßig verschleißen.

Sicherheitskreisfehler (intermittierend, schwer zu prognostizieren) Kontakte in Sicherheitskreisen (Schachttürkontakte, Endbegrenzungen) degradieren durch Lichtbogenbildung bei jedem Öffnen. Das Signal: zunehmende elektrische Kontaktunterbrechungsdauer, messbar als Microglitches im Steuerungsstrom. Dieser Fehlertyp ist am schwersten vorherzusagen — aber aus einer großen Flotte lässt sich zumindest ein statistisches Lebensende pro Kontakttyp ableiten.

Was das für die Implementierung bedeutet: Die Qualität der Vorhersage ist direkt proportional zur Sampling-Rate. Türzyklusdaten brauchen mindestens 10 Messungen pro Fahrt; Motorstromsignale müssen mit mindestens 1 kHz abgetastet werden, um FFT-relevante Frequenzen aufzulösen. Wer nur einmal täglich Betriebsdaten zieht, sieht keinen dieser Trends.

Was das System konkret macht

Der technische Ansatz baut auf drei Schichten: Datenerfassung an der Anlage, Zeitreihenanalyse in der Plattform, und Alert-Logik mit Handlungsempfehlung für den Disponenten.

Datenerfassung: An jeder Anlage werden Betriebsdaten kontinuierlich erfasst — entweder direkt aus der Steuerungseinheit (bei modernen Anlagen mit CANopen- oder OPC-UA-Schnittstelle) oder über nachgerüstete Sensorboxen. Die Daten umfassen: Fahrtsanzahl und -dauer, Kabinenbeschleunigungsprofile, Türzyklusdaten (Öffnungs- und Schließzeiten, Reversals), Motorstromprofile und Fehlercodelisten aus der Steuerung.

Zeitreihenanalyse: Die Plattform analysiert diese Daten nicht als Einzelpunkte, sondern als Zeitreihen. Das ist der entscheidende Unterschied zur klassischen Regelüberwachung: Nicht ein einzelner Wert überschreitet einen Grenzwert — sondern ein Trend entwickelt sich über Wochen, der in isolierten Messungen unsichtbar bleibt. Predictive Analytics-Modelle, trainiert auf historischen Ausfallmustern aus der gesamten angebundenen Flotte, erkennen diese Trends.

Alert-Logik: Das Ergebnis ist keine binäre Alarm-E-Mail, sondern eine priorisierte Wartungsempfehlung: “Anlage X, Standort Y — Türantrieb zeigt Zyklusdrift +22% über 4 Wochen. Empfohlene Maßnahme: Türriemen und Rollen prüfen. Priorität: mittel, Zeitfenster 14 Tage.” Der Disponent plant den Einsatz in eine reguläre Tour — keine Notfalldisposition.

Konkrete Werkzeuge — was wann passt

Die Wahl des richtigen Werkzeugs hängt von drei Faktoren ab: Herstellerzugehörigkeit der Flotte, Flottenvolumen und vorhandener IT-Infrastruktur.

OEM-gebundene Betreiber mit TK-Elevator-Anlagen: TK Elevator MAX MAX ist die älteste und flächenmäßig größte Predictive-Maintenance-Plattform im Aufzugsektor — über 128.000 angebundene Anlagen weltweit (TK Elevator, 2024). Wer TK-Elevator-Anlagen im Bestand hat, sollte prüfen, ob der aktuelle Servicevertrag MAX bereits einschließt. Die Plattform ist werksseitig integriert — kein Retrofit, keine eigene IoT-Infrastruktur. Einschränkung: Nur für TK-Elevator-Anlagen nutzbar. Für gemischte Flotten ist MAX eine Teillösung.

Ähnliche OEM-Lösungen für andere Hersteller: Schindler Ahead (Schindler), Otis ONE (Otis), KONE 24/7 Connected Services (KONE). Alle vier Plattformen funktionieren nach demselben Prinzip — proprietäre Telemetrie, herstellerspezifische Algorithmen, in den Servicevertrag integriert. Wer ausschließlich Anlagen eines Herstellers betreibt, ist mit der jeweiligen OEM-Lösung am schnellsten und günstigsten unterwegs.

Herstellerübergreifende Plattformen für gemischte Flotten: Siemens Insights Hub Für Aufzugwartungsunternehmen oder Gebäudebetreiber mit Anlagen verschiedener Hersteller ist eine herstellerneutrale Plattform nötig. Siemens Insights Hub (früher MindSphere) kann über OPC-UA-Konnektoren Daten von beliebigen Steuerungseinheiten aufnehmen und zentral analysieren. Der Vorteil: eine einheitliche Dashboardansicht für Schindler-, Otis- und TK-Anlagen im selben Gebäude. Nachteil: Deutlich höherer Integrationsaufwand und Enterprise-Budget nötig. Sinnvoll ab ca. 100 Anlagen in gemischtem Herstellermix, wenn eine eigene IT-/OT-Ressource vorhanden ist.

Vibrations- und Motorstromüberwachung als Einstieg: Augury Für Aufzugunternehmen, die primär den Traktionsantrieb und den Türantrieb überwachen wollen, ohne eine vollständige IoT-Plattform aufzubauen, ist Augury eine spezialisierte Alternative. Augury-Sensoren an Motorgehäuse und Türantrieb liefern Vibrations- und Akustikdaten, die auf Rotationsmaschinen-Fehlermuster analysiert werden. US-gehostet; für DSGVO-sensitive Betreiber ist ein AVV zwingend zu prüfen. Typische Kosten: 5.000–20.000 EUR/Jahr je nach Sensoranzahl.

CMMS als Datenfundament: MaintainX Bevor KI-Vorhersagen funktionieren, braucht es eine strukturierte Wartungshistorie. MaintainX ist ein mobiles CMMS (Computerized Maintenance Management System) mit kostenlosem Einstiegsplan — Techniker erfassen Wartungen, Störungen und Ersatzteile direkt vom Smartphone. Die aufgebaute Störungshistorie ist der Ausgangspunkt, um zu verstehen, welche Anlagen wie oft aus welchen Gründen ausfallen — und welche Vorhersagemodelle überhaupt sinnvoll sind. US-gehostet; kein EU-AVV im Standard. Empfehlung: Als strukturierendes Werkzeug in der Pilotphase nutzen, bevor die Telemetriedaten einfließen.

Zusammenfassung: Wann welcher Ansatz

  • Nur TK-Elevator-Anlagen → TK Elevator MAX
  • Nur Schindler → Schindler Ahead; nur KONE → KONE 24/7; nur Otis → Otis ONE
  • Gemischte Hersteller, 100+ Anlagen, eigenes IT-Budget → Siemens Insights Hub
  • Antriebsüberwachung isoliert, kleinere Flotte → Augury
  • Strukturierte Datengrundlage aufbauen → MaintainX als Vorstufe

Datenschutz und Datenhaltung

Aufzugbetriebsdaten enthalten im Regelfall keine personenbezogenen Daten — Fahrtdaten, Motorstromprofile und Türzyklen sind Maschinendaten ohne Personenbezug. Das vereinfacht die DSGVO-Situation erheblich.

Relevant wird der Datenschutz in zwei Konstellationen:

Personenfluss-Analytik als Zusatzmodul: Einige Plattformen bieten Gebäudebetreibern Analysen über Kabinenauslastung nach Tageszeit. Sobald aus diesen Daten auf Bewegungsmuster einzelner Personen rückgeschlossen werden kann — etwa in kleinen Bürogebäuden mit wenigen Nutzern — entstehen schutzbedürftige Daten. In solchen Fällen greift die DSGVO, und eine Datenschutz-Folgenabschätzung ist empfehlenswert.

Datenhosting der Plattform: TK Elevator MAX: EU-konformes Hosting laut Anbieter. Siemens Insights Hub: EU-Hosting explizit verfügbar (AWS/Azure EU-Regionen), ISO 27001 zertifiziert. Augury: US-gehostet — für reine Maschinendaten ohne Personenbezug ist das rechtlich weniger kritisch, aber ein AVV nach Art. 28 DSGVO sollte trotzdem abgeschlossen werden, wenn personenbezogene Gebäudedaten tangiert werden könnten.

Hinweis für Vollwartungsverträge: Wenn Telemetriedaten aus Anlagen eines Gebäudebetreibers auf Plattformen des Wartungsunternehmens fließen, ist vertraglich zu klären, wer Datenverantwortlicher ist — Aufzugwartungsunternehmen oder Gebäudebetreiber. Das ist keine akademische Frage: Es hat Auswirkungen darauf, wer im Schadensfall haftet, wenn ein KI-Fehlalarm zu einem unnötigen Eingriff führt oder ein Nicht-Alert zu einem vermeidbaren Ausfall.

Was es kostet — realistisch gerechnet

Wenn du OEM-seitig vorgehen kannst: Bei TK-Elevator-Anlagen ist MAX Premium in gehobenen Vollwartungsverträgen oft inkludiert oder als Upgrade für 10–20 EUR/Anlage/Monat erhältlich — die Investition in Sensorik entfällt, weil die Hardware werksseitig verbaut ist. Das ist der günstigste Einstieg.

Wenn du eine eigene Plattform aufbauen willst:

  • Retrofitsensoren pro Anlage: 300–800 EUR Hardware + 1–3 Stunden Installationsaufwand
  • Plattformkosten (Siemens Insights Hub oder ähnlich): ab 2.000–5.000 EUR/Monat für 100+ Anlagen, individuell
  • Augury-Modell: 5.000–20.000 EUR/Jahr für eine begrenzte Anlageanzahl
  • Modellvalidierung und Integrationsaufwand (einmalig): 15.000–40.000 EUR bei externer Unterstützung

Wo der ROI entsteht: Angenommen, 300 Anlagen im Bestand, durchschnittlich 12 Notfalleinsätze pro Monat. Ein Notfalleinsatz verursacht gegenüber einem geplanten Einsatz Mehrkosten von 300–600 EUR (Notfall-Stundensatz, unterbrochene Tour, Anfahrkosten). Wenn KI-gestützte Früherkennung 6 dieser 12 Notfalleinsätze in planbare Einsätze verwandelt:

Monatliche Einsparung: 1.800–3.600 EUR — das sind 21.600–43.200 EUR/Jahr, bevor SLA-Strafzahlungen und Reputationseffekte eingerechnet werden.

Wie du den ROI wirklich misst: Die ehrlichste Methode ist der Vergleich der Notfalleinsatz-Quote vor und nach System-Einführung, bezogen auf die angebundene Teilflotte als Kontrollgruppe gegenüber der noch nicht angebundenen. Nicht-angebundene Anlagen als Vergleichsgruppe machen den Effekt isolierbar.

Drei typische Einstiegsfehler

1. Mit der Vollflotte starten statt mit dem kritischsten Dutzend. Der Reflex: Wenn wir schon investieren, dann alle 340 Anlagen. In der Praxis führt das zu einem Modell, das in der ersten Phase zu viele Alerts ohne klare Priorität generiert, weil die Baseline für jede Anlage noch nicht etabliert ist. Lösung: Mit den 12–20 Anlagen beginnen, die in den letzten 18 Monaten die meisten Notfalleinsätze verursacht haben. An diesen Anlagen ist die Ausfallhistorie am reichhaltigsten — das Modell lernt schneller, und die Techniker bekommen schneller valide Alerts.

2. Auf OEM-Plattformen warten, statt mit Datenstrukturierung beginnen. Ein häufiger Denkfehler: „Wir warten erst, bis wir eine Plattform haben, dann strukturieren wir die Daten.” In der Praxis ist es umgekehrt: Ohne strukturierte Wartungshistorie (welche Anlage hat wann welche Störung gezeigt?) hat das Modell kein Trainingsfundament. Die erste Investition sollte in Datenstrukturierung fließen — in ein CMMS, in systematische Störungserfassung —, nicht in die Plattform selbst. Wer diese Phase überspringt, erhält ein Vorhersagesystem, das aus Datenarmut heraus zufällige Alerts produziert.

3. Das Modell einmalig trainieren und dann sich selbst überlassen. Das ist der langsamste, aber gefährlichste Fehler. Machine Learning-Modelle für Aufzugtelemetrie unterliegen sogenanntem Concept Drift: Wenn die Betriebsbedingungen einer Anlage sich verändern — neue Nutzungsprofile durch Gebäudeumbau, Softwareupdate in der Steuerung, geändertes Fahrgastaufkommen — verändert sich die Datenbasis, auf der das Modell trainiert wurde. Das Modell bleibt still, seine Vorhersagen werden schlechter, aber niemand merkt es. MIT-Forschung zeigt, dass ML-Modelle nach stabilem Betrieb durch sogenannte “explosive Degradation” plötzlich versagen können — nicht graduell, sondern als Einbruch. Faustregel: Quartalsmäßige Modell-Reviews, bei denen Alert-Präzision (wie viele Alerts führten tatsächlich zu relevantem Befund?) gemessen und das Modell bei Drift neu kalibriert wird.

Was mit der Einführung wirklich passiert — und was nicht

Die Technik ist das handhabbare Teil dieser Einführung. Das Schwierige ist die Organisation.

Die Skepsis der Techniker: Erfahrene Aufzugstechniker haben ein gutes Gespür für Anlagen, die ihnen über Jahre vertraut sind. Ein Algorithmus, der ihnen sagt “Anlage X verhält sich auffällig”, kann als Beleidigung ihrer Expertise wahrgenommen werden — besonders wenn sie die Anlage selbst kürzlich gewartet haben. Was funktioniert: Die Techniker früh in die Validerungsphase einbinden. Wenn ein Alert kommt und der Techniker die Anlage besichtigt und sagt “tatsächlich, der Riemen fühlt sich komisch an” — dann baut sich Vertrauen auf. Wenn ein Alert kommt und alles in Ordnung ist — dann ist das wertvolles Feedback für die Modellkalibrierung.

Die Disponenten wollen keine neuen Alertkanäle: Serviceplanung läuft oft über Telefon, Ticketsysteme und persönliche Erfahrung. Ein weiteres Dashboard, das Alerts wirft, erhöht zunächst die Komplexität. Lösung: Alerts direkt in das bestehende Dispositionssystem integrieren — als Wartungsauftrag, nicht als externes Fenster. Wenn der Alert als regulärer Auftrag erscheint, der disponiert werden kann, wird er angenommen.

Die ersten drei Monate sind keine Beweisführung: In den ersten Monaten lernt das System noch, und die Alert-Präzision ist niedriger als im Dauerbetrieb. Wer nach vier Wochen die Leistung beurteilt und zu “funktioniert nicht” kommt, hat den Validierungszeitraum zu früh gesetzt. Kommuniziere intern: Der seriöse Beweis kommt nach Monat 6 — bis dahin ist es Kalibrierung.

Was konkret hilft:

  • Einen Techniker mit Interesse an Daten als internen Champion benennen — er überprüft die ersten Alerts und gibt Rückmeldung, ob der Befund am Gerät den Vorhersagen entspricht
  • Alerts der ersten drei Monate intern dokumentieren, nicht direkt an Kunden weitergeben — bis die Präzision belegt ist
  • Nach Monat 6: Vergleich Notfalleinsatz-Quote angebundene Anlagen vs. nicht angebundene — das ist der Beweis, der auch Kunden überzeugt

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datenaudit & AnlageninventurWoche 1–2Bestehende Wartungshistorie sichten, CMMS-Qualität bewerten, Steuerungstypen und Schnittstellen inventarisierenWartungshistorie liegt nur auf Papier oder in unstrukturierten PDFs vor — erfordert manuelle Nacherfassung
Pilotauswahl & Telemetrie-AufschaltungWoche 3–510–20 Anlagen mit höchster Störungshistorie auswählen, Telemetrieschnittstellen einrichten oder Sensorbox installierenÄltere Anlagen ohne Datenexportschnittstelle fallen aus dem Pilot — früh filtern, nicht zu spät feststellen
Datenerfassung & Baseline-AufbauWoche 6–10Plattform sammelt Betriebsdaten, Algorithmen lernen Normalprofil je AnlageZu wenige Fahrtzyklen in ruhigen Gebäuden — Baseline dauert länger; Bürogebäude nachts besonders datenarm
Modell-Training & Alert-KalibrierungWoche 10–14Historische Ausfallmuster werden eingespeist, erste Alerts generiert, Techniker prüfen und bewertenFalsch-positive Alerts in der ersten Phase — unbedingt als Lernphase kommunizieren, nicht als Misserfolg
Produktivbetrieb & ValidierungAb Woche 15System läuft, Alerts fließen in Disposition, Notfalleinsatz-Quote wird monatlich gemessenKein interner Champion für Modell-Review — ohne Pflege driftet das Modell über 6–12 Monate

Häufige Einwände — und was dahintersteckt

“Aufzüge haben gesetzlich vorgeschriebene Wartungsintervalle — das regelt die BetrSichV.” Das ist richtig — und reicht nicht aus. Die Betriebssicherheitsverordnung schreibt wiederkehrende Prüfungen durch zugelassene Überwachungsstellen vor: Hauptprüfung alle zwei Jahre, Zwischenprüfung nach einem Jahr. Diese Prüfungen sind zeitbasierte Compliance-Mindeststandards, keine kontinuierliche Zustandsüberwachung. Ein Aufzug kann im Januar die Hauptprüfung bestehen und im März an einem Türriemen ausfallen, der im Januar noch nicht das Grenzwertniveau erreicht hatte. Die Regulierung schafft einen Haftungs-Boden — aber sie garantiert keine Betriebskontinuität.

“Unsere Techniker kennen die Anlagen und merken, wenn etwas nicht stimmt.” Erfahrene Techniker erkennen auffällige Anlagen bei regelmäßigen Visits. Aber kein Techniker kann bei einem quartalsmäßigen Besuch eine Türöffnungszeitdrift von 2% über 6 Wochen messen — das erfordert 1.000+ Messungen über diesen Zeitraum. Expertenwissen und Datensignale ergänzen sich: Der Techniker bewertet am Gerät, was der Algorithmus im Datenstrom erkennt.

“Wir haben nicht das Budget für eine IoT-Plattform.” Das ist ein valides Argument für einen sofortigen Vollausbau. Es ist kein Argument gegen den Einstieg. Die günstigste Variante kostet nur den Aufwand, eine strukturierte Störungshistorie in einem kostenlosen CMMS aufzubauen — und die gibt auch ohne KI sofort strategischen Überblick. Die nächste Ausbaustufe (Telemetrie für 10–20 kritische Anlagen) ist für 5.000–15.000 EUR Gesamtbudget machbar. Der vollständige Rollout folgt erst, wenn der Pilot den ROI bewiesen hat.

Woran du merkst, dass das zu dir passt

  • Du betreibst oder wartest mindestens 20 Aufzüge — erst ab dieser Flottengroße gibt es genug Mustervielfalt, um ein sinnvolles Vergleichsmodell zu trainieren
  • Du hast in den letzten 12 Monaten mehr als fünf Notfalleinsätze pro 100 Anlagen — das bedeutet, es gibt statistisch ein Einsparpotenzial
  • Deine Anlagen haben Steuerungen aus dem Jahr 2000 oder jünger mit digitalen Fehlerlogging-Schnittstellen (CANopen, LON, herstellerspezifisches Protokoll)
  • Dein Servicevertrag enthält SLA-Klauseln mit Pönalregelungen bei Überschreitungen der Reaktionszeit — du hast ein direktes finanzielles Interesse, Notfälle zu vermeiden
  • Du hast Aufzüge bei gewerblichen Kunden (Hotels, Krankenhäuser, Bürogebäude), bei denen Ausfälle sofort eskalieren und den Vertrag gefährden

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Flotte unter 20 Anlagen. Mit weniger als 20 Aufzügen fehlt die statistische Basis für Mustererkennung. Ein Modell, das auf 10 Anlagen trainiert wird, lernt deren individuelle Eigenheiten — nicht generaliserbare Ausfallmuster. Hinzu kommt: Die Plattformkosten amortisieren sich erst ab einer Mindestflottengröße. Wer 10–15 Anlagen betreibt, ist mit strukturierter manueller Wartungsplanung und einem guten CMMS besser bedient.

  2. Analoge Steuerungen ohne Datenexport. Aufzüge aus den 1980er und frühen 1990er Jahren haben häufig ausschließlich elektromechanische Steuerungen ohne digitale Schnittstellen. Kein CANopen, kein LON-Bus, kein herstellerspezifisches Protokoll. Telemetrie ist nur über externe Nachrüstsensorik möglich — Kosten 1.000–2.000 EUR pro Anlage, zuzüglich Installationsaufwand. Wenn der Großteil der Flotte in dieser Kategorie liegt, übersteigt der Rüstaufwand den Nutzen in den meisten Businessplänen.

  3. Gebäude ohne Internetkonnektivität oder mit restriktiven Nutzungsvereinbarungen. Telemetrie-Plattformen erfordern kontinuierlichen Datentransfer aus dem Schacht in die Cloud. In Gebäuden ohne Internetanschluss am Aufzugsschacht (Aufwand für LTE-Backup: ca. 20–50 EUR/Monat zusätzlich) oder in Liegenschaften, bei denen Betreibervereinbarungen die Datenübertragung an externe Plattformen einschränken (z.B. bestimmte Behördengebäude, Sicherheitsliegenschaften), ist der Betrieb einer cloud-basierten Telemetrie-Plattform ohne zusätzliche Verhandlungen nicht möglich.

Das kannst du heute noch tun

Bevor du eine Plattform testest, brauchst du eine Antwort auf diese Frage: Welche deiner Anlagen haben in den letzten 18 Monaten die meisten Notfalleinsätze verursacht?

Öffne deine Wartungshistorie — Ticketsystem, Excel oder Papierprotokolle — und erstelle eine einfache Rangliste: Anlage, Anzahl Störungen, Art der Störung. Wenn du diese Daten in 30 Minuten nicht beisammenhast, ist das das eigentliche Problem: Du hast keine strukturierte Datenbasis, und die Lösung ist kein KI-System, sondern ein CMMS.

Wenn du die Top-10-Probleme-Anlagen kennst: Prüfe, welche davon Steuerungen mit Datenexportschnittstelle haben. Das sind deine Pilot-Kandidaten.

Prompt für die Pilot-Kandidaten-Analyse
Du bist ein Wartungsanalyst für Aufzüge. Ich gebe dir eine Liste von Störungsmeldungen der letzten 18 Monate aus unserem Wartungsprotokoll. Analysiere die Muster: 1. Welche Anlagen haben die meisten Störungen (Top 5)? 2. Welche Störungstypen wiederholen sich besonders häufig (Tür, Antrieb, Sicherheitskreis, Steuerung)? 3. Gibt es zeitliche Muster (bestimmte Jahreszeiten, Wochentage, Tageszeiten)? 4. Bei welchen Anlagen deutet die Häufigkeit darauf hin, dass es sich nicht um Zufallsausfälle handelt, sondern um progressive Verschlechterung? Gib mir eine priorisierte Empfehlung, welche 10 Anlagen sich als erstes für ein Predictive-Maintenance-Pilotprojekt eignen — und warum. [HIER DEINE STÖRUNGSLISTE EINFÜGEN: Datum | Anlage | Störungstyp | Behobene Ursache | Dauer]
Funktioniert mit ChatGPT, Claude
Beispiel-Ausgabe

Mitarbeiter:in

30 Störungsmeldungen der letzten 18 Monate, davon 8 für Anlage B3 im Krankenhaus Nord (6× Tür klemmt, 2× Sicherheitskreis), 5 für Anlage A1 im Bürogebäude Westpark (Türstörungen unregelmäßig), Rest verteilt.

KI-Assistent

**Top-Priorität: Anlage B3, Krankenhaus Nord** 8 Störungen in 18 Monaten ist eine auffällig hohe Rate. Das Muster (6 Türstörungen) deutet auf progressive Degradation des Türantriebs hin, nicht auf Einzelausfälle. Besonders besorgniserregend: Die Kombination aus Türstörungen und Sicherheitskreis-Ereignissen kann auf elektrischen Kontaktverschleiß hinweisen, der beide Systeme betrifft. **Empfehlung für B3:** Priorität 1 für Telemetrie-Piloten. Steuerungsschnittstelle prüfen (BJ > 2005 wahrscheinlich CANopen-fähig). Türzyklus-Sampling und Motorstrom-Logging als erste Messpunkte. **Zweite Priorität: Anlage A1, Westpark** 5 Störungen, alle Tür — aber unregelmäßig verteilt. Das ist weniger ein Verschleiß-Signal als ein mögliches Umgebungsproblem (Staub, Temperatur, Jahreszeit). Vor Telemetrie-Investment: Wartungsprotokoll auf Saison-Korrelation prüfen. **Restliche 22 Anlagen:** Unter 2 Störungen in 18 Monaten — statistisch unauffällig. Nicht für Piloten geeignet; erst nach Validierung der Modelle an B3 und A1 nachrüsten.

Quellen & Methodik

  • TÜV-Verband Anlagensicherheitsreport 2023: 667.080 geprüfte Aufzugsanlagen in Deutschland; 10,3% erhebliche Mängel, 0,6% gefährliche Mängel, rund 3.000 Stilllegungen. tuev-verband.de
  • TK Elevator MAX Felddaten (2024): 128.000 angebundene Aufzüge weltweit; bis zu 50% Downtime-Reduktion durch Predictive Maintenance. tkelevator.com/max
  • Motor Current Signature Analysis (MCSA) für Aufzüge: MDPI Applied Sciences, “AI-Driven Belt Failure Prediction and Prescriptive Maintenance with Motor Current Signature Analysis” (2024) — Lagerfehlfrequenzen 3–6 Wochen vor Ausfall erkennbar über FFT-Analyse. DOI: 10.3390/app15126947
  • Türantrieb-Fehlervorhersage: MDPI Applied Sciences, “Efficient Fault Diagnosis of Elevator Cabin Door Drives Using Machine Learning” (2025) — Türzyklus-Driftmuster 10–20 Tage vor hartem Türfehler erkennbar. mdpi.com/2076-3417/15/13/7017
  • Kostenfaktor Notfall vs. geplante Wartung (3–5×): Allgemeine Predictive-Maintenance-Fachliteratur; bestätigt durch Vollwartungsvertragsstruktur bei Schindler, TK Elevator, KONE (Angaben auf jeweiligen Unternehmensseiten)
  • BetrSichV Prüfintervalle Aufzüge: Betriebssicherheitsverordnung Anhang 2, Abschnitt 2 — Hauptprüfung alle 2 Jahre + Zwischenprüfung durch zugelassene Überwachungsstelle (ZÜS). kone.de/support/betriebssicherheitsverordnung
  • Concept Drift / Model Degradation: MIT-Forschung zu explosiver Modell-Degradation; Fiddler AI Glossar zu Model Drift (2024); ScienceDirect: “Machine learning based concept drift detection for predictive maintenance” (Computers & Industrial Engineering, 2020)
  • Preisangaben Vollwartungsvertrag: aufzug24.net und lift-journal.de (abgerufen April 2026)
  • Scoring-Kalibrierung: Erster nicht-Entwurf in der aufzugbau-Branche; Scores bewusst differenziert — skalierbarkeit als klarster Stärkevektor, schnelle_umsetzung als ehrlichste Einschränkung

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar