Mikro-Ausfallmuster-Erkennung
KI analysiert Fahrtdaten, Türzyklen und Motorstromprofile auf schwache Signale, die Wochen vor einem Ausfall erkennbar sind — und verwandelt Notfalleinsätze in planbare Wartung.
Es ist Freitagabend, 18:47 Uhr.
Markus Fehr ist Serviceleiter bei einem mittelständischen Aufzugwartungsunternehmen, 340 Anlagen im Bestand, sechs Techniker im Außendienst. Sein Telefon klingelt: Krankenhaus Standort Nord, Aufzug B3 steht, Operationsbereich kann nicht mehr versorgt werden. Notfalleinsatz.
Er schaut in das Wartungsprotokoll von B3. Reguläre Inspektion vor sieben Wochen — alles unauffällig. Der Techniker war dort, hat die Checkliste abgehakt, hat nichts beanstandet. Und jetzt steht die Anlage.
Fehr schickt den diensthabenden Techniker, der drei andere Einsätze unterbrechen muss. Notfall-Stundensatz. Wochenendpauschale. Die Anlage ist erst am nächsten Morgen wieder in Betrieb. Das Krankenhaus rechnet ihm einen Vertragsmalus an.
Was Fehr nicht wusste: Die Türöffnungszeit von B3 hatte sich in den letzten sechs Wochen schrittweise um 18 Prozent verlängert. Das Motorstromsignal des Türantriebs zeigte eine zunehmende Stromspitze beim Schließen. Zwei erkennbare Vorläufermuster — wenn jemand in die Daten geschaut hätte.
Niemand hatte geschaut. Nicht weil niemand wollte, sondern weil 340 Anlagen täglich keine Aufmerksamkeit bekommen. Bis sie ausfallen.
Das echte Ausmaß des Problems
Der TÜV-Verband hat 2023 rund 667.000 Aufzugsanlagen in Deutschland unabhängig geprüft. Das Ergebnis: Bei 10,3 Prozent wurden erhebliche Mängel festgestellt, bei weiteren 0,6 Prozent gefährliche Mängel — rund 4.000 Anlagen, von denen knapp 3.000 stillgelegt werden mussten. Nur 46 Prozent aller geprüften Aufzüge waren mängelfrei (TÜV-Verband, Anlagensicherheitsreport 2023).
Das klingt nach einem Sicherheitsthema. Es ist auch ein Wirtschaftlichkeitsthema.
Der Unterschied zwischen einem Notfalleinsatz und einem geplanten Wartungseinsatz ist nicht nur organisatorischer Art — er ist betriebswirtschaftlich. Ein ungeplanter Störungseinsatz kostet je nach Tageszeit und Entfernung drei- bis fünfmal so viel wie derselbe Eingriff planbar durchgeführt. Dazu kommen: Vertragsstrafen aus SLA-Klauseln, Reputationsschäden gegenüber dem Gebäudebetreiber, und das Risiko, dass der Techniker andere Touren unterbricht.
Für ein mittelständisches Aufzugwartungsunternehmen mit 300–500 Anlagen im Bestand und 10–15 Notfalleinsätzen pro Monat ergibt sich ein erheblicher Hebel. Wenn fünf dieser Einsätze durch vorausschauende Wartung vermieden werden können, entspricht das allein bei den Mehrkosten des Notfallmodus einem fünfstelligen jährlichen Einsparpotenzial — bevor der Verwaltungsaufwand und die Vertragsstrafenreduzierung eingerechnet sind.
Hinzu kommt der Wettbewerbsaspekt. Die vier größten Aufzughersteller — Schindler, Otis, KONE und TK Elevator — betreiben alle proprietäre Telemetrieplattformen für ihre eigenen Anlagen: Schindler Ahead, Otis ONE, KONE 24/7 Connected Services und TK Elevator MAX. Wer als unabhängiges Wartungsunternehmen oder als Hersteller ohne eigenes IoT-Backend konkurriert, verliert diese Differenzierung — und mittelfristig auch die attraktivsten Vollwartungsverträge.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI | Mit Mikro-Ausfallmuster-Erkennung |
|---|---|---|
| Erkennungszeitpunkt vor Ausfall | Erst bei Störungsmeldung | 2–6 Wochen vorher durch Signalanalyse |
| Notfalleinsatzquote (Anteil ungeplanter Einsätze) | 20–35% aller Einsätze | Ziel: unter 10% bei voll angebundenen Anlagen |
| Kosten je Störungseinsatz vs. geplanter Wartung | Faktor 3–5× Aufschlag | Planbare Einsätze zu Normalkosten |
| Wartungsintervall | Starr (monatlich / vierteljährlich) | Bedarfsorientiert nach Anlagenzustand |
| Techniker-Touren-Effizienz | 5–8 Anlagen/Tag, reaktiv disponiert | 8–12 Anlagen/Tag, vorausschauend gebündelt |
| Vertragsmarge bei Vollwartung | Hängt an Ausfall-Glück | Kalkulierbarer durch reduzierte Notfallkosten |
Quellen für Kostenfaktor und Notfallquoten: Branchenrichtwerte aus Fachliteratur und TK Elevator MAX Felddaten (128.000 angebundene Anlagen, 2024); Techniker-Routenwerte aus Erfahrungen mit Wartungsunternehmen 50–500 Anlagen.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) Der direkte Zeitgewinn für Techniker ist real, aber moderat: Weniger Notfalldisposition, gebündeltere Touren, keine unterbrochenen Einsätze mehr. Grob geschätzt 1–2 Stunden weniger Dispositionsaufwand pro Techniker und Woche. Das ist keine revolutionäre Zeitersparnis — der eigentliche Hebel dieser Lösung liegt anderswo. Wer primär Arbeitszeit sparen will, ist mit einem guten Routenoptimierungs-Tool schneller am Ziel.
Kosteneinsparung — hoch (4/5) Das ist der Kern dieses Anwendungsfalls. Ein Notfalleinsatz kostet ein Wartungsunternehmen drei- bis fünfmal mehr als derselbe Einsatz planbar durchgeführt — Notfall-Stundensatz, Anfahrkosten außerhalb regulärer Touren, gegebenenfalls Wochenendpauschalen. Für jeden vermiedenen Notfalleinsatz sind das 200–600 Euro Mehrkosten, die entfallen. Bei 300 Anlagen im Bestand und einer Reduktion von 10 auf 3 Notfalleinsätzen pro Monat ergibt das 1.400–4.200 Euro monatliche Einsparung allein durch diese eine Kennzahl.
Schnelle Umsetzung — niedrig (2/5) Das ist der härteste Haken. Bis ein Modell verlässliche Alerts liefert, braucht es Telemetrie-Infrastruktur, eine Datenhistorie, Labeling-Arbeit (welche Signale gingen einem echten Ausfall voraus?) und Validierungszyklen. Realistisch sind 8–16 Wochen bis zum ersten belastbaren Alert — vorausgesetzt, die Anlagen haben eine aktuelle Steuerung mit Datenexportschnittstelle. Ältere Analog-Anlagen sind ohne Hardware-Nachrüstung nicht einbindbar.
ROI-Sicherheit — hoch (4/5) Der ROI-Nachweis ist direkter als bei vielen anderen KI-Anwendungsfällen: Du zählst Notfalleinsätze vor und nach, und du siehst, welche davon durch einen vorherigen Alert vermieden wurden. Das ist keine indirekte Wirkungskette — es ist eine direkte Kosten-Nutzen-Rechnung. Einschränkung: Der Nachweis braucht mindestens 6 Monate Laufzeit, und in den ersten Monaten gibt es falsch-positive Alerts, die das Bild verzerren.
Skalierbarkeit — sehr hoch (5/5) Jede weitere Anlage, die ins System aufgenommen wird, verbessert das Modell. Mehr Ausfallmuster aus mehr Anlagen bedeuten mehr Vergleichspunkte für neue Anomalie-Erkennung. Das ist der stärkste Skalierungseffekt in dieser Branche: Ein Unternehmen, das 500 Anlagen anbindet, hat ein messbares besseres Modell als eines mit 50 — und damit einen echten Wettbewerbsvorteil gegenüber kleineren unabhängigen Wartungsunternehmen.
Richtwerte — stark abhängig von Flottenalter, Herstellervielfalt und vorhandener Telemetrie-Infrastruktur.
Schwache Signale: Was Wochen vor dem Ausfall schon messbar ist
Das Konzept der Mikro-Ausfallmuster ist technisch greifbar. Jede der drei häufigsten Ausfallklassen — Türstörungen, Antriebsausfälle und Sicherheitskreisfehler — hat charakteristische Vorläufersignale, die Wochen vor dem eigentlichen Ausfall messbar werden.
Türstörungen (ca. 40–50% aller Aufzugausfälle) Der Türantrieb ist mechanisch und verschleißt kontinuierlich. Die messbaren Vorboten:
- Zyklusdrift: Die Türöffnungszeit verlängert sich schrittweise — 5%, dann 10%, dann 15%. Keine einzelne Fahrt fällt auf; über 200 Zyklen hinweg ist der Trend eindeutig.
- Stromspitzen beim Schließen: Der Motorstrom des Türantriebs steigt beim Schließvorgang unregelmäßig — ein Zeichen für mechanischen Widerstand (Laufflächen, Rollen, Riemenverschleiß).
- Reversalfrequenz: Häufigeres Umkehren der Tür beim Schließversuch, auch wenn keine Person im Türbereich ist.
Forschungsdaten aus der Analyse von Motordaten (MDPI, 2024) zeigen: Diese Kombination aus Zyklusdrift und Stromspitzen ist 10–20 Tage vor einem harten Türfehler erkennbar, der zu einer Passagier-Behinderung führt.
Antriebsausfälle (ca. 20–30% aller schweren Störungen) Der Traktionsantrieb (Motor, Getriebe, Bremsanlage) gibt frühe Signale über:
- Motorstrom-Signatur: Machine Learning analysiert das Stromsignal des Fahrmotors mittels Fast-Fourier-Transformation. Lagerschäden im Motor erzeugen charakteristische Subharmonische — erkennbar 3–6 Wochen vor physischem Lagerversagen (Artesis / MDPI Forschung zu Motor Current Signature Analysis, 2024).
- Bremsenverhalten: Die Stromenveloppe beim Bremsen verändert sich, wenn die Bremsbeläge verschleißen — eine kontinuierliche Drift, die in Einzelfahrten unsichtbar ist.
- Vibrationsabweichung: Beschleunigungsprofile zeigen asymmetrische Muster, wenn Führungsschienen oder Seilrollen ungleichmäßig verschleißen.
Sicherheitskreisfehler (intermittierend, schwer zu prognostizieren) Kontakte in Sicherheitskreisen (Schachttürkontakte, Endbegrenzungen) degradieren durch Lichtbogenbildung bei jedem Öffnen. Das Signal: zunehmende elektrische Kontaktunterbrechungsdauer, messbar als Microglitches im Steuerungsstrom. Dieser Fehlertyp ist am schwersten vorherzusagen — aber aus einer großen Flotte lässt sich zumindest ein statistisches Lebensende pro Kontakttyp ableiten.
Was das für die Implementierung bedeutet: Die Qualität der Vorhersage ist direkt proportional zur Sampling-Rate. Türzyklusdaten brauchen mindestens 10 Messungen pro Fahrt; Motorstromsignale müssen mit mindestens 1 kHz abgetastet werden, um FFT-relevante Frequenzen aufzulösen. Wer nur einmal täglich Betriebsdaten zieht, sieht keinen dieser Trends.
Was das System konkret macht
Der technische Ansatz baut auf drei Schichten: Datenerfassung an der Anlage, Zeitreihenanalyse in der Plattform, und Alert-Logik mit Handlungsempfehlung für den Disponenten.
Datenerfassung: An jeder Anlage werden Betriebsdaten kontinuierlich erfasst — entweder direkt aus der Steuerungseinheit (bei modernen Anlagen mit CANopen- oder OPC-UA-Schnittstelle) oder über nachgerüstete Sensorboxen. Die Daten umfassen: Fahrtsanzahl und -dauer, Kabinenbeschleunigungsprofile, Türzyklusdaten (Öffnungs- und Schließzeiten, Reversals), Motorstromprofile und Fehlercodelisten aus der Steuerung.
Zeitreihenanalyse: Die Plattform analysiert diese Daten nicht als Einzelpunkte, sondern als Zeitreihen. Das ist der entscheidende Unterschied zur klassischen Regelüberwachung: Nicht ein einzelner Wert überschreitet einen Grenzwert — sondern ein Trend entwickelt sich über Wochen, der in isolierten Messungen unsichtbar bleibt. Predictive Analytics-Modelle, trainiert auf historischen Ausfallmustern aus der gesamten angebundenen Flotte, erkennen diese Trends.
Alert-Logik: Das Ergebnis ist keine binäre Alarm-E-Mail, sondern eine priorisierte Wartungsempfehlung: “Anlage X, Standort Y — Türantrieb zeigt Zyklusdrift +22% über 4 Wochen. Empfohlene Maßnahme: Türriemen und Rollen prüfen. Priorität: mittel, Zeitfenster 14 Tage.” Der Disponent plant den Einsatz in eine reguläre Tour — keine Notfalldisposition.
Konkrete Werkzeuge — was wann passt
Die Wahl des richtigen Werkzeugs hängt von drei Faktoren ab: Herstellerzugehörigkeit der Flotte, Flottenvolumen und vorhandener IT-Infrastruktur.
OEM-gebundene Betreiber mit TK-Elevator-Anlagen: TK Elevator MAX MAX ist die älteste und flächenmäßig größte Predictive-Maintenance-Plattform im Aufzugsektor — über 128.000 angebundene Anlagen weltweit (TK Elevator, 2024). Wer TK-Elevator-Anlagen im Bestand hat, sollte prüfen, ob der aktuelle Servicevertrag MAX bereits einschließt. Die Plattform ist werksseitig integriert — kein Retrofit, keine eigene IoT-Infrastruktur. Einschränkung: Nur für TK-Elevator-Anlagen nutzbar. Für gemischte Flotten ist MAX eine Teillösung.
Ähnliche OEM-Lösungen für andere Hersteller: Schindler Ahead (Schindler), Otis ONE (Otis), KONE 24/7 Connected Services (KONE). Alle vier Plattformen funktionieren nach demselben Prinzip — proprietäre Telemetrie, herstellerspezifische Algorithmen, in den Servicevertrag integriert. Wer ausschließlich Anlagen eines Herstellers betreibt, ist mit der jeweiligen OEM-Lösung am schnellsten und günstigsten unterwegs.
Herstellerübergreifende Plattformen für gemischte Flotten: Siemens Insights Hub Für Aufzugwartungsunternehmen oder Gebäudebetreiber mit Anlagen verschiedener Hersteller ist eine herstellerneutrale Plattform nötig. Siemens Insights Hub (früher MindSphere) kann über OPC-UA-Konnektoren Daten von beliebigen Steuerungseinheiten aufnehmen und zentral analysieren. Der Vorteil: eine einheitliche Dashboardansicht für Schindler-, Otis- und TK-Anlagen im selben Gebäude. Nachteil: Deutlich höherer Integrationsaufwand und Enterprise-Budget nötig. Sinnvoll ab ca. 100 Anlagen in gemischtem Herstellermix, wenn eine eigene IT-/OT-Ressource vorhanden ist.
Vibrations- und Motorstromüberwachung als Einstieg: Augury Für Aufzugunternehmen, die primär den Traktionsantrieb und den Türantrieb überwachen wollen, ohne eine vollständige IoT-Plattform aufzubauen, ist Augury eine spezialisierte Alternative. Augury-Sensoren an Motorgehäuse und Türantrieb liefern Vibrations- und Akustikdaten, die auf Rotationsmaschinen-Fehlermuster analysiert werden. US-gehostet; für DSGVO-sensitive Betreiber ist ein AVV zwingend zu prüfen. Typische Kosten: 5.000–20.000 EUR/Jahr je nach Sensoranzahl.
CMMS als Datenfundament: MaintainX Bevor KI-Vorhersagen funktionieren, braucht es eine strukturierte Wartungshistorie. MaintainX ist ein mobiles CMMS (Computerized Maintenance Management System) mit kostenlosem Einstiegsplan — Techniker erfassen Wartungen, Störungen und Ersatzteile direkt vom Smartphone. Die aufgebaute Störungshistorie ist der Ausgangspunkt, um zu verstehen, welche Anlagen wie oft aus welchen Gründen ausfallen — und welche Vorhersagemodelle überhaupt sinnvoll sind. US-gehostet; kein EU-AVV im Standard. Empfehlung: Als strukturierendes Werkzeug in der Pilotphase nutzen, bevor die Telemetriedaten einfließen.
Zusammenfassung: Wann welcher Ansatz
- Nur TK-Elevator-Anlagen → TK Elevator MAX
- Nur Schindler → Schindler Ahead; nur KONE → KONE 24/7; nur Otis → Otis ONE
- Gemischte Hersteller, 100+ Anlagen, eigenes IT-Budget → Siemens Insights Hub
- Antriebsüberwachung isoliert, kleinere Flotte → Augury
- Strukturierte Datengrundlage aufbauen → MaintainX als Vorstufe
Datenschutz und Datenhaltung
Aufzugbetriebsdaten enthalten im Regelfall keine personenbezogenen Daten — Fahrtdaten, Motorstromprofile und Türzyklen sind Maschinendaten ohne Personenbezug. Das vereinfacht die DSGVO-Situation erheblich.
Relevant wird der Datenschutz in zwei Konstellationen:
Personenfluss-Analytik als Zusatzmodul: Einige Plattformen bieten Gebäudebetreibern Analysen über Kabinenauslastung nach Tageszeit. Sobald aus diesen Daten auf Bewegungsmuster einzelner Personen rückgeschlossen werden kann — etwa in kleinen Bürogebäuden mit wenigen Nutzern — entstehen schutzbedürftige Daten. In solchen Fällen greift die DSGVO, und eine Datenschutz-Folgenabschätzung ist empfehlenswert.
Datenhosting der Plattform: TK Elevator MAX: EU-konformes Hosting laut Anbieter. Siemens Insights Hub: EU-Hosting explizit verfügbar (AWS/Azure EU-Regionen), ISO 27001 zertifiziert. Augury: US-gehostet — für reine Maschinendaten ohne Personenbezug ist das rechtlich weniger kritisch, aber ein AVV nach Art. 28 DSGVO sollte trotzdem abgeschlossen werden, wenn personenbezogene Gebäudedaten tangiert werden könnten.
Hinweis für Vollwartungsverträge: Wenn Telemetriedaten aus Anlagen eines Gebäudebetreibers auf Plattformen des Wartungsunternehmens fließen, ist vertraglich zu klären, wer Datenverantwortlicher ist — Aufzugwartungsunternehmen oder Gebäudebetreiber. Das ist keine akademische Frage: Es hat Auswirkungen darauf, wer im Schadensfall haftet, wenn ein KI-Fehlalarm zu einem unnötigen Eingriff führt oder ein Nicht-Alert zu einem vermeidbaren Ausfall.
Was es kostet — realistisch gerechnet
Wenn du OEM-seitig vorgehen kannst: Bei TK-Elevator-Anlagen ist MAX Premium in gehobenen Vollwartungsverträgen oft inkludiert oder als Upgrade für 10–20 EUR/Anlage/Monat erhältlich — die Investition in Sensorik entfällt, weil die Hardware werksseitig verbaut ist. Das ist der günstigste Einstieg.
Wenn du eine eigene Plattform aufbauen willst:
- Retrofitsensoren pro Anlage: 300–800 EUR Hardware + 1–3 Stunden Installationsaufwand
- Plattformkosten (Siemens Insights Hub oder ähnlich): ab 2.000–5.000 EUR/Monat für 100+ Anlagen, individuell
- Augury-Modell: 5.000–20.000 EUR/Jahr für eine begrenzte Anlageanzahl
- Modellvalidierung und Integrationsaufwand (einmalig): 15.000–40.000 EUR bei externer Unterstützung
Wo der ROI entsteht: Angenommen, 300 Anlagen im Bestand, durchschnittlich 12 Notfalleinsätze pro Monat. Ein Notfalleinsatz verursacht gegenüber einem geplanten Einsatz Mehrkosten von 300–600 EUR (Notfall-Stundensatz, unterbrochene Tour, Anfahrkosten). Wenn KI-gestützte Früherkennung 6 dieser 12 Notfalleinsätze in planbare Einsätze verwandelt:
Monatliche Einsparung: 1.800–3.600 EUR — das sind 21.600–43.200 EUR/Jahr, bevor SLA-Strafzahlungen und Reputationseffekte eingerechnet werden.
Wie du den ROI wirklich misst: Die ehrlichste Methode ist der Vergleich der Notfalleinsatz-Quote vor und nach System-Einführung, bezogen auf die angebundene Teilflotte als Kontrollgruppe gegenüber der noch nicht angebundenen. Nicht-angebundene Anlagen als Vergleichsgruppe machen den Effekt isolierbar.
Drei typische Einstiegsfehler
1. Mit der Vollflotte starten statt mit dem kritischsten Dutzend. Der Reflex: Wenn wir schon investieren, dann alle 340 Anlagen. In der Praxis führt das zu einem Modell, das in der ersten Phase zu viele Alerts ohne klare Priorität generiert, weil die Baseline für jede Anlage noch nicht etabliert ist. Lösung: Mit den 12–20 Anlagen beginnen, die in den letzten 18 Monaten die meisten Notfalleinsätze verursacht haben. An diesen Anlagen ist die Ausfallhistorie am reichhaltigsten — das Modell lernt schneller, und die Techniker bekommen schneller valide Alerts.
2. Auf OEM-Plattformen warten, statt mit Datenstrukturierung beginnen. Ein häufiger Denkfehler: „Wir warten erst, bis wir eine Plattform haben, dann strukturieren wir die Daten.” In der Praxis ist es umgekehrt: Ohne strukturierte Wartungshistorie (welche Anlage hat wann welche Störung gezeigt?) hat das Modell kein Trainingsfundament. Die erste Investition sollte in Datenstrukturierung fließen — in ein CMMS, in systematische Störungserfassung —, nicht in die Plattform selbst. Wer diese Phase überspringt, erhält ein Vorhersagesystem, das aus Datenarmut heraus zufällige Alerts produziert.
3. Das Modell einmalig trainieren und dann sich selbst überlassen. Das ist der langsamste, aber gefährlichste Fehler. Machine Learning-Modelle für Aufzugtelemetrie unterliegen sogenanntem Concept Drift: Wenn die Betriebsbedingungen einer Anlage sich verändern — neue Nutzungsprofile durch Gebäudeumbau, Softwareupdate in der Steuerung, geändertes Fahrgastaufkommen — verändert sich die Datenbasis, auf der das Modell trainiert wurde. Das Modell bleibt still, seine Vorhersagen werden schlechter, aber niemand merkt es. MIT-Forschung zeigt, dass ML-Modelle nach stabilem Betrieb durch sogenannte “explosive Degradation” plötzlich versagen können — nicht graduell, sondern als Einbruch. Faustregel: Quartalsmäßige Modell-Reviews, bei denen Alert-Präzision (wie viele Alerts führten tatsächlich zu relevantem Befund?) gemessen und das Modell bei Drift neu kalibriert wird.
Was mit der Einführung wirklich passiert — und was nicht
Die Technik ist das handhabbare Teil dieser Einführung. Das Schwierige ist die Organisation.
Die Skepsis der Techniker: Erfahrene Aufzugstechniker haben ein gutes Gespür für Anlagen, die ihnen über Jahre vertraut sind. Ein Algorithmus, der ihnen sagt “Anlage X verhält sich auffällig”, kann als Beleidigung ihrer Expertise wahrgenommen werden — besonders wenn sie die Anlage selbst kürzlich gewartet haben. Was funktioniert: Die Techniker früh in die Validerungsphase einbinden. Wenn ein Alert kommt und der Techniker die Anlage besichtigt und sagt “tatsächlich, der Riemen fühlt sich komisch an” — dann baut sich Vertrauen auf. Wenn ein Alert kommt und alles in Ordnung ist — dann ist das wertvolles Feedback für die Modellkalibrierung.
Die Disponenten wollen keine neuen Alertkanäle: Serviceplanung läuft oft über Telefon, Ticketsysteme und persönliche Erfahrung. Ein weiteres Dashboard, das Alerts wirft, erhöht zunächst die Komplexität. Lösung: Alerts direkt in das bestehende Dispositionssystem integrieren — als Wartungsauftrag, nicht als externes Fenster. Wenn der Alert als regulärer Auftrag erscheint, der disponiert werden kann, wird er angenommen.
Die ersten drei Monate sind keine Beweisführung: In den ersten Monaten lernt das System noch, und die Alert-Präzision ist niedriger als im Dauerbetrieb. Wer nach vier Wochen die Leistung beurteilt und zu “funktioniert nicht” kommt, hat den Validierungszeitraum zu früh gesetzt. Kommuniziere intern: Der seriöse Beweis kommt nach Monat 6 — bis dahin ist es Kalibrierung.
Was konkret hilft:
- Einen Techniker mit Interesse an Daten als internen Champion benennen — er überprüft die ersten Alerts und gibt Rückmeldung, ob der Befund am Gerät den Vorhersagen entspricht
- Alerts der ersten drei Monate intern dokumentieren, nicht direkt an Kunden weitergeben — bis die Präzision belegt ist
- Nach Monat 6: Vergleich Notfalleinsatz-Quote angebundene Anlagen vs. nicht angebundene — das ist der Beweis, der auch Kunden überzeugt
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenaudit & Anlageninventur | Woche 1–2 | Bestehende Wartungshistorie sichten, CMMS-Qualität bewerten, Steuerungstypen und Schnittstellen inventarisieren | Wartungshistorie liegt nur auf Papier oder in unstrukturierten PDFs vor — erfordert manuelle Nacherfassung |
| Pilotauswahl & Telemetrie-Aufschaltung | Woche 3–5 | 10–20 Anlagen mit höchster Störungshistorie auswählen, Telemetrieschnittstellen einrichten oder Sensorbox installieren | Ältere Anlagen ohne Datenexportschnittstelle fallen aus dem Pilot — früh filtern, nicht zu spät feststellen |
| Datenerfassung & Baseline-Aufbau | Woche 6–10 | Plattform sammelt Betriebsdaten, Algorithmen lernen Normalprofil je Anlage | Zu wenige Fahrtzyklen in ruhigen Gebäuden — Baseline dauert länger; Bürogebäude nachts besonders datenarm |
| Modell-Training & Alert-Kalibrierung | Woche 10–14 | Historische Ausfallmuster werden eingespeist, erste Alerts generiert, Techniker prüfen und bewerten | Falsch-positive Alerts in der ersten Phase — unbedingt als Lernphase kommunizieren, nicht als Misserfolg |
| Produktivbetrieb & Validierung | Ab Woche 15 | System läuft, Alerts fließen in Disposition, Notfalleinsatz-Quote wird monatlich gemessen | Kein interner Champion für Modell-Review — ohne Pflege driftet das Modell über 6–12 Monate |
Häufige Einwände — und was dahintersteckt
“Aufzüge haben gesetzlich vorgeschriebene Wartungsintervalle — das regelt die BetrSichV.” Das ist richtig — und reicht nicht aus. Die Betriebssicherheitsverordnung schreibt wiederkehrende Prüfungen durch zugelassene Überwachungsstellen vor: Hauptprüfung alle zwei Jahre, Zwischenprüfung nach einem Jahr. Diese Prüfungen sind zeitbasierte Compliance-Mindeststandards, keine kontinuierliche Zustandsüberwachung. Ein Aufzug kann im Januar die Hauptprüfung bestehen und im März an einem Türriemen ausfallen, der im Januar noch nicht das Grenzwertniveau erreicht hatte. Die Regulierung schafft einen Haftungs-Boden — aber sie garantiert keine Betriebskontinuität.
“Unsere Techniker kennen die Anlagen und merken, wenn etwas nicht stimmt.” Erfahrene Techniker erkennen auffällige Anlagen bei regelmäßigen Visits. Aber kein Techniker kann bei einem quartalsmäßigen Besuch eine Türöffnungszeitdrift von 2% über 6 Wochen messen — das erfordert 1.000+ Messungen über diesen Zeitraum. Expertenwissen und Datensignale ergänzen sich: Der Techniker bewertet am Gerät, was der Algorithmus im Datenstrom erkennt.
“Wir haben nicht das Budget für eine IoT-Plattform.” Das ist ein valides Argument für einen sofortigen Vollausbau. Es ist kein Argument gegen den Einstieg. Die günstigste Variante kostet nur den Aufwand, eine strukturierte Störungshistorie in einem kostenlosen CMMS aufzubauen — und die gibt auch ohne KI sofort strategischen Überblick. Die nächste Ausbaustufe (Telemetrie für 10–20 kritische Anlagen) ist für 5.000–15.000 EUR Gesamtbudget machbar. Der vollständige Rollout folgt erst, wenn der Pilot den ROI bewiesen hat.
Woran du merkst, dass das zu dir passt
- Du betreibst oder wartest mindestens 20 Aufzüge — erst ab dieser Flottengroße gibt es genug Mustervielfalt, um ein sinnvolles Vergleichsmodell zu trainieren
- Du hast in den letzten 12 Monaten mehr als fünf Notfalleinsätze pro 100 Anlagen — das bedeutet, es gibt statistisch ein Einsparpotenzial
- Deine Anlagen haben Steuerungen aus dem Jahr 2000 oder jünger mit digitalen Fehlerlogging-Schnittstellen (CANopen, LON, herstellerspezifisches Protokoll)
- Dein Servicevertrag enthält SLA-Klauseln mit Pönalregelungen bei Überschreitungen der Reaktionszeit — du hast ein direktes finanzielles Interesse, Notfälle zu vermeiden
- Du hast Aufzüge bei gewerblichen Kunden (Hotels, Krankenhäuser, Bürogebäude), bei denen Ausfälle sofort eskalieren und den Vertrag gefährden
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Flotte unter 20 Anlagen. Mit weniger als 20 Aufzügen fehlt die statistische Basis für Mustererkennung. Ein Modell, das auf 10 Anlagen trainiert wird, lernt deren individuelle Eigenheiten — nicht generaliserbare Ausfallmuster. Hinzu kommt: Die Plattformkosten amortisieren sich erst ab einer Mindestflottengröße. Wer 10–15 Anlagen betreibt, ist mit strukturierter manueller Wartungsplanung und einem guten CMMS besser bedient.
-
Analoge Steuerungen ohne Datenexport. Aufzüge aus den 1980er und frühen 1990er Jahren haben häufig ausschließlich elektromechanische Steuerungen ohne digitale Schnittstellen. Kein CANopen, kein LON-Bus, kein herstellerspezifisches Protokoll. Telemetrie ist nur über externe Nachrüstsensorik möglich — Kosten 1.000–2.000 EUR pro Anlage, zuzüglich Installationsaufwand. Wenn der Großteil der Flotte in dieser Kategorie liegt, übersteigt der Rüstaufwand den Nutzen in den meisten Businessplänen.
-
Gebäude ohne Internetkonnektivität oder mit restriktiven Nutzungsvereinbarungen. Telemetrie-Plattformen erfordern kontinuierlichen Datentransfer aus dem Schacht in die Cloud. In Gebäuden ohne Internetanschluss am Aufzugsschacht (Aufwand für LTE-Backup: ca. 20–50 EUR/Monat zusätzlich) oder in Liegenschaften, bei denen Betreibervereinbarungen die Datenübertragung an externe Plattformen einschränken (z.B. bestimmte Behördengebäude, Sicherheitsliegenschaften), ist der Betrieb einer cloud-basierten Telemetrie-Plattform ohne zusätzliche Verhandlungen nicht möglich.
Das kannst du heute noch tun
Bevor du eine Plattform testest, brauchst du eine Antwort auf diese Frage: Welche deiner Anlagen haben in den letzten 18 Monaten die meisten Notfalleinsätze verursacht?
Öffne deine Wartungshistorie — Ticketsystem, Excel oder Papierprotokolle — und erstelle eine einfache Rangliste: Anlage, Anzahl Störungen, Art der Störung. Wenn du diese Daten in 30 Minuten nicht beisammenhast, ist das das eigentliche Problem: Du hast keine strukturierte Datenbasis, und die Lösung ist kein KI-System, sondern ein CMMS.
Wenn du die Top-10-Probleme-Anlagen kennst: Prüfe, welche davon Steuerungen mit Datenexportschnittstelle haben. Das sind deine Pilot-Kandidaten.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- TÜV-Verband Anlagensicherheitsreport 2023: 667.080 geprüfte Aufzugsanlagen in Deutschland; 10,3% erhebliche Mängel, 0,6% gefährliche Mängel, rund 3.000 Stilllegungen. tuev-verband.de
- TK Elevator MAX Felddaten (2024): 128.000 angebundene Aufzüge weltweit; bis zu 50% Downtime-Reduktion durch Predictive Maintenance. tkelevator.com/max
- Motor Current Signature Analysis (MCSA) für Aufzüge: MDPI Applied Sciences, “AI-Driven Belt Failure Prediction and Prescriptive Maintenance with Motor Current Signature Analysis” (2024) — Lagerfehlfrequenzen 3–6 Wochen vor Ausfall erkennbar über FFT-Analyse. DOI: 10.3390/app15126947
- Türantrieb-Fehlervorhersage: MDPI Applied Sciences, “Efficient Fault Diagnosis of Elevator Cabin Door Drives Using Machine Learning” (2025) — Türzyklus-Driftmuster 10–20 Tage vor hartem Türfehler erkennbar. mdpi.com/2076-3417/15/13/7017
- Kostenfaktor Notfall vs. geplante Wartung (3–5×): Allgemeine Predictive-Maintenance-Fachliteratur; bestätigt durch Vollwartungsvertragsstruktur bei Schindler, TK Elevator, KONE (Angaben auf jeweiligen Unternehmensseiten)
- BetrSichV Prüfintervalle Aufzüge: Betriebssicherheitsverordnung Anhang 2, Abschnitt 2 — Hauptprüfung alle 2 Jahre + Zwischenprüfung durch zugelassene Überwachungsstelle (ZÜS). kone.de/support/betriebssicherheitsverordnung
- Concept Drift / Model Degradation: MIT-Forschung zu explosiver Modell-Degradation; Fiddler AI Glossar zu Model Drift (2024); ScienceDirect: “Machine learning based concept drift detection for predictive maintenance” (Computers & Industrial Engineering, 2020)
- Preisangaben Vollwartungsvertrag: aufzug24.net und lift-journal.de (abgerufen April 2026)
- Scoring-Kalibrierung: Erster nicht-Entwurf in der aufzugbau-Branche; Scores bewusst differenziert — skalierbarkeit als klarster Stärkevektor, schnelle_umsetzung als ehrlichste Einschränkung
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Wartungsvertrags-Profitabilitäts-Drift
KI berechnet tatsächliche Wartungskosten je Anlage über Zeit und identifiziert Verträge die durch gestiegenen Aufwand unprofitabel geworden sind.
Mehr erfahrenGebäudenutzungsmuster-Anomalieerkennung
KI analysiert Aufzug-Rufmuster, Etagen-Verteilung und Tagesprofile, um unerkannte Nutzungsänderungen im Gebäude zu entdecken — bevor überlastete Anlagen zum Problem werden.
Mehr erfahrenErsatzteil-Obsoleszenzprognose
ML analysiert Installed-Base-Daten, Hersteller-Lifecycle-Meldungen und Bestellhistorien, um vorherzusagen, welche Ersatzteile in den nächsten 2–5 Jahren nicht mehr beschaffbar sein werden — für rechtzeitige Last-Time-Buy-Entscheidungen.
Mehr erfahren