KI-gestützte Überwachung von Solarparks
KI analysiert kontinuierlich Ertragsdaten, Wetterdaten und Sensorwerte von Photovoltaikanlagen und erkennt Leistungsausfälle, Verschmutzungseffekte und Moduldefekte — bevor sie zu merklichen Ertragseinbußen führen.
Es ist Montag, 8:47 Uhr.
Florian Reck öffnet die Tagesauswertung für den 22-MWp-Solarpark in der Uckermark, den er seit drei Jahren für einen Hamburger Infrastrukturfonds betreibt. Die Zahlen sehen okay aus — 91 Prozent Performance Ratio, leicht unter Erwartung, aber in dem Rahmen, den Bewölkung und Morgentemperatur erklären könnten. Er loggt sich aus.
Was er nicht sieht: Wechselrichter 7 liefert seit sechs Tagen nur 70 Prozent seiner Nennleistung. Das SCADA-System meldet keinen Fehler, weil die Anlage insgesamt noch im “grünen” Bereich liegt — die Abweichung ertrinkt in den Gesamtwerten von 44 weiteren Wechselrichtern. String-Cluster C-14 hat einen Lichtbogendefekt an einer Verbindungsklemme. Täglich verliert die Anlage dadurch rund 140 kWh Ertrag. In sechs Wochen sind das 5.800 kWh — bei einem Einnahmen-Mix aus EEG-Vergütung und Direct Power Purchase Agreement entspricht das knapp 1.100 Euro verlorene Erlöse. Alles unentdeckt, alles vermeidbar.
Am Freitagabend schlägt das System endlich Alarm: Wechselrichter 7 hat ganz aufgehört zu kommunizieren. Florian schickt am Montag einen Techniker. Der findet die geschmorte Klemme und meldet: “Wäre das früher aufgefallen, wäre das in 20 Minuten repariert gewesen.”
Das ist kein Ausnahmefall. Das ist der Normalzustand in Solarparks, die mit konventionellem Monitoring betrieben werden.
Das echte Ausmaß des Problems
Wenn du einen Solarpark betreibst, hast du zwei Feinde, die du meistens zu spät siehst: schleichende Degradation und stille Ausfälle.
Schleichende Degradation passiert kontinuierlich. Verschmutzung durch Pollen, Staub, Vogelkot oder Saharastaub kostet laut IEA PVPS Task 13 (Bericht “Soiling Losses – Impact on the Performance of Photovoltaic Power Plants”, 2022) global zwischen 3 und 5 Prozent der jährlichen PV-Erzeugung — in Summe mehrere Milliarden Euro Erlösverluste pro Jahr. In Deutschland sind es durch Regen und geringere Staubbelastung im Schnitt 1–3 Prozent, bei Anlagen nahe Ackerland oder Autobahnen auch mehr. Ein 10-MWp-Park mit 950 kWh/kWp spezifischem Ertrag verliert bei 2 Prozent Verschmutzungseffekt 190 MWh im Jahr — bei einem Mischpreis von 8 ct/kWh sind das über 15.000 Euro jährlich, die durch optimierten Reinigungsplan zurückgeholt werden könnten.
Stille Ausfälle sind heimtückischer. Ein String mit defekter Bypass-Diode erzeugt weiter Strom — nur 10 bis 15 Prozent weniger als ein intakter. Im aggregierten Wechselrichter-Dashboard geht das unter. Defekte Steckverbinder, partielle Verschattung durch Baumwuchs am Parkaußenrand, Nachführfehler in Tracker-Systemen, Temperaturanomalien in Modulfeldern — all das verursacht Verluste, die auf Tagesebene nicht auffallen, auf Jahressicht aber erheblich sind.
Das Fraunhofer ISE hat für sein Programm “Data-Driven Quality Assurance of PV Power Plants” Methoden entwickelt und validiert, die an einem Portfolio von mehr als 100 kommerziellen PV-Systemen erprobt wurden. Das Ergebnis: Automatisierte Fehlererkennung findet Abweichungen, die konventionelles Monitoring über Wochen oder Monate übersehen hätte.
Zwei Solarparks in derselben Region, mit identischer Modultechnologie und gleicher Ausrichtung, können am Jahresende einen Ertragsunterschied von 20 Prozent aufweisen — nicht wegen Wetter oder Hardware, sondern wegen der Qualität des Betriebs. Das ist der Hebel, den KI-gestütztes Monitoring adressiert.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Konventionelles Monitoring | KI-gestütztes Monitoring |
|---|---|---|
| Erkennungslatenz bei Stringdefekten | 2–6 Wochen (erst bei vollständigem Ausfall sichtbar) | 1–3 Tage (Abweichungsmodell schlägt ab 2–3 % an) |
| Reinigungsentscheidung | Pauschalplan (z. B. 4× pro Jahr) | Bedarfsbasiert: KI erkennt Verschmutzungsschwelle aus Ertragsdaten |
| Wartungseinsätze pro Jahr | 8–12 reaktive Einsätze je nach Parkgröße | 4–6 proaktive Einsätze, priorisiert nach Ertragsverlust |
| Anteil nicht erkannter Verluste am Jahresertrag | Branchenüblich 3–7 % | Ziel: unter 1–2 % |
| Aufwand für monatliche Performance-Reports | 4–8 Stunden manuell | Automatisiert in 10–20 Minuten |
| Drohneninspektionen pro Jahr | Nach Pauschalplan (z. B. 1× jährlich) | Bedarfsgesteuert: KI-Signal löst gezielte Inspektion aus |
Einschränkung des Vergleichs: Konventionelles SCADA-Monitoring ist kein schlechtes System — es erkennt Totalausfälle zuverlässig. Das Problem ist die Grauzone zwischen “Anlage läuft” und “Anlage läuft optimal”. Diese Grauzone verursacht die Verluste, und genau dort setzt KI an.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) Das manuelle Durchsehen von SCADA-Dashboards, das Erstellen von Performance-Reports und die Koordination mit O&M-Teams frisst bei größeren Parks 5–15 Stunden pro Woche. Automatisiertes Monitoring reduziert das auf Ausnahme-Handling: Du reagierst auf priorisierte Alarme statt alles selbst zu sichten. In der Breite dieser Kategorie ist das solide, aber kein Spitzenreiter — andere Use Cases wie automatisierte Erneuerbare-Einspeise-Prognose entlasten täglich wiederkehrende Handelsaufgaben mit noch direkterem Zeithebel.
Kosteneinsparung — hoch (4/5) Ertragsverluste sind direkt in Euro messbar. Wer den Jahresertrag vorher und nachher vergleicht und dabei Wetter-Normierung berücksichtigt, sieht, ob das System wirkt. 30–50 Prozent weniger nicht erkannte Ertragsverluste plus 20–30 Prozent geringere O&M-Kosten durch bedarfsgerechte Einsätze — das ergibt bei mittleren Parks (5–20 MWp) typischerweise 15.000–80.000 Euro jährliche Verbesserung. Nicht die absoluteste Einsparkategorie im Branch, aber eine der verlässlichsten, weil der Ertrag physisch messbar ist.
Schnelle Umsetzung — niedrig (2/5) Hier ist Ehrlichkeit geboten: Bis ein KI-Monitoring-System wirklich arbeitet, vergehen 8–12 Wochen. SCADA-Anbindung, Datenlogger-Konfiguration, Wechselrichter-APIs, historische Basisdaten aufbauen, Schwellenwerte kalibrieren — das ist technische Projektarbeit. Viele Parks haben Legacy-SCADA mit proprietären Protokollen, die keine direkte API-Integration erlauben. Deutlich unterhalb des Branch-Medians für Einsteiger-Aufwand; vergleichbar mit Predictive Maintenance Windkraft, das ähnliche Sensordaten-Infrastruktur erfordert.
ROI-Sicherheit — hoch (4/5) Der Ertrag ist mit Messunsicherheit von unter 1 % messbar. Ein Vergleich des Jahresertrags vor und nach Einführung — normiert auf Einstrahlungsdaten — gibt einen klaren Vorher-Nachher-Wert. Das ist einer der wenigen Use Cases, wo der KI-Beitrag nicht aus einer Proxy-Metrik geschlossen werden muss, sondern sich direkt in der Ertragskurve zeigt. Einschränkung: Saisonalität und Wettervariabilität brauchen 12 Monate Datenbasis für statistisch belastbare Aussagen.
Skalierbarkeit — sehr hoch (5/5) Das ist der stärkste Punkt dieses Use Cases. Ein O&M-Team, das drei Parks auf einmal über ein Dashboard überwacht, kann mit demselben System 30 Parks überwachen — ohne proportional mehr Personal. Jeder neue Park im Portfolio fügt eine Datenquelle hinzu, kein Vollzeit-Äquivalent. Das ist das perfekte O&M-Skalierungsprofil für Fondsbetreiber und unabhängige O&M-Dienstleister.
Richtwerte — stark abhängig von Parkgröße, SCADA-Reife und vorhandener Datenpipeline.
Was das KI-Monitoring-System konkret macht
Der technische Kern ist Predictive Analytics auf Zeitreihendaten: Das System lernt aus historischen Ertragsdaten, was eine Anlage unter bestimmten Bedingungen leisten sollte, und vergleicht das kontinuierlich mit dem, was sie tatsächlich liefert.
Die drei Monitoring-Ebenen
Stringebene ist die feinste Granularitätsstufe. Jeder String (typisch 15–25 Module in Reihe) liefert Strom- und Spannungswerte. Ein anomal niedriger Strom in einem String bei gleichzeitig normalem Nachbar-String zeigt: Hier ist mindestens ein Modul ausgefallen, oder eine Bypass-Diode überbrückt einen Teilausfall. Stringebenen-Monitoring erfordert String-Monitoring-Units (SMU) oder Kombinationsboxen mit Einzelstring-Messung — nicht alle Parks haben das. Ohne SMU ist Stringebene nicht erreichbar.
Wechselrichterebene ist der Standard. Alle Wechselrichter melden Leistung, Spannung, Strom, Temperatur und Betriebsstatus. Machine Learning-Modelle vergleichen die Performance jedes Wechselrichters mit dem erwarteten Ertrag aus dem Einstrahlungsmodell. Abweichungen über 2–3 Prozent lösen priorisierte Alarme aus. Auf Wechselrichterebene erreichst du 90 Prozent des Monitoringnutzens mit deutlich geringerem Hardware-Aufwand als auf Stringebene.
Parkebene ist die aggregierte Sicht. Performance Ratio (PR), spezifischer Ertrag in kWh/kWp, Verfügbarkeit und Energiebilanz über alle Wechselrichter. Nützlich für Investoren-Reporting und Jahresvergleiche, aber zu grob für Fehlerdiagnose. Parkebene allein erkennt nur Katastrophen — Wechselrichter-Totalausfall, Netzabtrennungen, Sturmschäden.
Verschmutzung vs. Schatten vs. Moduldefekt — eine kritische Unterscheidung
Das ist das technisch anspruchsvollste Problem in der KI-Überwachung. Alle drei Ursachen produzieren ähnliche Symptome: reduzierter Ertrag in einem Bereich der Anlage. Das Modell muss sie unterscheiden, weil die Reaktion völlig verschieden ist:
- Verschmutzung tritt typischerweise gleichmäßig über eine größere Fläche auf, entwickelt sich langsam und korreliert mit der Zeit seit der letzten Reinigung sowie mit Windrichtung und lokaler Staubquelle. Das KI-Modell erkennt das an der flächigen, zeitlich driftenden Degradation mehrerer benachbarter Wechselrichter.
- Schatten durch Baumwuchs zeigt ein charakteristisches Tages- und Saisonmuster: morgens oder nachmittags, tritt ab einem bestimmten Sonnenstand auf, betrifft immer dieselben Module. Das Modell identifiziert die zeitliche Wiederholstruktur.
- Moduldefekte wie Mikrorisse, defekte Bypass-Dioden oder hotspots zeigen sich als permanent reduzierter Ertrag in einem klar lokalisierten Bereich, unabhängig von Tageszeit und Wetter. Für die visuelle Bestätigung und genaue Lokalisierung einzelner defekter Module ist dann eine KI-gestützte Drohneninspektion sinnvoll.
Diese Unterscheidung gelingt KI-Modellen zuverlässig erst nach 6–12 Wochen Lernphase mit ausreichend Wettervariabilität im Trainingsdatensatz.
EEG-Meldepflichten und Netzbetreiber-Reporting
In Deutschland gibt es für EEG-geförderte Anlagen ab einer bestimmten Größe Meldepflichten gegenüber dem Netzbetreiber: Anlagenstatus, Einspeisewerte, Ausfallzeiten. Ein gut konfiguriertes Monitoring-System generiert diese Berichte automatisch und erkennt gleichzeitig, wenn Abweichungen EEG-rechtlich relevant sind — zum Beispiel wenn die Anlage aufgrund eines Defekts unter den technisch zu erwartenden Wert fällt und das für die Einspeisevergütung relevant wird. Für Anlagen im Direktvermarktungs-Modus kommen zusätzliche Anforderungen durch den Direktvermarkter hinzu (stündliche Einspeisemeldungen, Netzpenalty-Management), die eine präzise Prognosedatenpipeline voraussetzen.
Konkrete Werkzeuge — was wann passt
Kategorie 1: Hersteller-integriertes Monitoring (ohne KI-Layer)
SMA Sunny Portal und SolarEdge Monitoring Portal — Wenn deine Anlage ausschließlich SMA- bzw. SolarEdge-Wechselrichter einsetzt, haben diese Portale bereits eine brauchbare Basis: Echtzeit-Produktionsdaten, Wechselrichter-Statusalarme, grundlegende Performance-Auswertungen. Kostenlos inklusive, kein separater Datenlogger nötig. Schwäche: keine herstellerübergreifende Integration, keine datengestützte Verschmutzungsanalyse, keine KI-gestützte Anomalieerkennung — sie melden Ausfälle, aber nicht schleichende Degradation. Geeignet für Parks bis ca. 500 kWp mit homogener Wechselrichterflotte, wenn der Betreiber keine erweiterte Analytik braucht.
Kategorie 2: Professionelles Monitoring mit KI-Analytik
meteocontrol VCOM mit Smart Alarms — Der etablierte Standard für professionelle PV-Portfolios in Deutschland. Das VCOM-Portal aggregiert mehrere Parks herstellerübergreifend, die blue’Log-Hardware erfasst Daten direkt an der Anlage unabhängig vom Wechselrichter-Fabrikat. Das 2022 eingeführte Smart-Alarm-System priorisiert Störungen nach wirtschaftlichem Ertragsverlust statt nach technischem Schweregrad. Integriertes CMMS für Wartungstickets. Preis auf Anfrage, Erfahrungswerte für mittelgroße Parks (5–30 MWp): Hardware 5.000–15.000 Euro einmalig plus jährliche VCOM-Lizenz. Geeignet für professionelle O&M-Dienstleister und Asset Manager.
Solargis Monitor — Stärke liegt in der Kombination von hochpräzisem Soll-Ertrag (30-Jahres-Klimahistorie) mit Ist-Ertrag. Der Soll-Ertrag-Vergleich ist präziser als bei einfacheren Monitoring-Systemen, weil Solargis auf Satellitendaten und proprietäre Klimamodelle zurückgreift statt auf nächste Wetterstation. Asset Manager, die bankfähige Performance-Reports für Investoren brauchen, wählen häufig Solargis Monitor. Für die kombinierte Nutzung (Projektentwicklung und laufendes Monitoring) ist die Plattform besonders effizient.
Kategorie 3: SCADA-Integration für Großanlagen
AVEVA PI — Für Solarparks ab ca. 20 MWp, die in ein industrielles SCADA-Umfeld eingebunden sind, ist AVEVA PI (früher OSIsoft PI) die Plattformwahl für die Datenhaltung. AVEVA PI ist kein fertiges Solar-Monitoring-Tool, sondern eine Zeitreihendatenbank und Analyseinfrastruktur, auf der eigene Anomalieerkennungsmodelle aufgebaut werden. Der Vorteil: alle OT-Daten — Wechselrichter, Wetterstation, Transformatoren, Netzanschluss — in einer einheitlichen Datenbasis, auf die externe Analysetools (Python-Modelle, Grafana) zugreifen können. Erfordert dediziertes IT/OT-Personal.
Zusammenfassung: Wann welcher Ansatz
- Kleiner Park (unter 500 kWp), homogene Wechselrichterflotte → SMA Sunny Portal / SolarEdge kostenlos
- 500 kWp–20 MWp, professioneller O&M-Betrieb → meteocontrol VCOM
- Asset Manager, bankfähige Reports gefordert → Solargis Monitor (ggf. kombiniert mit meteocontrol)
- Großanlage über 20 MWp mit SCADA-Infrastruktur → AVEVA PI als Datenbasis + eigene Analysemodelle
- Physische Moduldefekte gezielt lokalisieren → ergänzend KI-gestützte Drohneninspektion (Mikrorissanalyse)
Datenschutz und Datenhaltung
Solarpark-Monitoring-Daten sind keine personenbezogenen Daten im Sinne der DSGVO — es handelt sich um Betriebsdaten einer technischen Anlage. Das bedeutet: Das klassische DSGVO-Risikoprofil (AVV, Betroffenenrechte, Einwilligung) spielt hier eine untergeordnete Rolle. Relevant wird es aber an zwei Stellen:
Investoren und Eigentümer als Datenempfänger. Wenn Performance-Reports mit Standortdaten, Ertragshistorien und Anlagendiagnosen an externe Investoren, Kreditgeber oder Fondsverwaltungen übermittelt werden, kann je nach Vertragsstruktur eine vertragliche Grundlage für die Datenweitergabe erforderlich sein — nicht DSGVO, aber in der Vertragsgestaltung relevant.
Datenhosting für sicherheitsrelevante Infrastruktur. Solarparks ab einer bestimmten Einspeiseleistung gelten als kritische Infrastruktur (KRITIS-relevant). Für diese Anlagen stellt sich die Frage, ob Monitoring-Daten auf deutschen Servern liegen müssen — eine Anforderung, die US-gehostete Dienste ausschließt. meteocontrol (Augsburg, deutsches Hosting) und AVEVA PI (on-premise oder EU-Cloud) erfüllen diese Anforderung. Solargis (Bratislava, EU-Hosting) ist ebenfalls DSGVO-konform, aber kein deutsches Hosting.
Für die Praxis empfehlenswert: Im Hosting-Vertrag mit dem Monitoring-Anbieter explizit den Serverstandort festhalten. Bei KRITIS-relevanten Anlagen zusätzlich IT-Grundschutz-Anforderungen des BSI prüfen.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
- Datenlogger-Hardware (z. B. meteocontrol blue’Log) für einen 10-MWp-Park: 5.000–12.000 Euro
- SCADA-Anbindung und Datenpipeline-Integration, falls Legacy-System: 3.000–15.000 Euro (je nach Protokoll-Komplexität und externem IT-Aufwand)
- Kalibrierung des Baseline-Modells und Alarm-Schwellenwerte: 2–4 Wochen interner/externer Aufwand
Laufende Kosten (jährlich)
- Monitoring-Software-Lizenz (meteocontrol VCOM, Solargis Monitor): 3.000–20.000 Euro/Jahr je nach Parkanzahl und Modulen
- Als Daumenregel: Laufende Monitoring-Gesamtkosten (Hardware-Abschreibung + Software) liegen bei 3–5 €/kWp/Jahr — bei einem 10-MWp-Park entspricht das 30.000–50.000 Euro/Jahr für den gesamten O&M-Betrieb inklusive Monitoring (Quelle: Nefino.de, “Solarpark-Kennzahlen 2026”)
- Drohneninspektionen, wenn bedarfsgesteuert durch KI-Alarm: 1.500–4.000 Euro pro Inspection
Was du dagegenstellen kannst
Ein 10-MWp-Park produziert bei 950 kWh/kWp rund 9.500 MWh/Jahr. Bei einem Mischpreis aus EEG-Vergütung und PPA von 8 ct/kWh sind das 760.000 Euro Jahresertrag. Wenn das KI-Monitoring 2 Prozentpunkte unerkannte Verluste verhindert (IEA-PVPS-Größenordnung für Deutschland), rettet das 190 MWh × 8 ct = 15.200 Euro. Hinzu kommen eingesparte Kosten durch bedarfsgerechte statt pauschale Reinigung und reduzierte reaktive Wartungseinsätze — typisch 10.000–25.000 Euro/Jahr in Summe.
Konservatives Szenario: 20.000–40.000 Euro jährlicher Mehrwert gegen 5.000–12.000 Euro laufende Mehrkosten für KI-Monitoring über Basismonitoring. Amortisation der Einrichtungskosten: 1–2 Betriebsjahre.
Granularität entscheidet — was du wirklich messen musst
Das ist der Abschnitt, den die meisten Anbieterbroschüren weglassen.
Nicht jedes Monitoring-System, das “KI-gestützte Anomalieerkennung” bewirbt, kann dasselbe. Die entscheidende Frage ist: Auf welcher Ebene werden die Daten erfasst? Und: Mit welcher Zeitauflösung?
15-Minuten-Intervalle vs. Stundenmittelwerte: Ein Modell, das nur stündliche Wechselrichter-Mittelwerte verarbeitet, übersieht kurze Leistungseinbrüche, die auf defekte Bypass-Dioden oder sporadische Verbindungsfehler hinweisen. 15-Minuten-Auflösung ist das Minimum für belastbare Anomalieerkennung — 5-Minuten-Daten sind besser, aber erhöhen Speicher- und Übertragungsaufwand.
String-Monitoring vs. Wechselrichter-Monitoring: Wechselrichter-Monitoring erkennt Probleme, wenn ein ganzer Wechselrichterbereich betroffen ist. Stringebenen-Monitoring (erfordert String-Monitoring-Units, SMU) erkennt Einzelstring-Probleme, die im aggregierten Wechselrichter-Wert unsichtbar bleiben. SMU-Hardware kostet pro Wechselrichter 200–600 Euro zusätzlich — für einen 10-MWp-Park mit 45 Wechselrichtern sind das 9.000–27.000 Euro Mehrkosten. Ob sich das lohnt, hängt von der Parkgröße und der Qualität der installierten Module ab.
Einstrahlung an der Anlage vs. Satellitenmodell: Ein Modell, das den Soll-Ertrag ausschließlich aus Satelliten-Einstrahlungsdaten berechnet, hat eine höhere Unsicherheit als eines, das auf vor-Ort-Messungen zurückgreift. Für präzise Anomalieerkennung (Schwelle 2–3 %) ist eine lokale Pyranometerstation am Park empfehlenswert — Kosten: 3.000–8.000 Euro Hardware. Ohne sie sinkt die Erkennungsgenauigkeit, und die Alarmschwellen müssen höher gesetzt werden, was mehr Verluste toleriert.
Drei typische Einstiegsfehler
1. Alarm-Flut durch nicht kalibrierte Schwellenwerte.
Das ist der häufigste und frustrierendste Fehler in den ersten Wochen nach der Systemeinführung. Das Modell hat noch keine belastbare Baseline — zu wenig Wettervariabilität im Trainingsdatensatz — und schlägt bei jeder Bewölkungsschwankung Alarm. O&M-Teams, die täglich 30 Alarme bekommen, von denen 28 False Positives sind, hören auf, die Alarme ernst zu nehmen. Die Forschungsliteratur dokumentiert dieses Phänomen explizit: Bestehende Anomalieerkennungs-Methoden ohne statistische Kontrolle der False-Positive-Rate führen zu häufigen Fehlalarmen und ineffizienten Wartungseinsätzen (vgl. arxiv.org/abs/2503.19146, 2025). Lösung: Mindestens 4–6 Wochen Kalibrierungsphase einplanen, Schwellenwerte schrittweise schärfen statt sofort auf niedrigste Empfindlichkeit zu gehen.
2. Daten ankommen lassen, aber keine Prozesse ändern.
Ein KI-Monitoring-System ist kein Autopilot. Es liefert priorisierte Signale — aber jemand muss entscheiden, wann ein Techniker fährt, ob der Alarm wirklich einen Einsatz rechtfertigt und wie die Befunde dokumentiert werden. Wer das System einführt, ohne gleichzeitig einen Alarmierungs- und Eskalationsprozess zu definieren (“Alarm X → Ticket im CMMS → Technikereinsatz binnen 48 Stunden”), hat ein System, das Daten produziert, ohne Konsequenzen zu haben.
3. Das Modell nie neu kalibrieren.
Solarparks verändern sich: Bäume wachsen, Tracker driften ein, Modulcharakteristik degradiert über Jahre. Ein Anomalieerkennungsmodell, das einmal trainiert und dann sich selbst überlassen wird, beginnt nach 12–18 Monaten, veränderte Betriebsbedingungen als “normal” einzustufen — und erkennt echte Degradation nicht mehr. Empfehlung: Quartalsmäßige Modell-Review mit Blick auf Drift in den Basis-Performance-Metriken, jährliche vollständige Rekalibrierung.
Fehlervermeidung bei der Maintenance: Das ist der versteckteste Fehler, weil er erst spät sichtbar wird. Wer das System nach 18 Monaten aufgehört hat zu kalibrieren, merkt erst bei einer unabhängigen technischen Due Diligence, dass die erkannten “Ausreißer” sich von echten Verlusten kaum noch unterscheiden — das Modell hat sich der veränderten Realität angepasst, statt sie als Abweichung zu melden.
Was mit der Einführung wirklich passiert — und was nicht
Der O&M-Dienstleister-Aspekt ist wichtiger als das Tool.
Technische Einführungen in PV-Parks scheitern selten am Tool — die Wechselrichter liefern die Daten, die Software läuft. Das eigentliche Problem ist: Wer trägt die Verantwortung für das System nach dem Go-live?
In der Praxis gibt es drei Rollen, die klar definiert sein müssen:
Datenpipeline-Verantwortlicher — jemand mit OT-Kenntnissen, der sicherstellt, dass Daten zuverlässig ankommen, Kommunikationsausfälle erkannt werden und das Modell auf aktuelle Betriebsbedingungen kalibriert ist. Das ist keine Vollzeitstelle, aber es braucht jemanden, der dafür zuständig ist — nicht “die IT allgemein”.
Alarm-Owner — jemand im O&M-Team, der jeden priorisierten Alarm in einen konkreten Handlungsschritt übersetzt. Ohne klar benannten Alarm-Owner enden Alarme in einem geteilten Postfach, das niemand dringlich findet.
Reporting-Verantwortlicher — für Investoren-Reports, EEG-Meldungen und interne Performance-Reviews. Automatisierte Reports helfen, aber jemand muss sie interpretieren und freigeben.
Was häufig unterschätzt wird: Die Einführungsphase mit Alarmkalibrierung, SCADA-Debug und Team-Training dauert real 8–12 Wochen. Teams, die nach zwei Wochen “live” gehen, haben typischerweise noch drei Monate Nachjustieren vor sich. Das ist keine Schwäche des Systems — es ist der normale Lernprozess, den ehrliche Anbieter kommunizieren sollten.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenpipeline-Aufbau | Woche 1–3 | SCADA-Anbindung, Datenlogger-Installation, Wechselrichter-API-Konfiguration, Datenqualitätsprüfung | Proprietäre Protokolle (ältere SCADA) verlangen individuelle Adapter — verzögert um 2–4 Wochen |
| Baseline-Aufbau | Woche 3–6 | Historische Ertragsdaten bereinigen, Einstrahlungsmodell kalibrieren, erste Anomaliemodelle trainieren | Zu wenig saubere Historiedaten (unter 6 Monate) — Modell arbeitet mit höherer Unsicherheit |
| Kalibrierungsphase | Woche 6–9 | Alarm-Schwellenwerte schärfen, False-Positive-Rate senken, CMMS-Integration testen | Alarm-Flut in den ersten Wochen — O&M-Team-Akzeptanz gefährdet wenn zu viele Fehlalarme |
| Pilotbetrieb | Woche 9–12 | Realbetrieb mit erstem Park, erste Ertragsdelta-Auswertung, Reporting-Templates einrichten | Abweichungen, die das Modell meldet, müssen manuell validiert werden — erhöhter Aufwand in dieser Phase |
| Roll-out weiterer Parks | Ab Monat 4 | Paralleleinführung weiterer Parks im Portfolio mit demselben Konfigurationsrahmen | Jeder weitere Park hat eigene Hardware-Besonderheiten — Einführungszeit je Park ca. 2–3 Wochen |
Häufige Einwände — und was dahintersteckt
„Unser bestehendes SCADA-System erkennt doch schon Ausfälle.” Ja — Totalausfälle. Ein Wechselrichter, der aufgehört hat zu kommunizieren, löst auch im einfachsten SCADA einen Alarm aus. Die Frage ist, was zwischen 0 und 100 Prozent passiert. Schleichende Degradation auf 75 Prozent, ein String auf 60 Prozent, Verschmutzung auf 97 Prozent — das erkennt kein Schwellenwert-basiertes System. Das erkennt nur ein Modell, das weiß, was die Anlage unter aktuellen Bedingungen leisten müsste, und mit dem Ist-Wert vergleicht.
„Das lohnt sich nur für große Parks.” Der Break-Even liegt in der Praxis bei Parks ab etwa 1–2 MWp, wenn die Einrichtungskosten auf mehrere Jahre verteilt werden. Für Parks unter 500 kWp ist das herstellerintegrierte Monitoring in der Regel ausreichend. Zwischen 500 kWp und 2 MWp ist die Abwägung individuell — es hängt davon ab, ob der Park in einem Portfolio läuft (dann teilt er sich die Monitoring-Infrastruktur) oder als Einzelanlage betrieben wird.
„Wir kriegen die SCADA-Daten nicht raus.” Das ist ein reales technisches Problem, kein Einwand. Ältere SCADA-Systeme — insbesondere proprietäre Lösungen aus der Anfangszeit des Solarboom-Jahrzehnts 2008–2015 — haben keine offenen APIs. Lösungen gibt es: OPC-UA-Gateway als Middleware, Protokollkonverter (Modbus → REST), in letzter Instanz Datenlogger-Hardware parallel zum SCADA. Das erhöht den Einführungsaufwand, ist aber lösbar. Wer ernsthaft kaufmännisches Monitoring betreiben will, muss diesen Schritt irgendwann gehen.
Woran du merkst, dass das zu dir passt
- Du betreibst einen oder mehrere Solarparks ab ca. 1 MWp und weißt nicht mit Sicherheit, ob jede Anlage ihren optimalen Ertrag liefert
- Dein O&M-Rhythmus ist reaktiv: Du schickst Techniker, wenn Wechselrichter ausfallen — nicht wenn sie schleichend unter die Erwartung fallen
- Du hast keine Pyranometerstation oder lokale Einstrahlungsmessung und verlässt dich auf regionale Wetterdaten — du weißt also nicht, ob eine Ertragsabweichung am Wetter oder an der Anlage liegt
- Dein Portfolio wächst: Du hast drei Parks heute und planst sechs in zwei Jahren — du willst nicht proportional mehr Personal für die Überwachung
- Du lieferst Performance-Reports an Investoren und möchtest, dass diese automatisch und auf normierter Datenbasis entstehen statt manuell zusammengestellt werden
Wann du es (noch) nicht tun solltest — drei harte Ausschlusskriterien:
-
Park unter ca. 500 kWp mit homogener Wechselrichterflotte. SMA Sunny Portal, Fronius Solar.web oder SolarEdge Monitoring sind kostenlos, decken Basis-Fehlererkennung ab und erfordern keinen zusätzlichen Datenlogger oder Software-Lizenz. Der Mehrwert eines KI-Layers rechtfertigt die Einrichtungskosten bei dieser Größe nicht.
-
Weniger als 12 Monate saubere historische Ertragsdaten. Das KI-Modell braucht eine Baseline, um Abweichungen zu erkennen. Parks ohne ausreichende Historiedaten — neu in Betrieb oder Datenlücken durch Systemwechsel — können keine belastbare Soll-Ist-Kurve aufbauen. Resultat: zu viele False Positives, die das Team demoralisieren. Erst Datenbasis aufbauen, dann KI-Monitoring einführen.
-
Kein direkter Zugriff auf Wechselrichter-Daten im 15-Minuten-Takt. Wenn der bestehende Datenlogger oder das SCADA-System nur Tages- oder Stundenmittelwerte speichert oder die Daten nicht programmatisch zugänglich sind, fehlt die Grundlage für Anomalieerkennung. Das Monitoring-System sieht nur, was der Datenlogger liefert. Wer das KI-Monitoring mit zu grober Datenbasis startet, bekommt eine Anomalieerkennung, die nur große Ausfälle sieht — das kann das bestehende System schon.
Das kannst du heute noch tun
Starte mit einem kostenlosen 30-Tage-Daten-Audit für einen deiner Parks. Du brauchst dafür keine neue Software — nur die letzten 12 Monate Wechselrichter-Ertragsdaten und die zugehörigen Einstrahlungsdaten aus dem nächsten DWD-Messnetz oder aus PVGIS (kostenlos auf re.jrc.ec.europa.eu).
Berechne für jeden Wechselrichter die monatliche Performance Ratio (PR = Ist-Ertrag / Soll-Ertrag normiert auf Einstrahlung). Wenn einzelne Wechselrichter dauerhaft unter 85–90 Prozent des Park-Durchschnitts liegen, ohne dass Wetter das erklärt — dann hast du einen ersten Hinweis, dass KI-Monitoring sich lohnt.
Für eine erste automatisierte Analyse kannst du den folgenden Prompt in ChatGPT oder Claude verwenden:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- IEA PVPS Task 13, “Soiling Losses – Impact on the Performance of Photovoltaic Power Plants” (2022): Dokumentiert globale Verschmutzungsverluste von 3–5 % des jährlichen PV-Ertrags; für Deutschland 1–3 % aufgrund häufigerer Niederschläge. Report verfügbar auf iea-pvps.org.
- Fraunhofer ISE, “Data-Driven Quality Assurance of PV Power Plants”: Validierung automatisierter Fehlererkennungsmethoden an mehr als 100 kommerziellen PV-Anlagen. Beschreibt KI-gestützte Verschattungsanalyse, Verschmutzungsdiagnose und Digitale-Zwilling-Ansatz (ZenitTM). Verfügbar auf ise.fraunhofer.de.
- Nefino.de, “Solarpark-Kennzahlen 2026: Effizienz steigern & Erlöse sichern”: OPEX-Benchmark 3–5 €/kWp/Jahr für Freiflächen-Solarparks; zwei Parks mit identischer Technologie und 20 % Ertragsunterschied als Praxisbeleg für Monitoring-Effekt. Verfügbar auf nefino.de.
- arxiv.org/abs/2503.19146 (2025), “Risk-Based Thresholding for Reliable Anomaly Detection in Concentrated Solar Power Plants”: Dokumentiert das False-Alarm-Problem in der PV-Anomalieerkennung: bestehende Methoden ohne statistische Kontrolle der False-Positive-Rate führen zu häufigen Fehlalarmen und ineffizienten Wartungseinsätzen.
- Erfahrungswerte O&M-Einführungen: Werte für Einrichtungskosten, Kalibierungszeiten und Break-Even-Größen aus branchenüblichen Erfahrungen von meteocontrol, Solargis und Betreibern; keine repräsentative Studie, aber konsistente Beobachtungen. Stand April 2026.
- meteocontrol GmbH, VCOM Smart Alarms (2022): Einführung der wirtschaftlichen Alarm-Priorisierung nach Ertragsverlust statt technischem Schweregrad. Verfügbar auf meteocontrol.com.
Willst du wissen, welche Daten deine Anlage heute schon liefert und wo das größte ungenutzte Monitoring-Potenzial liegt? Meld dich — wir schauen uns das gemeinsam an.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Lastprognose für Energieversorger
KI-Modelle prognostizieren Stromlast stundenscharf — für niedrigere Ausgleichsenergiekosten und bessere Einsatzplanung.
Mehr erfahrenPredictive Maintenance Windkraft
KI erkennt Verschleiß an Windkraftanlagen Wochen vor dem Ausfall — für planbare Wartung statt teurem Notfalleinsatz.
Mehr erfahrenEnergiehandelsprognose
KI prognostiziert EPEX-Spotmarktpreise für bessere Handelsentscheidungen — mit Szenario-Bändern statt Einzelpunkten.
Mehr erfahren