KI-gestütztes Geschäftsprozess-Mining zur Automatisierungserkennung
Process-Mining-KI analysiert Event-Logs aus ERP, CRM und Ticketsystemen, deckt auf, wie Prozesse wirklich laufen (vs. wie sie sollten), und identifiziert konkrete Automatisierungskandidaten mit quantifiziertem ROI.
- Problem
- Unternehmen starten RPA- und Automatisierungsprojekte nach Bauchgefühl — und scheitern, weil der reale Prozess von der Dokumentation abweicht. Drei von vier Prozessdokumentationen weichen in mindestens einem zentralen Schritt von der Realität ab; sechsstellige Automatisierungsbudgets verbrennen an Sonderfällen, die niemand vorhergesehen hat.
- KI-Lösung
- Process-Mining-Tool extrahiert Prozessabläufe aus System-Event-Logs (ERP, CRM, Ticketsysteme) anhand von Case-ID, Aktivität und Zeitstempel, visualisiert reale Prozessvarianten und identifiziert datenbasiert Engpässe, Schleifen und Automatisierungskandidaten — inklusive Soll-Ist-Abgleich auf Einzelfall-Ebene.
- Typischer Nutzen
- Fehlgeleitete Automatisierungsinvestitionen vermeiden, eingelöste Skontofristen, vermiedene Doppelzahlungen, beschleunigte Order-to-Cash-Zyklen — Forrester rechnet für einen großen Industriekunden 383 % ROI über drei Jahre vor (Schätzwert aus Anbieter-Auftragsstudie).
- Setup-Zeit
- 3–6 Monate bis Pilotbetrieb; 4–8 Wochen Datenextraktion
- Kosteneinschätzung
- 30–80k € Beratung KMU + Lizenz 0–50k €/Jahr; Free-Tier für Sondierung
Es ist Mittwoch, 16:40 Uhr.
Einkaufsleiter Markus Reinhardt sitzt in einem Lenkungsausschuss. Sein Vorstand hat beschlossen: Der Bestellfreigabeprozess soll automatisiert werden, RPA-Bots, das ganze Programm. Budget: 180.000 Euro. Markus soll bestätigen, dass das die richtige Stelle ist.
Er kann es nicht. Niemand kann es. Die Prozessbeschreibung im Qualitätsmanagement-Handbuch ist drei Jahre alt. Was im SAP wirklich passiert, weiß keiner genau — die Sachbearbeitenden im Einkauf sagen, sie folgen dem dokumentierten Prozess; die Buchhaltung sagt, der Prozess sei längst überholt; die IT zuckt mit den Schultern.
Vier Wochen später startet trotzdem das Automatisierungsprojekt. Sechs Monate später wird es eingestellt: Die Bots stolpern an Stellen, die niemand vorhergesehen hat — Sonderfreigaben, doppelte Genehmigungen, manuelle Korrekturen, die nirgends dokumentiert waren.
Das eigentliche Problem war nicht die fehlende Automatisierung. Es war die fehlende Sicht auf den realen Prozess.
Das echte Ausmaß des Problems
In jedem Unternehmen ab einer gewissen Größe gibt es einen dokumentierten und einen tatsächlich gelebten Prozess. Die Lücke zwischen beiden ist der eigentliche Hebel — und sie ist meist erheblich. Eine in der Beratungspraxis und in akademischen Fallstudien (u.a. Springer/HMD) immer wieder bestätigte Faustregel: Drei von vier Prozessdokumentationen weichen in mindestens einem zentralen Schritt von der Realität ab.
Das hat handfeste Folgen. Eine Forrester-Studie „The Total Economic Impact of Celonis” (Juli 2024, im Auftrag von Celonis) berechnet für einen zusammengesetzten Industriekunden mit 20 Mrd. USD Umsatz Nutzen von 44,1 Mio. USD über drei Jahre — Skontoeinlösungen, vermiedene Doppelzahlungen, beschleunigte Auftragszyklen. Das ist die Größenordnung, in der Konzerne operieren. Im Mittelstand sind die absoluten Beträge kleiner, aber der prozentuale Hebel ist vergleichbar.
Drei Effekte laufen zusammen und kosten konkretes Geld:
- Fehlgeleitete Automatisierungsinvestitionen. Ein RPA-Projekt wird nach Bauchgefühl gestartet, der Bot bricht in der Produktion an Stellen ab, die im Anforderungsdokument nicht vorkamen. Die Wiederherstellung kostet oft mehr als die ursprüngliche Investition.
- Unsichtbare Schleifen und Workarounds. Bestellungen, die zweimal durch die Freigabe laufen, weil die Buchhaltung Rückfragen per E-Mail stellt statt im System. Anträge, die zwischen zwei Sachgebieten hin- und herwandern, weil die Zuständigkeit unklar ist. Diese Schleifen tauchen in keiner Auswertung auf — bis ein Event Log sie sichtbar macht.
- Engpässe an Stellen, die niemand erwartet hat. Bei Deutsche Telekom zeigte Process Mining, dass nicht etwa der Einkauf, sondern das Kreditoren-Stammdaten-Management der Engpass im Procure-to-Pay war. Die Erkenntnis sparte über 66 Mio. Euro durch eingelöste Skontofristen und vermiedene Doppelzahlungen.
Die Größenordnung ist real, aber die Zahl ist nicht auf jedes Unternehmen übertragbar. Der ehrliche Punkt: Process Mining zeigt nicht, was du verbessern könntest, sondern wo dein Prozess heute wirklich steht. Was du daraus machst, entscheidet über den ROI.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne Process Mining | Mit Process Mining |
|---|---|---|
| Sicht auf den realen Prozess | Bauchgefühl, Interviews, veraltete Dokumentation | Datenbasiertes Modell aus Event-Log |
| Anzahl identifizierter Prozessvarianten | Typisch 3–5 (im Kopf) | Realistisch 30–200+ je Prozess |
| Zeit bis zur Engpass-Identifikation | Wochen bis Monate (Workshops, Interviews) | Tage bis Wochen (nach sauberem Log) |
| Fehlgeleitete Automatisierungsinvestitionen | Häufig, oft sechsstellig | Deutlich reduziert |
| Conformance-Check (Soll vs. Ist) | Stichprobenartig, manuell | Auf Einzelfall-Ebene, kontinuierlich |
| Aufwand für Datenextraktion | Entfällt | Real: 2–8 Wochen Vorlauf, je nach Quellsystem |
Die Werte für Variantenanzahl und Engpass-Identifikation stammen aus Erfahrungswerten der Anbieter und akademischer Literatur (u.a. Springer/HMD-Fallstudie zu leginda.de). Der Aufwand für Datenextraktion ist die Achillesferse vieler Projekte und wird in Marketingmaterial gern übersehen.
Einschätzung auf einen Blick
Zeitersparnis — niedrig (2/5) Process Mining selbst spart keine Zeit im Tagesgeschäft. Es ist ein Diagnose-Werkzeug, kein Produktivitätswerkzeug. Die Zeitersparnis entsteht erst durch die Folge-Maßnahmen — die identifizierten Automatisierungen, eliminierten Schleifen oder Prozessanpassungen. Anders als bei Meeting-Protokollen oder Kundenkorrespondenz, wo der Effekt am ersten Tag sichtbar ist, vergehen typisch 6–12 Monate, bis die durch Mining gefundenen Maßnahmen messbar Zeit sparen.
Kosteneinsparung — hoch (4/5) Wenn das Projekt den Sprung von der Analyse zur Umsetzung schafft, sind die Effekte nachweislich erheblich. Die im Forrester-TEI dokumentierten 383 Prozent ROI über drei Jahre entstehen nicht durch das Mining-Tool, sondern durch die nachgelagerten Prozessverbesserungen — Skonto-Realisierung, vermiedene Doppelzahlungen, beschleunigte Order-to-Cash-Zyklen. Im Mittelstand sind die absoluten Beträge kleiner, aber die Hebel ähnlich. Vorsicht: Ohne Umsetzungsbereitschaft im Fachbereich verpufft das Investment.
Schnelle Umsetzung — niedrig (2/5) Realistisch sind 3–6 Monate bis zum produktiven Pilotbetrieb, in datenseitig schwierigen Umgebungen auch länger. Der größte Zeitfresser ist nicht das Tool, sondern die Datenextraktion: Event-Logs aus SAP, ServiceNow oder einem Eigenbau-CRM zu sauberen Case-IDs und konsistenten Zeitstempeln zusammenzuführen, dauert typisch 4–8 Wochen — bei schlechter Quelldatenqualität deutlich länger. Vergleichbar herausfordernd wie Predictive Analytics oder automatisierte Rechnungsverarbeitung mit ERP-Integration.
ROI-Sicherheit — mittel (3/5) Der Nutzen ist real, aber er hängt von zwei Faktoren ab, die du vorher nicht vollständig kennst: der Datenqualität deines Quellsystems und der Bereitschaft des Fachbereichs, identifizierte Befunde tatsächlich umzusetzen. Wenn der Einkaufsleiter nach dem Mining-Befund sagt: „Stimmt, das ist seit Jahren so, aber wir wollen es nicht ändern” — dann hast du eine teure Visualisierung gebaut. Die ROI-Streuung in der Praxis ist erheblich.
Skalierbarkeit — hoch (4/5) Einmal aufgebaut, läuft das Mining kontinuierlich. Neue Prozesse anzubinden ist erheblich günstiger als der erste — die Datenpipeline, die Konnektoren und die Fachbereichs-Routine sind etabliert. Mehrere Prozesse gleichzeitig zu monitoren erzeugt keinen proportionalen Mehraufwand. Nicht maximal bewertet, weil neue Quellsysteme (z.B. nach einer Akquisition oder einem ERP-Wechsel) jeweils eigenen Integrationsaufwand auslösen.
Richtwerte — stark abhängig von Quelldatenqualität, Prozessreife und Umsetzungsbereitschaft im Fachbereich.
Was Process Mining konkret macht
Der technische Kern ist überraschend einfach erklärbar. Jedes moderne Geschäftssystem schreibt bei jeder Aktion einen Logeintrag: Wer hat wann was gemacht. Eine Bestellung wurde angelegt — Logeintrag. Ein Vorgesetzter hat freigegeben — Logeintrag. Eine Rechnung wurde gebucht — Logeintrag. Diese Einträge nennt man Event Log.
Process Mining nimmt diesen Event Log, sortiert die Einträge pro Vorgang (Bestellnummer, Antragsnummer, Ticket-ID) chronologisch und zeichnet daraus automatisch ein Prozessdiagramm. Dieses Diagramm zeigt nicht, wie der Prozess laufen soll — es zeigt, wie er in den vergangenen Monaten oder Jahren tatsächlich gelaufen ist. Mit allen Schleifen, Abkürzungen, Wiederholungen und Sonderwegen.
Jeder Mining-Befund braucht drei Spalten in den Quelldaten: eine Case-ID (was ist der Vorgang?), eine Aktivität (welcher Schritt wurde ausgeführt?) und einen Zeitstempel (wann?). Optional kommt eine vierte Spalte mit der ausführenden Person oder Rolle hinzu — wichtig, sobald du wissen willst, wo es nach Wechseln zwischen Sachgebieten oder Abteilungen knirscht.
Die drei Mining-Modi
Moderne Tools beherrschen drei Disziplinen, die bewusst getrennt gehören:
Discovery — die reine Sichtbarmachung. Wie sieht der Prozess wirklich aus? Welche Varianten gibt es? Wo entstehen Schleifen? Discovery ist der Einstieg und liefert oft schon die ersten überraschenden Erkenntnisse — auch ohne Soll-Modell.
Conformance Checking — der Soll-Ist-Vergleich. Hat dein Unternehmen einen dokumentierten Soll-Prozess (BPMN-Modell, QM-Handbuch)? Conformance Checking misst auf Einzelfall-Ebene, wie weit jeder einzelne Vorgang davon abweicht. Das ist die Disziplin, die Auditoren und Compliance-Bereiche besonders interessiert.
Enhancement — die Anreicherung. Bestehende Modelle werden mit den realen Performance-Daten verfeinert: Durchlaufzeiten pro Schritt, häufigste Übergänge, Engpass-Wahrscheinlichkeiten. Hier liegt der direkte Anschluss an Simulation und Was-wäre-wenn-Analysen.
Wo kommt jetzt die KI ins Spiel? An mehreren Stellen, aber selten dort, wo Marketing es behauptet:
- Variantenklassifikation: Bei 200+ Prozessvarianten ist eine händische Sortierung sinnlos. Machine Learning gruppiert ähnliche Pfade automatisch und legt sie übereinander.
- Anomalieerkennung: Welche Vorgänge weichen statistisch signifikant ab? Welche Kombinationen aus Aktivitäten und Akteuren sind ungewöhnlich? Klassische ML-Modelle identifizieren das automatisiert.
- Root-Cause-Analyse: Generative KI wird mittlerweile für die Hypothesenbildung eingesetzt — „Warum dauert diese Variante länger als die anderen?” wird in Klartext beantwortet, basierend auf statistischen Auffälligkeiten in den Logdaten. Stand 2026: nützlich, aber kein Ersatz für menschliche Prozessexpertise.
- Communications Mining: Die Erweiterung des klassischen Event-Logs um unstrukturierte Quellen — E-Mail-Verkehr, Chat-Logs, Tickets — mit NLP. UiPath ist hier am weitesten, Celonis zieht nach.
Process Mining vs. RPA und BPM — die saubere Abgrenzung
Diese drei Begriffe werden in der Praxis ständig verwechselt — und genau diese Verwechslung ist der häufigste konzeptionelle Fehler vor jedem Projekt. Sie lösen unterschiedliche Probleme.
| Disziplin | Frage | Typisches Werkzeug |
|---|---|---|
| Process Mining | Wie läuft der Prozess wirklich? Wo sind Engpässe? | Celonis, SAP Signavio, Apromore, Fluxicon Disco |
| BPM (Business Process Management) | Wie soll der Prozess laufen? Wie modelliere und governe ich ihn? | ARIS, ProcessMaker, Camunda |
| RPA (Robotic Process Automation) | Wie automatisiere ich einen klar definierten, regelbasierten Schritt? | UiPath, Microsoft Power Automate |
Process Mining macht sichtbar. BPM modelliert das Soll. RPA automatisiert konkrete Handgriffe. Wer mit RPA beginnt, ohne vorher den realen Prozess analysiert zu haben, automatisiert oft genau die falsche Stelle. Wer ein BPM-Modell pflegt, ohne mit Mining gegenzuprüfen, dokumentiert eine Wunschwelt. Die drei Disziplinen sind komplementär — und genau in dieser Reihenfolge.
Datenqualität als Voraussetzung
Hier liegt der wirkliche Knackpunkt aller Process-Mining-Projekte. Die Achilles-Ferse — so beschreibt es das Fluxicon Process Mining Book — sind die Zeitstempel.
Drei Datenqualitätsprobleme tauchen praktisch immer auf:
Identische Zeitstempel für mehrere Aktivitäten. Wenn ein System Massenoperationen in einer Transaktion abarbeitet (typisch bei Batch-Läufen), bekommen alle resultierenden Ereignisse denselben Zeitstempel auf die Sekunde genau. Das Mining kann die Reihenfolge dann nicht mehr rekonstruieren — der Prozess sieht plötzlich aus, als sei alles gleichzeitig passiert.
Granularität, die nicht zur Frage passt. Wenn dein SAP nur das Datum loggt, aber du Durchlaufzeiten innerhalb eines Tages messen willst, hast du keinen Hebel. Umgekehrt: Mikrosekunden-Stempel helfen nichts, wenn der Prozess in Wochen verläuft und das Logsystem zwischendurch UTC-Drift hat.
Aktivitäten, die nirgends im System auftauchen. Wenn die Buchhaltung Rückfragen per E-Mail stellt, sieht das Mining diese Schleife nicht. Genau hier setzt Communications Mining an — bringt aber neue DSGVO- und Mitbestimmungs-Themen mit.
Die Konsequenz: Plane den Datenextraktions-Aufwand realistisch. In KMU-Projekten sind 4–8 Wochen für Datenmodellierung, Bereinigung und Validierung der Normalfall, nicht der Worst Case. Wer dieses Budget nicht hat, sollte mit einem deutlich kleiner geschnittenen Pilotprozess starten — eine einzige Antrags- oder Bestellart, die in einem einzigen System komplett abgebildet ist.
Eine pragmatische Faustregel aus mehreren KMU-Projekten: Wenn du den Event Log nicht in einem halben Tag aus dem Quellsystem extrahieren kannst, ist dein Quellsystem für Process Mining nicht reif. Dann ist die Vorarbeit (sauberes Logging, eindeutige Case-IDs, dokumentierte Aktivitätsbezeichnungen) wichtiger als die Tool-Auswahl.
Konkrete Werkzeuge — was wann passt
Die Tool-Landschaft im Process Mining hat sich konsolidiert: Celonis als Marktführer, SAP Signavio als ernstzunehmende Alternative für SAP-Häuser, dazu zwei seriöse Open-Source-Optionen und eine wachsende Microsoft-Variante für reine M365-Welten.
Celonis — der De-facto-Standard. Tiefste Konnektor-Bibliothek (SAP, Oracle, Salesforce, ServiceNow), automatische Engpass- und Anomalie-Erkennung, KI-gestützte Root-Cause-Analyse. Stark in Großunternehmen und öffentlichem Sektor; EU-Datenhaltung auf Anfrage. Preise nicht öffentlich. Laut Vendr-Marktbeobachtung liegen typische SMB-Verträge im niedrigen bis mittleren fünfstelligen Bereich pro Jahr, Enterprise-Verträge im sechsstelligen Bereich; Erstprojekte mit externer Begleitung schnell sechsstellig im ersten Jahr. Wichtig: Es gibt einen Celonis Free Plan (Nachfolger von „Snap”) mit 1 GB Datenlimit — perfekt für die erste Machbarkeits-Prüfung ohne Vertriebsprozess.
SAP Signavio — die SAP-native Alternative. Wer eine SAP-S/4HANA-Migration vor sich hat, kommt an Signavio kaum vorbei. Native Integration ohne Middleware, kombiniert Mining, BPM-Modellierung und Governance in einer Plattform. Typische Mittelstands-Installation ab ca. 50.000 Euro pro Jahr; Gesamtkosten stark vom SAP-Rahmenvertrag abhängig.
UiPath Process Mining — sinnvoll, wenn du bereits UiPath nutzt. Die Stärke ist nicht die Discovery selbst (Celonis ist hier reifer), sondern die direkte Übergabe identifizierter Automatisierungskandidaten an UiPath Studio für RPA-Bots. Ergänzt um Communications Mining, das E-Mail- und Chat-Verkehr in das Prozessbild einbezieht. Lizenzierung über UiPath Unified Pricing (Platform Units) — für Einsteiger schwer zu kalkulieren.
ARIS Process Mining — für ARIS-BPM-Welten und Compliance-getriebene Branchen. Software AG (jetzt IBM) bringt mit ARIS die enge Verzahnung von Soll-Prozessmodellierung und Ist-Mining. Besonders verbreitet bei Versicherungen, Energieversorgern und in der öffentlichen Verwaltung. Roadmap-Klarheit nach der IBM-Übernahme noch nicht vollständig — bei Neuverträgen lohnt der Blick auf die Wartungskonditionen.
Microsoft Power Automate Process Mining — der Einstieg für M365-Welten. Teil der Power Automate Premium-Lizenz für 15 USD pro Nutzer/Monat; 50 MB Process-Mining-Speicher pro Lizenz, bis 100 GB pro Kunde, weitere Kapazität für 5.000 USD je 100 GB. Funktional reduziert gegenüber Celonis, aber für eine erste KMU-Analyse völlig ausreichend — und in der Microsoft-Welt ohne neuen Anbieter beschaffbar.
Apromore und Fluxicon Disco — die ehrlichen Open-Source-Wege. Apromore Community Edition kostenlos und selbst hostbar — DSGVO-freundlich für Behörden und mittelständische Unternehmen mit datenschutzsensiblen Prozessen. Fluxicon Disco läuft lokal auf Desktop-Rechnern, akademische Lizenz kostenlos, perfekte erste Discovery-Analyse aus einer CSV-Datei in 20 Minuten.
Für die reine erste Sondierung: Wer mit der Frage „Lohnt sich Process Mining für uns überhaupt?” startet, fängt nicht mit Celonis oder Signavio an. Sondern mit einem CSV-Export aus dem Quellsystem, einer 30-Tage-Trial von Fluxicon Disco oder dem Celonis Free Plan, und einer halbtägigen explorativen Analyse. Was du danach weißt, ist mehr wert als jede Vendor-Demo.
Power BI und Tableau als Notlösung? Manche KMU bauen mit Power BI oder Tableau eigene Mini-Process-Mining-Visualisierungen aus den Logdaten. Das funktioniert für sehr einfache Fragen (mittlere Durchlaufzeiten, Top-5-Varianten), bleibt aber hinter spezialisierten Tools weit zurück — Conformance Checking, automatische Schleifenerkennung und Variantenklassifikation sind in BI-Tools praktisch nicht abbildbar. Als Notlösung okay, als Strategie nicht.
Zusammenfassung: Wann welcher Ansatz
- Erste Machbarkeit prüfen → Fluxicon Disco Trial oder Celonis Free Plan
- KMU mit M365-Lizenzen → Power Automate Process Mining
- SAP-Häuser mit S/4HANA-Migration → SAP Signavio
- Vorhandene UiPath-RPA-Landschaft → UiPath Process Mining
- ARIS-BPM-Welt, Compliance-Druck → ARIS Process Mining
- Großunternehmen, mehrere Quellsysteme → Celonis
- DSGVO-sensibel, Behörde, eigene IT → Apromore Community Edition
Datenschutz und Datenhaltung
Event-Logs enthalten fast immer personenbezogene Daten — auch wenn das auf den ersten Blick nicht so aussieht. Eine Tabelle mit Bestellfreigaben enthält Mitarbeitende als Genehmigende. Ein ServiceNow-Ticket enthält Sachbearbeitende als Bearbeiter. Eine SAP-Buchung enthält Anwender-Kürzel. Sobald du diese Logs einem Mining-Tool übergibst, gilt die DSGVO — für das System, die Infrastruktur und alle Drittanbieter mit Zugriff.
Für die gängigen Werkzeuge sieht es so aus:
- Celonis bietet EU-Datenresidenz auf Anfrage; AVV ist Standard. Für sensible Bereiche (öffentliche Verwaltung) wird gern die EU-Region in expliziten Zusatzvereinbarungen festgeschrieben.
- SAP Signavio läuft auf der SAP Business Technology Platform mit EU-Datenhaltung; AVV mitgeliefert.
- Microsoft Power Automate Process Mining ist Teil des EU Data Boundary-Programms — entsprechende Konfiguration ist beim Setup zu wählen, nicht automatisch.
- UiPath Process Mining bietet EU-Hosting über Automation Cloud Public Sector und Selbst-Hosting via Automation Suite.
- Apromore Community Edition lässt sich vollständig selbst hosten — die DSGVO-saubere Wahl, wenn die IT die Infrastruktur stemmen kann.
Wer personenbezogene Daten an einen Cloud-Anbieter übergibt, schließt einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO ab. Bei allen genannten Anbietern ist das Standardprozess; aktiv anfordern und durch den Datenschutzbeauftragten prüfen lassen ist Pflicht.
Eine wichtige Praxis-Frage, die bei Process Mining öfter aufkommt als bei anderen Use Cases: Pseudonymisierung der ausführenden Personen. Für reine Discovery-Analysen brauchst du in der Regel nicht zu wissen, welche Sachbearbeiterin den Schritt gemacht hat — sondern nur, dass es eine andere als beim vorherigen Schritt war. Eine Hash-basierte Pseudonymisierung der Akteursspalte vor dem Upload reduziert das Datenschutzrisiko erheblich, ohne die Mining-Qualität zu beeinträchtigen. Bei Performance-Analysen pro Person (im Sinne von Leistungsbewertung) wirst du ohnehin nicht ohne Mitbestimmung des Betriebsrats auskommen — siehe nächster Abschnitt.
Mitbestimmung des Betriebsrats — der oft übersehene Schritt
Process Mining fällt unter § 87 Abs. 1 Nr. 6 BetrVG: Eine technische Einrichtung, die objektiv geeignet ist, das Verhalten oder die Leistung von Beschäftigten zu überwachen, ist mitbestimmungspflichtig — unabhängig davon, ob diese Überwachung beabsichtigt ist oder nicht. Genau das tut Process Mining: Aus Event-Logs lässt sich ablesen, wer wann welchen Schritt wie lange bearbeitet hat.
In der Praxis bedeutet das: Bevor du den ersten Vorgang mit Mitarbeiterbezug analysierst, gehört eine Betriebsvereinbarung verhandelt — entweder als generelle „IT-System-Betriebsvereinbarung” für die Mining-Plattform oder als spezifische Vereinbarung pro Use Case. Die Datenschutzkanzlei und dr-datenschutz.de bestätigen einhellig: Mining-Analysen unterliegen der Mitbestimmung, auch wenn der Betreiber „nur Prozesse, nicht Personen” auswerten will.
Was üblicherweise in einer solchen Vereinbarung geregelt wird:
- Welche Datenquellen werden gemint (genau benannt, nicht „alle Systeme”)
- Welche Aktivitäten werden ausgeschlossen (z.B. keine Auswertung individueller Bearbeitungszeiten unter Personalbezug)
- Welche Pseudonymisierung wird angewendet
- Wer hat Zugriff auf welche Auswertungsebene
- Welche Aufbewahrungsfristen gelten
- Wie und wann wird der Betriebsrat über neue Anwendungsfälle informiert
Das ist kein Hindernis, sondern ein Schritt im Projektplan. Wer das vergisst, riskiert ein Stoppen des Projekts mitten im Rollout — und im schlechten Fall einen Imageschaden, der das Mining-Vorhaben für Jahre zurückwirft. Vier bis acht Wochen Vorlauf für Verhandlung und Abschluss sind realistisch.
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
- Datenmodellierung, Logextraktion, Bereinigung, Validierung: 4–8 Wochen Aufwand
- Externe Beratungsunterstützung beim ersten Use Case: 30.000–80.000 Euro im KMU-Mittelstandsfall, sechsstellig im Konzern
- Pilot-Lizenz für 12 Monate: stark anbieterabhängig, niedrig fünfstellig (Microsoft Power Automate, Fluxicon Disco) bis hoch fünfstellig (Celonis, SAP Signavio)
- Betriebsvereinbarungs-Verhandlung: in den genannten Beratungstagen meist enthalten, sonst zusätzlich 2–4 Tage interne Arbeitszeit
Laufende Kosten (jährlich)
- Celonis: Free Plan kostenlos (1 GB Limit); SMB-Verträge laut Vendr ab ca. 25.000 USD/Jahr; Enterprise sechsstellig
- SAP Signavio: ab ca. 50.000 Euro/Jahr für mittlere Installationen
- UiPath Process Mining: in Kombination mit Automation Suite typisch ab ca. 50.000 Euro/Jahr; ohne RPA-Stack weniger attraktiv
- Microsoft Power Automate Premium: 15 USD pro Nutzer/Monat, plus 5.000 USD je 100 GB Zusatzkapazität
- Apromore Community Edition: kostenlos plus eigene Hosting-Kosten (typisch 200–500 Euro/Monat in der Cloud)
- Fluxicon Disco: Perpetual-Lizenz auf Anfrage; akademische Lizenz kostenlos
Wie du den Nutzen tatsächlich misst Die ehrlichste ROI-Messung bei Process Mining funktioniert nur, wenn du vor dem Mining eine Baseline definierst — typisch: durchschnittliche Durchlaufzeit, Anzahl Schleifen pro 100 Vorgängen, Skontoquote, Fehlerrate. Nach drei Monaten Mining-Betrieb misst du dieselben Kennzahlen erneut. Die Differenz mal dem unterliegenden Volumen ist dein realer Effekt — nicht die Vendor-Hochrechnung. Ohne diese Baseline-Disziplin wird das Mining-Projekt zur Selbstbestätigungsmaschine.
Was du dagegenrechnen kannst — konservatives Szenario Ein Mittelstandsbetrieb mit 200 Mitarbeitenden und 80.000 Bestellvorgängen pro Jahr. Process Mining identifiziert nach drei Monaten drei Stellen, an denen jeweils 5–10 Prozent der Vorgänge in unnötigen Schleifen hängen — Skonto-Verluste, doppelte Genehmigungen, manuelle Korrekturen. Bei einem konservativ angesetzten Wert von 8 Euro Mehraufwand pro betroffenem Vorgang sind das 30.000–80.000 Euro pro identifiziertem Engpass jährlich. Wenn das Tool dir drei solcher Engpässe in den ersten sechs Monaten zeigt und der Fachbereich zwei davon umsetzt, amortisiert sich das Investment im ersten Jahr. Kalkulationsbasis: durchschnittliche Schleifenkosten und Volumenannahmen aus eigenen Erfahrungswerten und Praxisberichten — die tatsächlichen Werte streuen erheblich.
Typische Einstiegsfehler
1. Tool-Auswahl vor Use-Case-Definition. Der Reflex: „Wir brauchen Celonis.” Falsche Reihenfolge. Erst entscheidet sich, welcher Prozess als erstes analysiert werden soll (Procure-to-Pay? Order-to-Cash? IT-Service-Management?), und welche Frage konkret beantwortet werden muss („Wo verlieren wir Skonto?”). Erst aus dieser Spezifikation ergibt sich, welches Tool sinnvoll ist. Wer mit dem Tool startet, baut eine teure Lösung für ein unscharf formuliertes Problem.
2. Mining ohne Umsetzungspartner im Fachbereich. Process Mining ist kein IT-Projekt, auch wenn die IT die Daten liefert. Ohne einen klaren Owner im Fachbereich — Einkaufsleiter, Operations Manager, Finanzleiter — der die Befunde umsetzen darf und will, entsteht ein gut visualisiertes Diagnose-Dokument ohne Wirkung. Vor Projektstart festlegen: Wer entscheidet über die Umsetzung der Top-3-Befunde? Welche Eskalationsstufe ist nötig?
3. Datenextraktion zu spät planen. „Wir starten in vier Wochen mit Mining.” — Vier Wochen reichen für die Tool-Konfiguration, aber nicht für die saubere Datenextraktion aus SAP, ServiceNow oder einem Eigenbau-CRM. Realistisch sind 6–10 Wochen Vorlauf, wenn die Quellsystem-Logs nicht bereits sauber bereitstehen. Wer das nicht eingeplant hat, schiebt entweder das Projekt oder akzeptiert eine deutlich schlechtere Datenqualität — beides teuer.
4. Die Mining-Plattform wird eingeführt, aber nicht gepflegt. Das ist der schleichende Fehler. Process Mining ist kein Einmal-Projekt. Quellsysteme ändern sich (neues SAP-Modul, neuer Workflow), Aktivitätsbezeichnungen werden umbenannt, Konnektoren brechen still. Ohne eine namentlich benannte Person mit kontinuierlicher Verantwortung verkommt das Mining-Dashboard nach 12–18 Monaten zur Visualisierung mit veralteten Daten — und die nächste Geschäftsführung stuft das Projekt als gescheitert ein.
Konkrete Lösung: Pro Mining-Use-Case ein klar benannter Process-Owner (Fachbereich) plus ein Data-Steward (IT/Daten), die quartalsweise eine Datenqualitäts-Review durchlaufen. Nicht „die IT-Abteilung”, sondern zwei Personen mit Namen.
5. Process Mining mit RPA verwechseln. Der Klassiker. „Wir machen Process Mining, dann sind unsere Prozesse automatisiert.” Nein. Process Mining macht sichtbar — die Automatisierung folgt in einem zweiten Schritt mit anderen Werkzeugen (RPA, Workflows, ERP-Anpassungen). Die Reihenfolge muss sauber sein, sonst werden falsche Erwartungen geweckt und das Mining bekommt die Schuld für ausgebliebene Effekte, die strukturell von einer anderen Disziplin abhängen.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Use-Case- und Tool-Auswahl | Woche 1–2 | Pilotprozess festlegen, Tool sondieren, Lizenzgespräche | Tool wird vor Use-Case festgelegt — falsche Reihenfolge |
| Datenextraktion und -bereinigung | Woche 3–10 (parallel zu Tool-Setup) | Event-Log aus Quellsystem extrahieren, Case-IDs validieren, Zeitstempel bereinigen | Unsaubere Quelldaten — typischer Zeitfresser, oft 4–8 Wochen unterschätzt |
| Betriebsvereinbarung verhandeln | Woche 3–10 (parallel) | Betriebsrat einbinden, Mitbestimmungs-Gespräche, AVV mit Anbieter | Versäumtes oder zu spät begonnenes Mitbestimmungs-Verfahren — Projektstopp möglich |
| Initiale Mining-Analyse | Woche 8–12 | Discovery-Modell aufbauen, Top-Varianten identifizieren, erste Hypothesen | Zu viele Varianten — ohne Filterstrategie verliert man sich im Detail |
| Validierung mit Fachbereich | Woche 12–16 | Befunde mit Prozessverantwortlichen besprechen, Aha-Momente und Widerstand managen | „Das wussten wir schon” — Effekt; ohne harte Zahlen verpufft die Erkenntnis |
| Maßnahmenplan und erste Umsetzung | Woche 16–24+ | 2–3 Befunde priorisieren, Verantwortliche benennen, Umsetzung starten und messen | Befunde werden nicht umgesetzt — der häufigste ROI-Killer |
Wichtig: Nach 6 Monaten siehst du ehrlicherweise erste Effekte aus den umgesetzten Maßnahmen, nicht aus dem Mining selbst. Wer einen ROI nach 3 Monaten erwartet, bekommt eine Visualisierung, keinen Effekt.
Häufige Einwände — und was dahintersteckt
„Wir haben doch schon Power BI und sehen unsere KPIs.” KPIs zeigen Aggregate — durchschnittliche Durchlaufzeit, Quote, Volumen. Process Mining zeigt Pfade — wie ein einzelner Vorgang real durch das System gewandert ist, mit allen Schleifen und Sonderwegen. Das sind komplementäre Sichten. Wer die Aggregate hat, sieht dass etwas anders läuft als geplant; nur Mining zeigt wie und warum. Power BI bekommt das nicht hin — die Conformance-Logik, die das Mining macht, ist in einem BI-Tool nicht praktikabel abbildbar.
„Wir haben keine sauberen Daten.” Das ist häufig wahr — und gleichzeitig kein Ausschlussgrund. Die Frage ist nicht, ob die Daten perfekt sind, sondern ob sie für eine erste sinnvolle Analyse reichen: drei Spalten (Case-ID, Aktivität, Zeitstempel), ein gut abgegrenzter Pilotprozess, und eine Bereitschaft, in der Datenmodellierung 4–6 Wochen zu investieren. Wenn nicht einmal das gegeben ist, beginnt das echte Projekt vor dem Mining: sauberes Logging und eindeutige Case-IDs in den Quellsystemen einführen. Diese Vorarbeit lohnt sich auch unabhängig vom Mining.
„Process Mining ist nur was für Konzerne.” Der historisch gewachsene Eindruck stimmt teilweise — die großen Erfolgsgeschichten kommen von Siemens, Deutsche Telekom, BMW. Aber: Mit dem Celonis Free Plan, Power Automate Process Mining und Apromore Community Edition existieren mittlerweile niedrigschwellige Einstiege. Eine Studie aus 2023 zeigt: 97 Prozent der mittelständischen Unternehmen, die Process Mining bereits einsetzen, wollen den Einsatz ausbauen. Der KMU-Markt ist da — aber er erfordert andere Tool-Auswahl und kleinere Use Cases als bei Großkonzernen.
„Was, wenn der Betriebsrat das blockiert?” Der Betriebsrat blockiert selten generell. Er blockiert, wenn er zu spät eingebunden wird oder wenn die Vereinbarung Pseudonymisierung, Verwendungszweck und Aufbewahrungsfristen nicht klar regelt. Wer den Betriebsrat von Anfang an als Partner — nicht als Hindernis — behandelt und die Pseudonymisierungs-Frage proaktiv löst, bekommt in der Regel eine tragfähige Vereinbarung in 4–8 Wochen.
„Was, wenn das Mining einfach bestätigt, was wir schon wussten?” Das passiert — und ist nicht schlimm, sondern ein Frühindikator: Bestätigung ohne neue Erkenntnis bedeutet, dass die Prozessdokumentation näher an der Realität ist als bei den meisten Unternehmen. Aber Vorsicht vor dem Confirmation-Bias: Mining-Befunde, die unbequem sind (eigene Abteilung verursacht den Engpass, nicht die andere), werden gern wegerklärt. Eine ehrliche Validierung braucht Stakeholder, die nicht selbst betroffen sind — typisch eine Rolle aus Internal Audit oder Controlling.
Was mit der Einführung wirklich passiert — und was nicht
Die Tool-Auswahl ist das Einfachste an einem Process-Mining-Projekt. Die Datenextraktion ist Fleißarbeit. Aber die eigentliche Hürde sind die Menschen, deren Arbeit sichtbar gemacht wird.
Erfahrungsgemäß tauchen drei Widerstands-Muster in fast jeder Implementierung auf:
Die Selbstbild-Verteidiger. Eine Abteilung — oft die Buchhaltung oder der Einkauf — sieht im Mining-Befund zum ersten Mal schwarz auf weiß, dass „der Prozess bei uns” nicht so läuft, wie sie ihn erzählt. Das ist nicht böser Wille, sondern menschlich: Niemand mag öffentliche Korrekturen. Konkret hilft es, die ersten Befunde nicht in einer großen Lenkungsausschuss-Runde zu zeigen, sondern im Vier-Augen-Gespräch mit der jeweiligen Bereichsleitung. Wer den Befund mitgestaltet hat, verteidigt ihn statt ihn zu relativieren. Diese Vorgespräche müssen vor dem ersten offiziellen Reporting passieren, nicht danach.
Die „Ja, aber bei uns ist das anders”-Fraktion. Jeder Mining-Befund kollidiert irgendwann mit einer Sondersituation: „Stimmt, aber bei diesem Großkunden mussten wir das so machen.” „Stimmt, aber im Q4 war das eine Ausnahme.” Diese Einwände sind manchmal berechtigt — und sehr oft Schutzreflexe. Was funktioniert: gemeinsam mit dem Fachbereich die Filter-Funktion des Mining-Tools nutzen, die Sonderfälle isolieren, und sehen, was im Hauptstrom übrig bleibt. Wenn nach Abzug aller „Sonderfälle” immer noch 60 Prozent der Vorgänge im Schleifenmuster sind, ist das Argument widerlegt — datenbasiert, nicht emotional.
Die KI-/Prozessmining-Skeptiker. Sie werden das Tool nicht von alleine ausprobieren und das Ergebnis grundsätzlich anzweifeln. Was funktioniert: Nicht überzeugen, sondern eine konkrete Frage stellen, deren Antwort sie selbst wissen wollen — z.B. „Welche unserer Top-10-Kunden machen am häufigsten kurzfristige Auftragsänderungen?”. Wenn das Mining die Frage in 15 Minuten datenbasiert beantwortet, gewinnt das Werkzeug Glaubwürdigkeit, die keine Vendor-Demo erzeugen kann.
Was konkret hilft:
- Pro Pilotprozess eine namentliche Person aus dem Fachbereich als „Mining-Champion” benennen — sie ist erste Anlaufstelle und Validator für alle Befunde
- Vor jedem Reporting an die Geschäftsleitung eine Vorbesprechung mit den betroffenen Fachbereichen, damit niemand kalt erwischt wird
- Befunde immer mit zwei Zahlen kommunizieren: dem Mining-Datenpunkt und einer Stichprobe von 5–10 echten Vorgängen, die jeder im Tool nachverfolgen kann
- Einen 90-Tage-Bewertungszeitraum kommunizieren, bevor das Projekt als Erfolg oder Misserfolg eingestuft wird — Mining-Befunde brauchen Zeit, bis aus ihnen Maßnahmen werden, und aus Maßnahmen messbare Effekte
- Den Betriebsrat frühzeitig einbinden (siehe oben) — nicht weil er es fordert, sondern weil er dann später kein Vetospieler mehr ist, sondern Mitgestalter
Woran du merkst, dass das zu dir passt
- Du planst eine größere Automatisierungs-, RPA- oder ERP-Migrations-Investition und willst sie nicht nach Bauchgefühl priorisieren
- Eure Prozessdokumentation ist drei oder mehr Jahre alt und du hast den Verdacht, dass die Realität deutlich abweicht
- Du hast Geschäftssysteme im Einsatz, die Event-Logs schreiben — SAP, Salesforce, ServiceNow, Microsoft Dynamics, ein modernes Ticketsystem — und kommst an die Logs heran
- Du hast 50.000+ Vorgänge pro Jahr in mindestens einem Kernprozess — bei kleineren Volumina ist die Investition selten zu rechtfertigen
- Im Fachbereich gibt es einen Prozess-Owner, der nicht nur diagnostizieren, sondern auch umsetzen darf — Einkaufsleitung, Operations, Finance
- Auditor:innen oder Compliance fordern bessere Soll-Ist-Transparenz (z.B. SOX, ISO-Audit, Branchenregulierung)
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Unter ca. 50 Mitarbeitenden oder weniger als 10.000 Vorgängen pro Jahr im Pilotprozess. Der Aufwand für saubere Datenextraktion, Tool-Setup und Betriebsvereinbarung steht dann in keinem Verhältnis. In dieser Größenordnung ist eine moderierte Prozesswerkstatt mit den Beteiligten am Whiteboard ehrlicherweise das bessere Werkzeug — und kostet einen Bruchteil.
-
Quellsysteme sind hauptsächlich Excel-Dateien, papierbasierte Vorgänge oder E-Mail-Verkehr. Process Mining lebt von strukturierten Event-Logs aus transaktionalen Systemen. Wo Vorgänge in Excel-Listen gepflegt werden, gibt es keine sauberen Zeitstempel pro Aktivität — die Datenbasis fehlt. Erster Schritt ist dann nicht Mining, sondern die Einführung eines Workflow- oder Ticketsystems, das Logging automatisch mitbringt. Bei reinen Excel-Schattenprozessen siehe den verwandten Anwendungsfall Excel-Schattenprozess-Erkennung — andere Methodik, andere Werkzeuge.
-
Keine Person verfügbar, die die Mining-Plattform dauerhaft pflegt. Eine Process-Mining-Implementierung ohne kontinuierlichen Owner ist nach 18 Monaten wertlos: Quellsysteme verändern sich, Konnektoren brechen, niemand validiert die Befunde gegen die aktuelle Realität. Wer nicht mindestens 0,3 FTE für Datenpflege, Validierung und Stakeholder-Kommunikation freistellen kann, sollte das Projekt verschieben — oder von Anfang an mit einem externen Managed Service starten.
Process Mining Readiness Check
Beantworte 5 Fragen — du bekommst eine ehrliche Einschätzung, ob dein Unternehmen jetzt reif für Process Mining ist, und welches Tool passt.
Das kannst du heute noch tun
Du brauchst keinen Vendor-Termin. Du brauchst eine CSV-Datei.
Exportiere aus eurem ERP, CRM oder Ticketsystem ein typisches Prozess-Sample der letzten 6 Monate — Bestellungen, Tickets, Anträge — mit drei Spalten: Vorgangsnummer, Aktivität, Zeitstempel. 5.000 bis 50.000 Zeilen reichen. Dann lade Fluxicon Disco als 30-Tage-Trial herunter (oder nutze den Celonis Free Plan bei bis zu 1 GB), importiere die CSV, und sieh dir das automatisch generierte Prozessmodell an.
Was du in den nächsten 90 Minuten lernen kannst: Wie viele Varianten dein Prozess wirklich hat. Welche Schleifen niemand erwartet hatte. Wo der Engpass sitzt. Das ist mehr Erkenntnis, als die meisten Unternehmen aus drei Workshops mit ihrem Process Office ziehen.
Damit du strukturiert vorgehst, hier ein Prompt für ChatGPT oder Claude, der dir hilft, deinen ersten Mining-Befund mit der Geschäftsleitung zu strukturieren:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Forrester TEI Studie zu Celonis (Juli 2024, im Auftrag von Celonis): 383 % ROI über 3 Jahre, Payback in 6 Monaten, $44,1 Mio. Gesamtnutzen für eine zusammengesetzte Industrie-Organisation. Pressemitteilung Celonis. Methodische Einschränkung: Auftragsstudie eines Anbieters; kommunizierte Zahlen sind real, aber positiv selektiert.
- Deutsche Telekom Customer Story (Celonis, 2023): €66 Mio. Einsparung im Procure-to-Pay-Prozess durch Mining-getriebene Optimierung; 96 % Skontoquote. Customer Success Story.
- Siemens + Celonis (2023/2024): 24 % Erhöhung der Automatisierungsrate im Order-to-Cash, $8,7 Mio. Economic Value Added durch optimierte Lagerbestandsführung. Customer Story.
- Celonis Marktpreise: Vendr Marketplace-Daten 2025/2026. Vendr Celonis Pricing. Listenpreise nicht öffentlich; Beobachtungswerte aus Beschaffungsverhandlungen.
- Microsoft Power Automate Process Mining Preise: Microsoft Power Platform Pricing (Stand April 2026).
- Datenqualitäts-Probleme bei Event Logs: Anne Rozinat & Christian W. Günther, Process Mining Book, Kapitel „Detect and Fix Data Quality Problems”, Fluxicon. Online verfügbar.
- DSGVO und Mitbestimmung des Betriebsrats bei IT-Systemen: § 87 Abs. 1 Nr. 6 BetrVG; Datenschutzkanzlei und dr-datenschutz.de zu Mitbestimmungspflicht bei Mining-Systemen (dr-datenschutz.de).
- KMU-Adoption (97 % Erweiterungswunsch): Deloitte-Studie zu Process Mining im deutschen Mittelstand (November 2023), zitiert in Deloitte Insights.
- Erfahrungswerte zu Datenextraktion und Implementierungsdauer: Eigene Beobachtungen aus mittelständischen Process-Mining-Projekten (2023–2026), konsistent mit den Befunden bei Capgemini und viadee.
Du willst wissen, ob dein konkreter Prozess die Datenbasis für ein Mining-Projekt mitbringt — und welcher Pilotprozess der wirtschaftlichste Einstieg wäre? Meld dich — das klären wir gemeinsam in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Assistent für interne Wissensdatenbank
Ein KI-Assistent durchsucht alle internen Dokumente quellengenau und beantwortet Fragen direkt — für schnellere Informationsfindung und besseres Onboarding.
Mehr erfahrenAutomatisierte Meeting-Protokolle und Aufgaben
KI transkribiert Meetings, fasst Ergebnisse zusammen und extrahiert Aufgaben mit Verantwortlichkeiten — für lückenlose Dokumentation und weniger vergessene Maßnahmen.
Mehr erfahrenAutomatisierte Rechnungsverarbeitung
KI erkennt Rechnungsfelder automatisch, prüft auf Plausibilität und leitet zur Freigabe weiter — für schnellere Durchlaufzeiten und weniger manuelle Fehler.
Mehr erfahren