Zum Inhalt springen
Finanzwesen & Versicherung risikobewertungkreditfinanzen

KI-gestützte Risikoeinschätzung

KI analysiert Kreditanträge, Kundendaten und Marktinformationen schneller und konsistenter als manuelle Prüfprozesse.

Worum geht's?

Es ist Montag, 9:15 Uhr. Sarah führt seit drei Jahren das gleiche Gespräch mit dem Kreditausschuss. Ein Antrag liegt vor: ein Handwerksbetrieb, acht Mitarbeiter, solide Auftragslage, möchte eine Maschine für 80.000 Euro finanzieren. Schufa-Score: 82. Kredithistorie: kurz, weil das Unternehmen jung ist.

Der Kollege links sagt: „Sehe ich positiv, die Cashflows aus dem letzten Jahr sind gut.” Der Kollege rechts sagt: „Kredithistorie zu kurz, zu risikoreich.” Sarah sitzt in der Mitte und weiß: Dieselbe Akte, zwei verschiedene Tage, zwei verschiedene Entscheidungen.

In der Bank gegenüber hat ein FinTech-Wettbewerber denselben Antrag in vier Minuten automatisch bewertet — anhand von 200 Merkmalen, darunter Branchenentwicklung, Zahlungsverhalten des Geschäftskontos und dem regionalen Auftragsindex für Handwerksbetriebe. Und die Bank gegenüber hat den Kredit gegeben. Sarah erfährt das zwei Wochen später, als der Unternehmer sagt, er hätte woanders unterschrieben.

Das echte Ausmaß des Problems

Ein Kreditantrag für eine mittelständische Unternehmensfinanzierung dauert bei klassischen Prozessen 3 bis 8 Wochen — von der Einreichung der Unterlagen bis zur Kreditentscheidung. Das Volumen des deutschen Kreditmarktes liegt bei über 2 Billionen Euro ausstehender Bankkredite an Unternehmen und Privathaushalte. Gleichzeitig befinden sich die Risikomodelle vieler kleinerer und mittlerer Banken noch auf dem Stand der 1990er Jahre: lineare Scoringmodelle auf wenige Finanzkennzahlen, ergänzt um subjektive Einschätzung durch den Kundenberater.

Die Ausfallquoten von Unternehmen mit veralteten Bewertungsmodellen liegen laut EZB-Statistiken 30 bis 50 Prozent höher als bei Instituten mit modernen Machine Learning-Modellen. Und das dritte Problem liegt in der Inkonsistenz manueller Risikoeinschätzung: Zwei Kundenbetreuer kommen bei identischen Fällen zu unterschiedlichen Einschätzungen, je nach Erfahrung, Tagesform und Risikoaversion. Das ist regulatorisch problematisch (ECB Supervisory Guide verlangt konsistente Entscheidungsprozesse) und führt zu einer ungleichmäßigen Risikosteuerung im Portfolio.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI
Kreditentscheidung (Standardfall)3–8 WochenStunden bis Tage
EntscheidungskonsistenzVariabel (beraterabhängig)Konsistent nach Modell
Kreditausfallquote (laut EZB)Vergleichsgrundlage20–30 % niedriger
EntscheidungsbegründungSubjektiv, schwer auditierbarNachvollziehbar (SHAP-Werte)
Aufwand für StandardkrediteVollständige SachbearbeitungAutomatische Vorentscheidung

Die EZB-Zahlen zur Ausfallquote beziehen sich auf den Vergleich von Instituten mit modernen ML-Modellen gegenüber traditionellen Scoringverfahren. Institutsindividuelle Ergebnisse hängen stark von Datenqualität, Portfoliostruktur und Kalibrierungsaufwand ab.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Die Entscheidungszeit für Standardkredite sinkt von Wochen auf Stunden — ein erheblicher Gewinn. Aber der Effekt auf die täglich gelebte Arbeitszeit ist weniger direkt spürbar als bei der Protokollierung oder Schadenbearbeitung: Es werden mehr Anträge bearbeitet, nicht weniger Stunden gearbeitet. Der Zeitgewinn manifestiert sich als Kapazitätsgewinn für komplexere Fälle.

Kosteneinsparung — hoch (4/5) Die Kostenkomponente ist ungewöhnlich direkt messbar: Weniger Kreditausfälle = weniger Wertberichtigungen = bessere P&L. Bei einem 500-Millionen-Euro-Portfolio und 1 Prozent niedrigerer Ausfallquote sind das 5 Millionen Euro jährlich. Dieser Effekt rechtfertigt erhebliche Investitionen in Modellentwicklung.

Schnelle Umsetzung — sehr niedrig (1/5) Das ist der schwierigste Einstieg in dieser Kategorie. Datenaufbereitung, Feature Engineering, Modelltraining, XAI-Integration, Schatten-Parallelbetrieb, regulatorische Validierung nach EU-KI-Verordnung und EBA-Leitlinien — realistischer Zeitplan von Projektstart bis Produktivbetrieb: 8 bis 15 Monate. Ohne eigenes Data-Science-Team oder einen spezialisierten Dienstleister ist das kein realistisches Projekt.

ROI-Sicherheit — mittel (3/5) Die Ausfallreduktion ist das Ziel, aber keine Garantie. Modelle, die auf historischen Daten trainiert wurden, verhalten sich nicht zwangsläufig gut bei veränderter Wirtschaftslage. Laufendes Modell-Monitoring und regelmäßiges Retraining sind Pflicht — das ist Betriebsaufwand, der in der ROI-Rechnung stehen muss.

Skalierbarkeit — sehr hoch (5/5) Kein anderer Anwendungsfall in dieser Kategorie skaliert besser: Das Modell bewertet 10.000 Kreditanträge genauso wie 100, ohne proportionalen Personalmehrbedarf. Wachstumsstrategien im Kreditgeschäft werden durch ein gutes ML-Modell nicht durch Sachbearbeiterkapazität begrenzt.

Richtwerte — stark abhängig von Portfoliogröße, Datenqualität und Modell-Komplexität.

Was KI bei der Risikoeinschätzung konkret macht

Schritt 1: Feature Engineering aus Antragsdaten KI-Risikomodelle verarbeiten deutlich mehr Merkmale als klassische Scoringmodelle: neben Bilanzkennzahlen auch Zahlungsverhalten in der Vergangenheit, Branchenrisiken, Makrodaten, regionale Wirtschaftsentwicklung, Verhaltensmerkmale aus dem Antragsprozess selbst. Dieses Feature Engineering ist der entscheidende Qualitätssprung gegenüber klassischen 5-Kennzahlen-Modellen.

Schritt 2: Modelltraining auf historischen Kreditportfoliodaten Das Modell lernt aus tausenden historischer Kreditfälle: Welche Kreditnehmer haben pünktlich zurückgezahlt, welche sind ausgefallen? Gradient-Boosting-Modelle (XGBoost, LightGBM) haben in Banking-Anwendungen regelmäßig bessere Diskriminierungskraft (AUC 0,85+) als klassische logistische Regressionen.

Schritt 3: Erklärbare Entscheidungen (Pflicht nach EU-KI-Verordnung) Seit August 2024 gelten Kreditscoring-Systeme als Hochrisiko-KI-Systeme nach dem EU AI Act. Kreditablehnungen müssen erklärbar sein. SHAP-Werte (SHapley Additive exPlanations) zeigen für jede Entscheidung, welche Merkmale das Risikoscoring positiv oder negativ beeinflusst haben: „Hauptfaktor: Unregelmäßige Einkommensnachweise in den letzten 6 Monaten.” Der Kundenberater kann dem Antragsteller konkrete Begründungen nennen.

Schritt 4: Workflow-Integration Anträge unter einem definierten Schwellenwert werden automatisch genehmigt oder abgelehnt. Der Graubereich dazwischen geht zum menschlichen Berater — aber mit einer vorbereiteten Risikoanalyse, die manuelle Analyse auf Plausibilitätsprüfung reduziert.

Datenqualität als Voraussetzung

KI-Risikomodelle sind nur so gut wie die Daten, auf denen sie trainiert werden. Bevor ein Projekt startet, sollten folgende Fragen beantwortet sein:

  • Wie viele Kreditfälle mit klaren Outcomes (ausgefallen / nicht ausgefallen) liegen vor? Als Faustregel: Mindestens 500–1.000 Ausfälle für ein statistisch valides Modell. Wer zu wenig hat, muss externe Daten (Schufa, Creditsafe) einbeziehen oder Transfer Learning nutzen.
  • Wie vollständig sind die historischen Daten? Fehlende Felder in mehr als 20 Prozent der Fälle erfordern Imputationsstrategien, die die Modellqualität beeinflussen.
  • Welche Features sind diskriminierungsfrei? Das Allgemeine Gleichbehandlungsgesetz (AGG) und die EBA-Leitlinien verbieten Kreditentscheidungen auf Basis geschützter Merkmale (Geschlecht, Herkunft). Das Modell darf keine Proxyvariablen verwenden, die auf diesen Merkmalen beruhen — Fairness-Audits sind Pflicht.

Rechtliche Besonderheiten

Die EU-KI-Verordnung stuft Kreditscoring-Systeme als Hochrisiko-KI ein (Anhang III). Das bedeutet konkret: Konformitätsbewertung vor Inbetriebnahme, laufendes Risikomanagementsystem, vollständige Logging-Infrastruktur, menschliche Aufsicht und Transparenzanforderungen. Die vollständige Anwendbarkeit für Hochrisiko-Systeme gilt ab August 2026 — Projekte, die jetzt starten, sollten compliance-ready planen.

Die DSGVO Art. 22 schränkt vollautomatisierte Kreditentscheidungen ein: Kunden haben das Recht auf menschliche Überprüfung von Ablehnungen, auf Erklärung und auf Widerspruch. Das bedeutet nicht, dass Automatisierung verboten ist — aber ein Human-in-the-Loop für Ablehnungen ist regulatorisch erforderlich.

EBA-Leitlinien für maschinelles Lernen in der Kreditrisikoabschätzung (EBA/GL/2023/06) verlangen unter anderem: Modell-Governance-Framework, regelmäßige Validierungen, Stress-Tests und Dokumentation der Modellentwicklung.

Konkrete Werkzeuge — was wann passt

SCHUFA — Unverzichtbarer Input für fast alle deutschen Kreditrisikomodelle. Externe Bonitätsdaten als Basis-Feature. API-Zugang erfordert Vertragsabschluss mit SCHUFA. Kosten: volumenbasiert, 0,50–3,00 Euro pro Anfrage.

Creditsafe — Unternehmensbonitätsdaten für die Kreditvergabe an Gewerbetreibende. Bietet API-Zugang zu Bonitätsdaten, Jahresabschlüssen und Branchenvergleichen für deutsche und europäische Unternehmen.

Experian PowerCurve — Integrierte Kreditrisikomanagement-Plattform mit ML-Modell-Bausteinen. Gut für mittelgroße Finanzinstitute, die eine fertige Plattform statt Eigenentwicklung suchen. Enterprise-Preisgestaltung.

AWS SageMaker — Für Institute mit eigenem Data-Science-Team: ML-Plattform für Training, Deployment und Monitoring von Kreditrisikomodellen. Vollständige Kontrolle über Daten und Algorithmen, DSGVO-konform mit EU-Region-Hosting. Kosten: 1.000–10.000 Euro/Monat je nach Nutzung.

Power BI — Für das Risikoportfolio-Monitoring: Regelmäßige Auswertungen des Kreditportfolios nach Risikoklassen, Ausfallquoten und Frühwarnsignalen.

Was es kostet — realistisch gerechnet

Einstieg (regelbasiertes Scoring-Upgrade, kleines Institut)

  • Externe Scoringdaten (Schufa, Creditsafe): 0,50–3,00 Euro pro Anfrage
  • Regelbasiertes Scoring auf Basis von 10–15 Kennzahlen: 2–4 Wochen Entwicklungsaufwand intern
  • Ergebnis: Konsistentere Entscheidungen, schnellere Bearbeitung, aber kein echter ML-Vorteil

Skaliert (ML-Modell auf eigenem Kreditportfolio, Sparkasse/Regionalbank)

  • Data-Science-Team oder externer ML-Dienstleister: 80.000–300.000 Euro Projektkosten
  • Laufende Modellüberwachung und Rekalibrierung: 20.000–60.000 Euro/Jahr
  • Regulatorische Validierung (EU-KI-VO Hochrisiko): 20.000–40.000 Euro einmalig

ROI-Beispiel: Bank mit 500 Millionen Euro Kreditportfolio, aktuelle Netto-Ausfallquote 1,2 Prozent (6 Millionen Euro/Jahr). ML-Modell reduziert Ausfallquote um 25 Prozent auf 0,9 Prozent = 1,5 Millionen Euro weniger Kreditausfälle pro Jahr. Modellentwicklungskosten: 150.000 Euro einmalig. Laufende Kosten: 50.000 Euro/Jahr. ROI bereits im ersten Betriebsjahr — aber erst ab Monat 9–12, wenn der Produktivbetrieb läuft.

Vier typische Einstiegsfehler

1. Mit zu wenig historischen Ausfällen trainieren. Wer zu wenig gelabelte Ausfälle hat, trainiert ein Modell, das auf dem Trainingsdatensatz gut aussieht, aber in der Produktion schlecht generalisiert. Lösung: erst Datenbasis prüfen, dann über ML-Modell nachdenken. Bei zu dünner Datenbasis Transfer Learning oder externe Dateneinkäufe in Betracht ziehen.

2. Modell ohne laufendes Monitoring deployen. Kreditrisikomodelle sind keine statischen Systeme. Wirtschaftslage, Zinsumfeld und Branchenentwicklungen verändern die Ausfallmuster. Ein Modell, das ohne regelmäßige Revalidierung läuft, trifft nach 18 bis 24 Monaten keine zuverlässigen Entscheidungen mehr. Monitoring-Budget gehört von Beginn an in die Kalkulation.

3. EU-KI-Verordnung als nachgelagerte Aufgabe behandeln. Wer ein Hochrisiko-KI-System entwickelt ohne die Compliance-Anforderungen von Anfang an einzuplanen, muss das System nach Fertigstellung oft komplett überarbeiten. Konformitätsbewertung, Logging-Infrastruktur und Fairness-Audits sind keine Add-ons, sondern Designprinzipien.

4. Den Wartungsbedarf nach dem Launch unterschätzen. Das Modell braucht regelmäßige Revalidierung, jährliches Retraining auf neuen Daten, Stress-Tests bei geänderter Wirtschaftslage und Bias-Monitoring. Dafür braucht es eine klare interne Verantwortung und ein Budget, das nicht nach dem ersten Jahr gestrichen wird.

Was mit der Einführung wirklich passiert — und was nicht

Kreditbetreuer reagieren oft skeptisch: „Ein Algorithmus versteht den Kunden nicht.” Das stimmt für komplexe Firmenkredite mit qualitativen Faktoren. Es stimmt nicht für standardisierte Privatkredite und Kleinfirmenfinanzierungen, wo Studien konsistent zeigen, dass ML-Modelle menschliche Kreditentscheider in der Vorhersagegenauigkeit übertreffen — besonders über große Volumina.

Was die Einführung wirklich braucht: eine klare Kommunikation, dass das Modell Sachbearbeiter nicht ersetzt, sondern entlastet. Die schwierigen Fälle — komplexe Firmenkredite, Sondersituationen, Kunden mit ungewöhnlicher Biografie — bleiben beim Menschen. Was automatisiert wird, sind die Standardfälle, bei denen die Entscheidung nach den ersten drei Minuten bereits klar ist.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Daten-Audit & KredithistorieMonat 1–2Historische Kreditdaten mit Outcomes aufbereiten, Datenlücken schließenZu wenige Ausfälle im historischen Portfolio — Datenerweiterung oder externe Daten nötig
Feature Engineering & ModellentwicklungMonat 2–4Relevante Merkmale definieren, Modell trainieren, Cross-ValidationDiskriminierungsfreie Features nach AGG sicherstellen — Fairness-Audit einplanen
XAI-Integration & DokumentationMonat 4–5SHAP-Werte integrieren, Entscheidungsbegründungen dokumentieren, EU-KI-VO-Anforderungen prüfenEBA-Compliance-Prüfung aufwendiger als erwartet — externe Compliance-Berater empfehlenswert
Pilot-Betrieb (Schattenmodus)Monat 5–7Parallelbetrieb KI-Score + manuelles Urteil, Kalibrierung der SchwellenwerteKundenberater überschreiben KI-Empfehlung zu häufig — Feedback-Loop für Modellverbesserung einrichten
Vollbetrieb & MonitoringAb Monat 8KI-Score als primäre Entscheidungsbasis, monatliche Modell-Performance-ÜberwachungModell-Drift bei geänderter Wirtschaftslage — jährliches Retraining und Stress-Tests einplanen

Häufige Einwände — und was dahintersteckt

„KI-Kreditentscheidungen sind regulatorisch problematisch.” Vollautomatische Kreditentscheidungen ohne Erklärbarkeit sind nach DSGVO Art. 22 tatsächlich eingeschränkt. Das Modell muss erklärbar sein (SHAP, LIME) und ein menschlicher Überprüfungsprozess für Ablehnungen muss vorgesehen sein. Gut implementierte XAI-Systeme erfüllen diese Anforderungen — die EBA hat klargestellt, dass ML-Kreditmodelle zulässig sind, wenn sie erklärbar und fair sind.

„Unsere Kreditdaten sind zu alt oder unvollständig für ML.” Das ist oft der Startpunkt. Mit Transfer Learning lassen sich Modelle, die auf größeren Portfolios trainiert wurden, als Ausgangsbasis für kleinere Institute nutzen. Alternativ ist der externe Dateneinkauf (Schufa, Creditsafe) ein sinnvoller Ausgangspunkt.

„Was passiert, wenn das Modell systematisch falsch liegt?” Das ist der Kernpunkt des Modell-Monitorings. Kreditrisikomodelle müssen regelmäßig auf Modell-Drift überwacht werden: Verschiebt sich die Verteilung der Risikoklassen? Steigen Ausfälle in bestimmten Segmenten? Wenn ja, muss das Modell rekalibriert werden. Ohne laufendes Monitoring ist kein ML-Modell dauerhaft zuverlässig.

Woran du merkst, dass das zu dir passt

  • Dein Institut vergibt mehr als 500 Kredite pro Jahr in einem standardisierbaren Produktsegment (Konsumkredit, Kleinfirmenfinanzierung).
  • Deine historische Kreditdatenbank enthält mindestens 500 Ausfallsfälle mit vollständigen Merkmalen.
  • Die Kreditentscheidung dauert heute mehr als eine Woche für Standardfälle.
  • Ihr verliert Kunden an schnellere FinTechs oder Direktbanken.
  • Ein eigenes Data-Science-Team oder ein externer ML-Dienstleister ist verfügbar.

Das passt noch nicht, wenn:

  • Dein Institut vergibt weniger als 200 Kredite pro Jahr — die Datenbasis ist zu dünn für valide ML-Modelle.
  • Es gibt kein strukturiertes historisches Kreditportfolio mit Outcome-Daten — ohne diese Grundlage ist kein Training möglich.
  • Das Institut hat kein Data-Science-Team und kein Budget für externe Dienstleister — ohne technische Expertise kein seriöses ML-Projekt.

Das kannst du heute noch tun

Starte mit einer Datenqualitätsprüfung. Exportiere die letzten 200 Kreditentscheidungen mit Antragsdaten und Outcome (ausgefallen / nicht ausgefallen) und lass diesen Prompt laufen:

Kreditdaten-Audit für ML-Readiness
Du bist ein erfahrener Data-Science-Berater mit Schwerpunkt Kreditrisikomodellierung. Analysiere die folgenden Kreditentscheidungsdaten und bewerte, ob eine ML-basierte Risikomodellierung sinnvoll wäre. Kreditdaten-Zusammenfassung: - Anzahl Kreditentscheidungen: [ANZAHL] - Zeitraum: [VON]-[BIS] - Davon ausgefallen: [ANZAHL_AUSFÄLLE] ([QUOTE %]) - Verfügbare Merkmale pro Antrag: [LISTE DER MERKMALE] - Durchschnittliche Vollständigkeit der Daten: [PROZENTSATZ] Bitte beantworte: 1. Ist die Datenbasis ausreichend für ein valides ML-Modell? 2. Welche der verfügbaren Merkmale sind wahrscheinlich die stärksten Prädiktoren? 3. Welche Merkmale könnten unter AGG/EU-KI-Verordnung problematisch sein? 4. Was wären die wichtigsten Datenbereinigungsschritte vor dem Modelltraining? 5. Welcher Ansatz wäre für diesen Datensatz realistisch — regelbasiertes Upgrade, Transfer Learning oder Eigenentwicklung? Sei ehrlich über Schwächen in der Datenbasis.
Funktioniert mit ChatGPT, Claude
Beispiel-Ausgabe

Mitarbeiter:in

450 Kreditentscheidungen, 2021–2024. 23 Ausfälle (5,1%). Merkmale: Schufa-Score, Jahreseinkommen, Beschäftigungsdauer, Kreditbetrag, Laufzeit, Branche, PLZ. Vollständigkeit: 87%. Branche fehlt bei 18% der Einträge.

KI-Assistent

Daten-Audit-Ergebnis: 1. Datenbasis: Grenzwertig. 23 Ausfälle sind am unteren Ende für valide Modellierung. Empfehlung: mindestens 500+ Ausfälle oder Transfer Learning von einem größeren Basismodell. 2. Wahrscheinlich stärkste Prädiktoren: Schufa-Score (direkteste Bonitätsindikation), Verhältnis Kreditbetrag/Jahreseinkommen, Beschäftigungsdauer (Stabilitätsindikator). 3. Mögliche AGG-Problematik: PLZ kann als Proxy für ethnische Herkunft oder sozioökonomischen Status fungieren — fairness-kritisch. Branche enthält Gender-Proxies (bestimmte Branchen sind stark geschlechtertypisiert). Beide Merkmale im Fairness-Audit separat testen. 4. Datenbereinigung: Branche bei 18% fehlend — Imputation oder Ausschluss als Feature prüfen. Ausreißer bei Schufa-Score und Einkommen separat analysieren. 5. Empfehlung: Bei 23 Ausfällen kein eigenentwickeltes ML-Modell — zu geringes Trainingsvolumen. Sinnvoller: Transfer Learning von einer öffentlichen Credit-Scoring-Baseline oder regelbasiertes Scoring-Upgrade mit wenigen stärksten Merkmalen als Einstieg.

Quellen & Methodik

  • EZB (Europäische Zentralbank): Statistiken zu Kreditausfallquoten nach Modelltyp, 2022–2024
  • EBA/GL/2023/06: EBA-Leitlinien für den Einsatz von maschinellem Lernen in der Kreditrisikoabschätzung
  • EU AI Act (Verordnung EU 2024/1689): Anforderungen an Hochrisiko-KI-Systeme im Kreditbereich
  • DSGVO Art. 22: Rechte bei automatisierten Kreditentscheidungen
  • AGG (Allgemeines Gleichbehandlungsgesetz): Diskriminierungsverbote bei Kreditvergabe
  • Erfahrungswerte: Zeitangaben und ROI-Berechnungen basieren auf Branchenerfahrungen 2022–2025. Kostenschätzungen reflektieren Stand April 2026. Regulatorische Einschätzungen sind allgemeine Orientierungshilfen — keine Rechtsberatung.
🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Mit dem Absenden stimmst du unserer Datenschutzerklärung zu.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar