Zum Inhalt springen

Wer haftet, wenn die KI Fehler macht?

KI trifft Entscheidungen – aber wer ist verantwortlich, wenn es schiefgeht? Ein Überblick über Haftung und Verantwortung.

K
KI-Syndikat
· · 3 Min. Lesezeit
Wer haftet, wenn die KI Fehler macht?

KI-Systeme treffen täglich Millionen von Entscheidungen: Sie empfehlen Kreditvergaben, schlagen Ärzte Diagnosen vor, filtern Bewerbungen und steuern Fahrzeuge. Was passiert, wenn dabei etwas schiefgeht? Einen Überblick über die relevanten Gesetze – EU AI Act und DSGVO – findest du in unserem Artikel KI und Datenschutz.

Die juristische Antwort ist kompliziert. Die gesellschaftliche Antwort sollte es nicht sein. Ein Überblick.

Wo KI heute schon Entscheidungen trifft

Bevor wir über Haftung reden, lohnt sich ein Blick auf die Realität: KI-Systeme haben erhebliche Auswirkungen auf Menschen, oft unsichtbar.

Medizin: KI-Algorithmen analysieren Röntgenbilder und MRT-Scans, manchmal mit Genauigkeiten, die menschliche Radiologen übertreffen. Gleichzeitig gibt es dokumentierte Fälle, in denen KI systematisch bestimmte Patientengruppen schlechter diagnostizierte.

Kredit und Versicherung: Kreditscoring-Algorithmen entscheiden über Kreditanträge, oft auf Basis von Merkmalen, die mit Herkunft oder Wohnort korrelieren – was zu diskriminierenden Effekten führen kann.

Personalwesen: KI-gestützte Bewerbersichtung filtert Lebensläufe vor, bevor ein Mensch sie sieht. Amazon musste 2018 ein solches System abschalten, weil es systematisch Frauen benachteiligte — ein Warnsignal, das bis heute relevant ist.

Das Haftungsproblem: Wer ist schuld?

Bei klassischen Produkten ist Haftung relativ klar: Baut ein Autohersteller ein fehlerhaftes Bremssystem ein, haftet er. Bei KI ist es komplizierter, weil mehrere Akteure beteiligt sind:

  • Der Entwickler des Grundmodells (z. B. OpenAI für GPT-4)
  • Das Unternehmen, das das Modell einbindet und kommerzialisiert
  • Der Nutzer, der das Ergebnis anwendet

Wenn ein Arzt eine KI-gestützte Diagnose übernimmt, die falsch ist: Haftet das KI-Unternehmen? Der Arzt? Der Krankenhausbetreiber? Bisher gibt es dafür in den meisten Ländern keine klare rechtliche Antwort.

Was der EU AI Act regelt – und was nicht

Die EU hat mit dem AI Act das weltweit erste umfassende KI-Gesetz verabschiedet, das schrittweise in Kraft tritt. Es führt ein Risikoklassensystem ein:

Verbotene Anwendungen: z. B. Social Scoring nach chinesischem Vorbild, biometrische Massenüberwachung, manipulative KI.

Hochrisiko-KI: Systeme in Bereichen wie medizinische Geräte, kritische Infrastruktur, Kreditwürdigkeit, Strafverfolgung. Hier gelten strenge Anforderungen: Transparenz, menschliche Aufsicht, Fehlerprotokollierung.

Geringes Risiko: Chatbots, Empfehlungssysteme – hier reichen Transparenzpflichten (z. B. Kennzeichnung als KI).

Was der EU AI Act nicht vollständig löst: konkrete Haftungsfragen bei Schäden. Dafür gibt es separate Regulierung in Vorbereitung – die KI-Haftungsrichtlinie.

Was das für Unternehmen bedeutet

Für Unternehmen, die KI einsetzen oder einsetzen wollen, ergeben sich praktische Konsequenzen:

  1. Dokumentation ist Pflicht: Bei Hochrisiko-KI müssen Entscheidungen nachvollziehbar sein. Wer keine Logs führt, riskiert nicht nur Haftung, sondern auch Bußgelder.

  2. Menschliche Aufsicht: KI-Entscheidungen mit erheblichen Konsequenzen für Personen sollten immer von einem Menschen überprüft und freigegeben werden. Das schützt rechtlich und ist ethisch geboten.

  3. Anbieterverträge prüfen: Wer KI-Dienste einkauft, sollte klären, wer im Schadensfall haftet. Viele AGB von KI-Anbietern schließen Haftung weitgehend aus. Tools wie Harvey AI oder Luminance für juristische Aufgaben haben hier eigene vertragliche Besonderheiten.

  4. Datenschutz mitdenken: Viele KI-Systeme verarbeiten personenbezogene Daten. DSGVO und AI Act überschneiden sich hier – beide müssen eingehalten werden.

Die ethische Dimension

Über Paragraphen hinaus gibt es eine grundsätzliche Frage: Darf ein Algorithmus über menschliche Lebenschancen entscheiden, wenn wir nicht vollständig verstehen, wie er zu seinen Ergebnissen kommt?

Diese Frage wird nicht verschwinden. Unternehmen, die KI verantwortungsvoll einsetzen, stellen sie sich aktiv – und bauen Systeme, die transparent, überprüfbar und korrigierbar sind.

Die Technologie ist da. Die Regeln wachsen heran. Die Verantwortung lag immer beim Menschen. Für Unternehmen, die KI verantwortungsvoll einführen wollen, ist unsere Unternehmensseite ein guter Ausgangspunkt.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich am meisten? (Wähle 1–3 Themen)

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar