KI und Produkthaftung

Wer haftet für Künstliche Intelligenz?

Kommentar  05.08.2020
Philipp Reusch ist Rechtsanwalt, Founding Partner und Teamleader Regulatory Affairs & Marktmaßnahmen. Er ist ferner Lehrbeauftragter für Produkthaftung und Produktsicherheit an der RWTH Aachen sowie Gründer der auf Produkthaftung spezialisierten Anwalts-Boutique reuschlaw Legal Consultants.
KI und Produkthaftung sind ein moving target: Die Realität verändert sich fortlaufend, die rechtlichen Rahmenbedingungen hecheln konsequent hinterher. Wir zeigen, welche Aspekte Unternehmen dabei beachten sollten.
Noch gibt es für die KI-Nutzung keinen stabilen Rechtsrahmen. Experten gehen davon aus, dass dies noch zehn Jahre dauern könnte.
Noch gibt es für die KI-Nutzung keinen stabilen Rechtsrahmen. Experten gehen davon aus, dass dies noch zehn Jahre dauern könnte.
Foto: Alexander Limbach - shutterstock.com

Wer in Sachen KI-Nutzung auf einen rechtlich stabilen und für die Wirtschaft planbaren Zustand warten möchte, wird nach meiner Prognose vor dem Ende der 2020er Jahre keine Beiträge dieser Art mehr lesen müssen. Selbst etliche der hier gemachten Aussagen dürften bereits Ende dieses Jahres sicherlich an der einen oder anderen Stelle neu interpretiert werden.

Wer sich davon nicht abschrecken lässt, wird feststellen, dass sich die rechtliche Sicherheit rund um Künstliche Intelligenz (KI) und deren Herstellung und Nutzung als ein Problem aller Beteiligten darstellt. Nichtsdestotrotz existieren bereits heute Leitplanken, an denen aktuelle und zukünftige Überlegungen ausgerichtet werden können.

KI und die ungeklärte Definitionsfrage

Zunächst sind einige Begrifflichkeiten zu klären. Künstliche Intelligenz wird häufig als selbstlernend verstanden. Sie ist deswegen aber noch lange nicht autonom in ihren Entscheidungen. Umgekehrt sind auch nicht alle autonom entscheidenden Systeme selbstlernend: Das wäre etwa bei einem autonomen Fahrzeug sicherlich nicht im Sinne vieler Verkehrsteilnehmer. Wer politische Konzepte zum Umgang mit Künstlicher Intelligenz liest, stellt häufig fest, dass dort Künstliche Intelligenz sehr häufig mit den Charakteristika autonom und selbstlernend belegt ist. Das ist aus Sicht der Praktiker nicht richtig, erklärt aber die sich daraus ergebenden Regulierungsgedanken.

Wegen der zwingenden Annahme von selbstlernenden Mechanismen ist rechtlich auch immer die Frage nach den verwendeten Daten von Interesse, die auch als Lernmaterial verwendet werden. Hierum kreisen viele Gedanken des Gesetzgebers, vor allem unter ethischen Gesichtspunkten wie Diskriminierung und natürlich auch Datenschutz. Für die nachfolgenden Überlegungen spielen diese ethischen Aspekte aber keine Rolle, da es als Hersteller und Betreiber von KIKI darum geht, über existierende rechtliche Rahmenbedingungen Bescheid zu wissen. Alles zu Künstliche Intelligenz auf CIO.de

Künstliche Inztelligenz sucht rechtliche Basis

Die Suche nach solchen Regelungen führt zwar schnell zum Ergebnis, ernüchtert aber ebenso zügig: Weder in Deutschland noch in der EU existiert eine gesetzliche Basis, die Herstellung und Betrieb von KI auch nur ansatzweise regelt. Es gibt mehrere Projekte, in denen dieses Thema politisch getrieben wird; so hat sich beispielsweise in Deutschland die Enquete-Kommission des Bundestages mit dem Thema befasst. In ihrem Abschlussbericht Ende Oktober 2020 prägte sie das Leitbild einer "Menschenzentrierten KI". Eine Kurzfassung des über 700 Seiten langen Abschlussberichts der "Enquete Kommission Künstliche Intelligenz" finden Sie hier. Die Europäische Kommission hat das in einem Whitepaper Anfang des Jahres schon getan. Diese Regelungen zeigen zumindest ansatzweise, welche gedankliche Richtung der Gesetzgeber in Zukunft einschlagen wird.

Auf der anderen Seite findet KI nicht im rechtsfreien Raum statt. Produkthaftunsgrechtlich sei KI wie ein schadhafter Toaster zu behandeln, so eine Rechtsauffassung.
Auf der anderen Seite findet KI nicht im rechtsfreien Raum statt. Produkthaftunsgrechtlich sei KI wie ein schadhafter Toaster zu behandeln, so eine Rechtsauffassung.
Foto: sdecoret - shutterstock.com

Es gibt auch heute Regelungen für die Haftung von Hersteller und Betreiber, wenn Produkte Personen- oder auch Sachschäden verursachen. Diese Regelungen gelten für Toaster ebenso wie für Systeme mit KI. Die vom Hersteller fehlerhaft programmierte KI, das Embedded Product mit fehlerhaft angelernter KI und auch die Angreifbarkeit von KI aufgrund fehlender Sicherheitsstandards sind produkthaftungsrechtlich genauso zu behandeln wie die fehlerhafte Lötstelle in einem Toaster. Dasselbe gilt für den Betreiber von Produkten und Systemen mit KI. Die Betreiber haften, wenn Produkte aufgrund inkorrekter Einstellungen, falscher und nicht fachgerechter Umgebung sowie unzureichender und fehlerhafter Daten in einem möglichen Lernprozess zu Schäden bei den Kunden führen. Hierfür existieren allgemein gültige Haftungsregelungen.

Vielfach werden allerdings Beweisschwierigkeiten bei KI vermutet, weil die Entscheidung der KI nicht transparent ist. Diese sogenannte Opazität entsteht, da üblicherweise viele Beteiligte an Herstellung und Vertrieb von Produkten mit KI mitwirken. Somit kann keine Ursächlichkeit auf ein Unternehmen oder eine Person bezogen nachgewiesen werden. Diese Vermutungen sind zum Teil berechtigt, auch wenn das bei vielen anderen Produkten - und ein Fahrzeug ist mit 35.000 Komponenten und einem Steuergerät mit über 50.000 Parametern sicherlich keine einfach nachweisbare Fehlerquelle - ähnlich ist.

Daraus schlussfolgert die Politik in der EU und auch in Deutschland einen speziellen Ansatz für KI. Der Blick in die gesetzgeberische Glaskugel lässt vermuten, dass die zukünftige rechtliche Basis für die Herstellung und den Einsatz von KI auf einem anderen Ansatz als dem bisherigen produkthaftungsrechtlichen Rahmen beruht.

Gefährdungshaftung und neue Versicherungen für KI?

Die Bestrebungen laufen dabei in Richtung eines risikobasierten Ansatzes: Risikoarme KI-Produkte unterliegen wenigen Regelungen, riskantere Lösungen jedoch erheblichen Anforderungen bis hin zu einer externen Fremdüberwachung und Zertifizierung. Um die Geltendmachung von Schäden zu erleichtern, wird es eine Gefährdungshaftung geben - also ohne Verschulden oder sogar ohne unerlaubte Handlungen. Ob die Gefährdungshaftung beim Hersteller, beim Betreiber oder sogar bei beiden verankert wird, ist noch nicht abzusehen.

Kommt für KI eine Gefährdungshaftung ähnlich wie für Fahrzeughalter?
Kommt für KI eine Gefährdungshaftung ähnlich wie für Fahrzeughalter?
Foto: metamorworks - shutterstock.com

Weiterhin gibt es Bestrebungen, den Betreiber wie etwa auch den Fahrzeughalter in Anspruch zu nehmen. Allerdings ist zu bezweifeln, dass sich diese Ansicht durchsetzen wird. Unabhängig davon soll über eine Pflichtversicherung beim Betreiber nachgedacht werden. In dem Fall können sich die Geschädigten an den nächstgreifbaren Verursacher wenden, der außer durch das Betreiben der KI keine schadensrelevante Ursache gesetzt hat. Der Regress der gezahlten Summe läuft dann zwischen Versicherer und Hersteller ab. Erste Reaktionen aus der Versicherungswirtschaft lassen allerdings nicht den Schluss zu, dass hier schnell die ersten Policen-Modelle entstehen werden.

KI-Anforderungen bereits heute implementieren

Was bedeutet das für Unternehmen, die KI herstellen und nutzen wollen? Die wichtigste Erkenntnis aus diesen Ausführungen ist wohl, dass die heutigen Regelungen auch für KI, für Software, als auch für autonome, selbstlernende Systeme gelten. Die Anforderungen, die die Rechtsprechung an die fehlerfreien Produkte und die Organisation von Unternehmen stellt, sollten bereits heute implementiert werden.

Die sich abzeichnenden speziellen Regelungen für KI werden vielfach auf Standards und Normen basieren, von der Einschätzung der Risikostufe bis zu den Mindestvorgaben an Programmierung und Tests sowie deren Zertifizierung. Je früher und stärker sich die Wirtschaft in diese zukunftsorientierte Prozesse einbringt, desto wahrscheinlicher ist eine praxisgerechte rechtliche Ausgestaltung. (hi/fm)

Zur Startseite