Von Dr. Paul Klickermann, Rechtsanwalt, Fachanwalt für Urheber- und Medienrecht, Kläner Rechtsanwälte, Koblenz 

Die Künstliche Intelligenz (KI) hat in der Europäischen Union (EU) einen hohen Stellenwert erreicht. Die Expertengruppe der EU-Kommission (Artifical Intelligence High-Level Expert Group, kurz: AI HLEG) beschäftigt sich zum einen mit den technischen Rahmenbedingungen und zum anderen mit Haftungsfragen, die durch den Einsatz von KI entstehen. Dies ist gerade für die Automobil- und Zulieferindustrie von Bedeutung, da bestimmte Produktionsprozesse auf KI und Robotik beruhen, die Konnexität, Autonomie und Datenabhängigkeit miteinander verknüpfen, ohne dass es einer menschlichen Steuerung bedarf.

Damit überhaupt das derzeitige Haftungsregime auf KI übertragen werden kann, setzt dies voraus, dass der Begriff KI definiert wird. Hierzu gibt es verschiedene Ansätze.

Die EU-Kommission definiert bspw. KI, wonach es sich um datenanalysierende und selbsterlernende Anwendungen handelt. Es wird dabei zwischen verschiedenen Graden von Automatisierung unterschieden, die selbständig die ihrem Verhalten zu Grunde liegenden Algorithmen verändern. Diese Veränderung hat insbesondere haftungsrechtliche Auswirkungen auf die Vorhersehbarkeit und Zuordnung eines Produktfehlers an ein menschliches Verhalten. Nicht ohne Grund sieht die EU-Kommission in der auf KI beruhenden unbeabsichtigten Ergebnissen ein Gefährdungspotenzial für Nutzer. Das Deutsche Forschungszentrum für künstliche Intelligenz (DFKI) versteht unter KI bestimmte Eigenschaften eines IT-Systems, das menschenähnliche Verhaltensweisen aufweist. Beiden Definitionen ist gemein, dass Parallelen zu menschlichem Verhalten gezogen werden und KI einem stetigen Wandel unterzogen ist.

Bei Inverkehrbringen von KI-Anwendungen (z. B. durch Software) steht besonders der Hersteller im Fokus. Die Haftung ist vertraglich oder deliktisch denkbar.

Das Bürgerliche Gesetzbuch (BGB) geht vom Grundsatz der Verschuldenshaftung aus. Dies setzt ein menschliches Verhalten voraus. Hier kommen bei einer Software nicht nur Hersteller sondern auch Betreiber und Programmierer in Betracht. Schwierig wird es sein, die jeweiligen Verursachungsbeiträge der Handelnden aufzuklären. Eine multiple Kausalität in den Wertschöpfungsnetzwerken lässt eine Verantwortlichkeit kaum bestimmen. Deshalb werden wesentliche Haftungsrisiken in der Praxis vertraglich abbedungen, soweit dies rechtlich möglich ist. So werden entsprechende Leistungsansprüche an die KI-Software durch sog. „Service-Level-Agreements“ geklärt, in denen die Anforderungen näher bestimmt sind. Eine direkte Haftung autonomer Roboter bzw. Software wird derzeit unter dem Aspekt einer rechtsfähigen „E-Person“ diskutiert. Dies hätte zur Folge, dass das BGB verändert werden müsste. Dies ist noch nicht absehbar.

Weiterhin können auch deliktische Haftungsansprüche aus unerlaubter Handlung in Betracht kommen, die eine Sorgfaltspflichtverletzung voraussetzen. Eine solche Pflichtverletzung ist dann anzunehmen, wenn dem Nutzer bzw. Anwender durch positives Tun oder Unterlassen des Herstellers der KI-Software ein Schaden entstanden ist. Dieses verschuldensabhängige Haftungssystem wird ohne weitere Adaption kaum geeignet sein, die Haftungsrisiken für Personen- und Sachschäden adäquat zu erfassen.

Ein Rückgriff auf das Produkthaftungsrecht (ProdHaftG) ist nur bedingt möglich, da es um die Haftung fehlerhafter Produkte durch eine gesetzliche Gefährdungshaftung geht. Hier nur eine Auswahl der Probleme: Streitig ist u. a, ob standardisierte Software als Produkt qualifiziert werden kann. Die EU-Kommission ist der Ansicht, dass entweder Software als -nicht körperliches- Produkt oder aber als Dienstleistung einzustufen ist. Da Software zur Steuerung des Betriebes eines Produkts dient, interagieren Produkte und Dienstleistungen. Insoweit bedarf es zur Komplexität der KI-Anwendungen neue Regelungen zur Frage, wer Hersteller im produkthaftungsrechtlichen Sinne ist und welche Sicherheitserwartungen an das Produkt gestellt werden, das Ergebnis eines digitalisierten Leistungsprozesses ist. Bedeutsam wird auch sein, wann überhaupt von einem Produktfehler bei KI-Anwendung ausgegangen werden kann. Ob das Inverkehrbringen einer fehlerhaften KI-Anwendung ein Konstruktionsfehler ist, muss noch geklärt werden. Um die Haftung zu begrenzen, wird von der EU-Kommission vorgeschlagen, den Hersteller zu verpflichten, Änderungen der Verhaltensregeln des Algorithmus nur nach Prüfung des Herstellers zuzulassen. Letztlich wird es darauf ankommen, die Risikosphären der Entwickler, Hersteller und Betreiber zu bestimmen, die hinter der KI-Anwendung stehen, um eine Haftung der jeweiligen Mitverursacher zu begründen. Gegebenenfalls kommt auch der Abschluss einer Pflichtversicherung (wie bei einem Kraftfahrzeug) in Betracht, um die Schäden auf diese Weise zu kompensieren. Da nur auf der europäischen Ebene durch Novellierung des Haftungsrecht in der Produkthaftungsrichtlinie eine Lösung gefunden werden kann, wird es durch den stetigen Wandel der KI-Anwendungen darauf ankommen, schnelle Lösungen zu finden, da sonst wieder das Recht der Technik hinterherläuft.

klickermann@it-anwalt-kanzlei.de

www.it-anwalt-kanzlei.de