KI-Haftung
Anpassung des Deliktsrechts an die Herausforderungen im Zusammenhang mit künstlicher Intelligenz (KI).

Im September 2022 hat die Europäische Kommission ihren Vorschlag für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (COM (2022) 496 final) vorgelegt.
Ziel der Richtlinie, die eine Ergänzung zur Produkthaftungsrichtlinie darstellt, ist es, spezifische Vorschriften für die außervertragliche zivilrechtliche Haftung für Schäden, die durch künstliche Intelligenz verursacht wurden, einzuführen und die Durchsetzung von Schadensersatzansprüchen zu erleichtern. Dazu sollen Rechtsschutzhürden, die spezifisch im Zusammenhang mit der Anwendung künstlicher Intelligenz bestehen, beseitigen oder zumindest vermindert werden. Dem Phänomen der „Black Box“ bei künstlicher Intelligenz soll eine Offenlegungspflicht begegnen. Personen, die durch sogenannte Hochrisiko-KI-Systeme geschädigt wurden, sollen die Herausgabe von Informationen zu dem KI-System verlangen können, um potenzielle Ansprüche und Anspruchsgegner zu ermitteln und das KI-System auf Fehler oder Sicherheitslücken zu untersuchen. Um den Offenlegungsanspruch (auch gerichtlich) geltend zu machen, soll ein möglicher Anspruch lediglich plausibel dargelegt werden müssen. Zudem sieht die Richtlinie eine widerlegliche Kausalitätsvermutung vor, die der Komplexität von KI-Systemen Rechnung trägt. Wenn der Anbieter bei der Entwicklung oder Anwendung der KI gegen eine Sorgfaltspflicht (z.B. nach der KI-Verordnung) verstoßen hat und durch diese KI anschließend ein Schaden eintritt, soll eine grundsätzliche Vermutung greifen, dass die Pflichtverletzung für den Schaden kausal war. Die Kausalitätsvermutung hat Ähnlichkeiten zum Anscheinsbeweis im deutschen Zivilprozess oder zum Res ipsa loquitur-Grundsatz im Common Law.
Der Richtlinienvorschlag wird derzeit im Rat von der Ratsarbeitsgruppe „Zivilrecht“ (JUSTCIV) verhandelt. Im Europäischen Parlament ist der Rechtsausschuss (JURI) federführend. Mit Blick auf die begleitende Folgenabschätzung hatte dieser eine ergänzende Folgenabschätzung eingefordert, die sich auf spezifische Forschungsfragen konzentriert und seit Ende 2024 vorliegt. Sie schlägt vor, den Anwendungsbereich u. a. auf Software und Systeme von „General Purpose AI“ und eine allgemeinbasierte Software-Haftung zu erweitern. Zudem wird ein gemischter Haftungsrahmen erörtert, der ein Gleichgewicht zwischen verschuldensabhängiger und verschuldensunabhängiger Haftung herstellt. Insbesondere empfiehlt die Studie den Übergang von einer KI-fokussierten Richtlinie zu einer Software-Haftungsregelung, um eine Marktfragmentierung zu verhindern und Klarheit in der gesamten Europäischen Union zu schaffen.