Ende Januar 2025 nahm das Gesetzgebungsverfahren zur KI-Haftungsrichtlinie an Fahrt auf. Noch zu diesem Zeitpunkt zeigte sich EU-Parlamentarier Axel Voss optimistisch, dass die Richtlinie bis Februar 2026 verabschiedet werden könnte. Doch nur vier Wochen später stoppte die EU-Kommission das Vorhaben überraschend. Ein abrupter Rückschlag für die geplante Regulierung, die darauf abzielte, spezifische Haftungsfragen im Zusammenhang mit künstlicher Intelligenz zu klären. Trotz dieser Entwicklung könnte die Idee einer spezialisierten KI-Haftung weiterleben – wenn auch in veränderter Form.
Die Regelungslücke des AI Acts
Mit dem Inkrafttreten des AI Acts im Februar 2025 wurde die Grundlage für eine umfassende Regulierung von KI-Systemen innerhalb der Europäischen Union geschaffen. Die Verordnung verfolgt einen risikobasierten Ansatz und enthält detaillierte Vorgaben für Anbieter und Betreiber von KI-Technologien. Eine zentrale Lücke bleibt jedoch bestehen: Der AI Act enthält keine spezifischen Regelungen zur zivilrechtlichen Haftung für Schäden, die durch KI verursacht werden. Während Datenschutzverletzungen durch die DSGVO abgesichert sind, bleibt der Rechtsrahmen für Schadensersatzansprüche im Zusammenhang mit künstlicher Intelligenz vage.
Zwar sieht der AI Act in den Artikeln 85 bis 87 Rechtsbehelfe vor, doch diese dienen primär der Durchsetzung von Aufsichtsmaßnahmen, nicht der individuellen Geltendmachung von Schadensersatz. Einzelne Normen, wie die Verpflichtung zur menschlichen Aufsicht bei Hochrisiko-KI-Systemen nach Artikel 14, könnten zwar als Schutznormen im Sinne von § 823 Abs. 2 BGB herangezogen werden. Eine explizite zivilrechtliche Haftungsregelung wäre jedoch präziser und effizienter.
Bereits im ursprünglichen Entwurf der KI-Haftungsrichtlinie hatte die EU-Kommission auf diese Lücke hingewiesen. In Erwägungsgrund 2 stellte sie ausdrücklich fest, dass der AI Act keine eigenständige zivilrechtliche Grundlage für Schadensersatzansprüche schaffe. Die Richtlinie sollte diese Lücke schließen, indem sie prozessuale Erleichterungen für Kläger schuf, insbesondere hinsichtlich der Beweislast.
Die zentralen Mechanismen der gescheiterten Richtlinie
Obwohl die KI-Haftungsrichtlinie nun nicht verabschiedet wird, lohnt sich ein Blick auf ihre zentralen Mechanismen. Sie sollte keine neuen materiell-rechtlichen Anspruchsgrundlagen schaffen, sondern sich auf prozessuale Fragen konzentrieren, insbesondere auf die Erleichterung der Beweisführung für geschädigte Parteien.
Ein wesentlicher Aspekt der geplanten Richtlinie war die enge Anbindung an den AI Act. Inhaltlich und sprachlich orientierte sich das Konzept an den bestehenden Regelungen zur Künstlichen Intelligenz und griff deren Terminologie auf. Besonders in den Fokus gerieten Hochrisiko-KI-Systeme gemäß Artikel 6 AI Act. Diese sollten aufgrund ihres erheblichen Schadenpotenzials einer besonderen Regulierung unterliegen, was sich auch auf haftungsrechtliche Fragen erstrecken sollte.
Die geplante Richtlinie sah unter anderem eine Verpflichtung zur Offenlegung von Beweismitteln vor. Kläger sollten das Recht erhalten, vor Gericht die Offenlegung von Informationen durch Anbieter oder Betreiber eines Hochrisiko-KI-Systems zu verlangen. Dieses Instrument sollte insbesondere dann greifen, wenn Betroffene nachweisen mussten, dass ein Anbieter gegen regulatorische Pflichten aus dem AI Act verstoßen hatte. Die Verpflichtung zur Beweismitteloffenlegung erstreckte sich unter anderem auf die Risikobewertung von KI-Systemen, die menschliche Kontrolle und die Dokumentationspflichten der Betreiber.
Ein weiterer zentraler Mechanismus war die Einführung einer widerlegbaren Vermutung einer Sorgfaltspflichtverletzung. Hätte ein KI-Anbieter die Offenlegung relevanter Dokumente verweigert, wäre davon auszugehen gewesen, dass er gegen seine regulatorischen Pflichten verstoßen hat. Die Beweislast wäre somit von den geschädigten Klägern auf die Betreiber übergegangen, die dann nachweisen müssten, dass ihr System nicht fehlerhaft war.
Darüber hinaus enthielt die Richtlinie eine Regelung zur widerlegbaren Vermutung des Kausalzusammenhangs zwischen einer Sorgfaltspflichtverletzung und einem entstandenen Schaden. Die Motivation hinter dieser Regelung lag in der besonderen Schwierigkeit, die Ursächlichkeit eines KI-Fehlers für einen konkreten Schaden nachzuweisen. KI-Systeme operieren oft in einer Black-Box-Struktur, was ihre Entscheidungsprozesse für Außenstehende schwer nachvollziehbar macht. Um Betroffenen eine realistische Möglichkeit zur Durchsetzung von Ansprüchen zu bieten, hätte die geplante Richtlinie eine Beweislastumkehr vorgesehen.
Das Ende der KI-Haftungsrichtlinie – und ihr Fortleben in anderer Form?
Obwohl die EU-Kommission die KI-Haftungsrichtlinie vorerst aufgegeben hat, bedeutet dies nicht zwangsläufig das Ende der hier entwickelten Konzepte. Viele der Grundprinzipien der Richtlinie könnten in anderer Form wieder auftauchen. Die überarbeitete Produkthaftungsrichtlinie (EU 2024/2853), die bis Dezember 2026 in nationales Recht umgesetzt werden muss, bezieht KI-Systeme nun ausdrücklich ein. Erwägungsgrund 13 sowie Artikel 4 Abs. 1 der neuen Richtlinie stellen klar, dass auch Schäden, die durch Software oder KI-Technologien verursacht werden, unter den Anwendungsbereich fallen.
Besonders bemerkenswert ist, dass Artikel 9 und 10 der Produkthaftungsrichtlinie prozessuale Erleichterungen für Geschädigte enthalten, die stark an zentrale Mechanismen der gescheiterten KI-Haftungsrichtlinie angelehnt sind. Die verpflichtende Offenlegung von Beweismitteln und die Beweislastregelungen zur Kausalitätsvermutung finden sich in ähnlicher Form in der neuen Produkthaftungsrichtlinie wieder.
Zudem bleibt die Möglichkeit bestehen, dass einzelne EU-Mitgliedstaaten die Konzepte der KI-Haftungsrichtlinie eigenständig in ihr nationales Recht übernehmen. Insbesondere Deutschland und Frankreich haben bereits signalisiert, dass sie eine eigene Regulierung von KI-Haftungsfragen prüfen.
Langfristig bleibt es möglich, dass das Thema auf EU-Ebene erneut aufgegriffen wird. Sollte sich zeigen, dass bestehende Haftungsregelungen nicht ausreichen, um Schäden durch KI-Systeme effektiv zu adressieren, könnte eine neue Initiative zur Einführung spezieller Haftungsregelungen gestartet werden.
Fazit
Die KI-Haftungsrichtlinie ist vorerst gescheitert, doch ihre grundlegenden Ideen leben weiter. Die regulatorische Landschaft entwickelt sich weiter, und viele der prozessualen Mechanismen der Richtlinie werden in der überarbeiteten Produkthaftungsrichtlinie oder in nationalen Gesetzen wieder auftauchen. Während die Debatte um die Haftung für Schäden durch KI-Systeme weiterläuft, bleibt die Frage offen, ob Europa langfristig eine spezifische KI-Haftungsregelung benötigen wird oder ob bestehende Gesetze ausreichen. Unternehmen und Juristen sollten die Entwicklungen genau beobachten, denn auch ohne eigene Richtlinie werden sich neue Haftungsvorschriften im KI-Bereich etablieren.