Künstliche Intelligenz (kurz: KI) hält in immer mehr Bereichen der Industrie und des Dienstleistungssektors Einzug. Bereits heute bedienen sich etwa Banken, Versicherungen und Internet-Dienste diesen fortgeschrittenen Technologien, ohne dass die Kunden viel davon merken. Anwendungen der Zukunft, etwa das autonome Fahren, sind ohne den Einsatz von KI gar nicht denkbar. Auch der Rechtsberatungsmarkt wird davon nicht unberührt bleiben, wie bereits die aktuell angebotenen sog. Legal-Tech-Dienstleistungen zeigen.
Noch steckt diese Technologie in den Anfängen; aber bereits jetzt wird ihr Einsatz auch rechtlich hinterfragt, nicht nur bei der Zulässigkeit der Angebote – im Rechtsmarkt etwa mit Blick auf das Rechtsdienstleistungsgesetz –, sondern auch bei der Haftung. Die einzelnen nationalen Regelungen zum Haftungsrecht sind lange vor der Entwicklung der KI entstanden und auch auf der EU-Ebene gibt es derzeit nur die Produkthaftungsrichtlinie.
Diese Situation war im Sommer 2018 Anlass für die EU-Kommission, zu offenen Haftungsfragen beim Einsatz von KI eine Expertengruppe einzusetzen. Sie sollte erforschen, ob das derzeit geltende EU-Recht angesichts der neuen Technologien noch ausreichend ist, oder ob Handlungsbedarf besteht. Die Ergebnisse der Expertengruppe wurden von der Bundesrechtsanwaltskammer kürzlich vorgestellt.
Danach kommt die Expertengruppe in ihrem Bericht ("Liability for artificial intelligence and other emerging digital technologies") zu dem Schluss, dass Handlungsbedarf besteht. Zwar würden die geltenden Haftungsregelungen in den Mitgliedstaaten zumindest für einen Grundschutz für Schäden, die im Zusammenhang mit neuen Technologien entstanden sind, sorgen. Allerdings könnten aufgrund der spezifischen Charakteristika dieser KI-Technologien, wie etwa der Fähigkeit, selbstständig zu lernen, oftmals keine angemessenen Ergebnisse bei Anwendung der bestehenden Regelungen in Schadensfällen erzielt werden. Ferner hänge es aufgrund der unterschiedlichen Ausgestaltung der Produkthaftungsregeln in den Mitgliedstaaten auch davon ab, in welchem Land ein Opfer Kompensation für seine Schäden fordere. Es mangele an einer kohärenten und angemessenen Antwort der Rechtssysteme auf spezifische Bedrohungen für Individuen. Insbesondere erhielten die Opfer von Schäden durch neuen Technologien im Vergleich zu Opfern von Schäden, die durch Menschen oder herkömmliche Technologie entstanden sind, weniger oder keine Kompensation. Schließlich sei ein effektiver Zugang zum Recht nicht immer gegeben, da entsprechende Prozesse für die Opfer oftmals übermäßig mühsam oder teuer würden.
Zur Lösung dieser Probleme haben die Experten zwei Ansätze verfolgt: Der eine geht in Richtung einer verschuldensunabhängigen, der andere in Richtung einer fehlerbasierten Haftung. Die Expertengruppe schlägt beispielsweise vor, eine "strict liability" für Personen einzuführen, die KI-Anwendungen mit erhöhtem Schadensrisiko führen. Wenn ein Diensteanbieter ein höheres Maß an Kontrolle hat, als der Nutzer der Anwendung, soll dies bei der Zurechnung berücksichtigt werden. Eine Person, die eine KI-Anwendung mit einem gewissen Maß an Autonomie führt, soll nicht anders behandelt werden als wenn der Schaden durch einen menschlichen Helfer entstanden wäre. Auch wer eine Anwendung führt, der kein erhöhtes Risiko innewohnt, sollte dazu verpflichtet sein, die Technologie sorgfältig auszuwählen, zu überwachen, zu führen und instand zu halten und schließlich bei Verstößen dagegen haftbar sein.
Hersteller von Produkten oder digitalen Inhalten sollen für Fehler haften, auch wenn diese auf Veränderungen, die nach Inverkehrbringen unter ihrer Kontrolle durchgeführt wurden, entstanden sind. Ihre verschuldensunabhängige Haftung soll einen grundlegenden Bestandteil bei der Kompensation von Schäden darstellen. Wo Dritte der Gefahr von Schäden ausgesetzt sind, soll eine verpflichtende Versicherung eingeführt werden. Die neuen Technologien sollen weiter mit einer Protokollierungsmöglichkeit ausgestattet sein, so dass Informationen zum Ablauf ihrer Funktionen gespeichert werden. Ein Fehler hierbei soll zu einer Umkehrung der Beweislast führen. Grundsätzlich soll zwar weiterhin das Opfer beweisen müssen, wodurch sein Schaden entstanden ist, davon soll es aber Ausnahmen und Erleichterungen geben, wo die spezifischen Eigenschaften der neuen Technologien die Beweisführung erschweren würden.
Eine bislang umstrittene Frage haben die Experten eindeutig beantwortet: Von der Einführung einer eigenen Rechtspersönlichkeit für Künstliche Intelligenz raten sie ab.
[Red.]