Previous Page  33 / 52 Next Page
Information
Show Menu
Previous Page 33 / 52 Next Page
Page Background

33

beim Einsatz von künstlicher Intelligenz abbilden zu können,

wird in der rechtswissenschaftlichen Literatur immer wieder

gefordert, auch KI-Systemen Rechtsfähigkeit im Sinne einer

»juristischen Person« zuzuerkennen. Derartige Systeme sollten

also über eine eigene Rechtspersönlichkeit (sog. »ePerson«)

und konsequenterweise über ein eigenes Vermögen verfügen,

aus welchem sie etwaige Haftungsansprüche begleichen könn-

ten. Eine derartige Konstruktion wird nicht nur vereinzelt in

derWissenschaft vertreten, sondern wurde auch vomEuropäi-

schen Parlament schon 2017 angeregt. Selbst die Einführung

einer Strafmündigkeit von Robotern wurde in der Literatur

bereits gefordert, sodass es etwa möglich sein sollte, diese bei

von ihnen begangenen Straftaten etwa durch Geldstrafen, aber

auch durch vorübergehende Betriebsverbote bis hin zur voll-

ständigen Abschaltung bestrafen zu können.

Sind Algorithmen als ePersonen greifbar?

Das Konstrukt einer »ePerson« bzw. einer »digitalen Rechts-

persönlichkeit« wirft allerdings mannigfaltige Fragen auf. Das

beginnt bereits mit demProblem, eine solche ePerson zu iden-

tifizieren: Einen konkreten Roboter bzw. ein konkretes auto-

nomes Fahrzeug mag man noch aufgrund seiner physischen

Verkörperung als greifbares »Ding« als Person erkennen können

– aber wie sieht es mit vernetzten »intelligenten Schwärmen«,

mit Infrastrukturrobotik oder mit reinen Softwareagenten aus?

Wie viele Siris, Alexas, Bixbys etc. soll es eigentlich geben: Will

man nur einem zentral betriebenen Agenten eine Rechtsper-

sönlichkeit verleihen, oder jeder individuellen Installation und

Konfiguration? Und überhaupt: Ab welchem Grad von Lern-

fähigkeit sollte ein System rechtsfähig sein – wie »intelligent«

muss ein System sein, damit ihmRechtsfähigkeit zugesprochen

wird, und wer soll das bestimmen?

Jenseits der Frage der Identifizierbarkeit einer ePerson,

die notfalls noch – in Anlehnung an die Rechtslage bei den

juristischen Personen, z. B. GmbH und AG – durch die Ein-

tragung in ein (digital geführtes) Register gelöst werden könnte,

stellt sich das Problem der Vermögensausstattung: Soll jeder

»intelligente« Algorithmus mit einem eigenen Vermögen als

Haftungsmasse ausgestattet werden? Das würde eine geradezu

groteske Kapitalbindung verursachen, ohne dass zugleich si-

chergestellt wäre, dass die Haftungsmasse für die verursachten

Schäden ausreichend wäre. Daher wird ergänzend vorgeschla-

gen, digitale Rechtspersonen mit einer obligatorischen Haft-

pflichtversicherung auszustatten, die für verursachte Schäden

aufkommen müsste. Auch hier würde sich allerdings die Frage

stellen, aus welchem Vermögen die Versicherungsbeiträge zu

zahlen wären. Zugleich könnte das gleiche Ergebnis dann durch

eine Versicherung des jeweiligen Betreibers erzielt werden.

Wollen »ePersonen« überleben?

Und zu guter Letzt wäre alles andere als sicher, dass jedes KI-Sys-

tem auch so programmiert ist, dass es versucht, sein Vermögen

zu erhalten. Während bei Menschen ein solcher »Selbsterhal-

tungstrieb« angeboren ist, kann dies bei KI-Systemen nicht als

selbstverständlich vorausgesetzt werden. Das hat allerdings

enorme Auswirkungen auf die Ansprechbarkeit durch recht-

liche Regelungen: Weil Menschen rechtliche Sanktionen (Scha-

densersatzpflichten, Geldstrafen, Haftstrafen) natürlicherweise

vermeiden wollen, passen sie ihr Verhalten in der Regel an die

rechtlichen Vorgaben an. Sollte hingegen ein KI-System so pro-

grammiert sein, dass ihmfinanzielle oder andere Konsequenzen

»egal« sind, weil es etwa mit dem Verlust von Geld oder seiner

Freiheit keinerlei negativen Gefühle assoziieren kann, hätte es

auch keinerlei Anlass, sich an rechtliche Vorgaben zu halten.

Die Verantwortung bleibt beim Menschen

All diese Probleme scheinen in der Praxis kaum zu bewälti-

gen. Ihre Lösung ist allerdings nach der heute im Vordringen

befindlichen Auffassung auch nicht erforderlich. Wenn der

Ausgangspunkt der Schaffung einer »ePerson« die befürch-

tete Haftungs- und Verantwortungslücke beim Einsatz von

KI-Systemen ist, sollte das Entstehen dieser Lücke bereits an

der Wurzel verhindert werden. Die Lösung dürfte daher darin

liegen, den Betreiber nach Auffassung Einiger auch denHerstel-

ler unabhängig von der Vorhersehbarkeit des Verhaltens eines

KI-Systems für dessen Handlungen verantwortlich zu machen.

Dieser genießt die Vorteile des Einsatzes eines solchen Sys-

tems, also erscheint es auch gerechtfertigt, ihm dessen Risiken

aufzuerlegen. Daher haben in jüngerer Zeit sowohl die Daten-

ethikkommission der Bundesregierung als auch die High-Level

Expert Group on Artificial Intelligence der Europäischen Kom-

mission die Einführung einer »digitalen Rechtspersönlichkeit«

abgelehnt und stattdessen die Anwendung bzw. Entwicklung

passender Zurechnungsregeln und Verantwortlichkeiten von

Herstellern und Betreibern angeregt.

Prof. Dr. Thomas Riehm ist Lehrstuhlinhaber für Deutsches und

Europäisches Privatrecht, Zivilverfahrensrecht und Rechtstheorie an

der Universität Passau. 2018 wurde er mit einem Ars legendi-Fakul-

tätenpreis ausgezeichnet. Er forscht und lehrt zu allen Bereichen des

Vertrags- und Haftungsrechts mit einem besonderen Fokus auf

Sachverhalte aus dem Bereich der IT.

Dominik Wendland lebt als Grafiker und Illustrator in München. Er

setzt sich seit über zehn Jahren mit dem Erzählen in Bildern und dem

Medium Comic auseinander und wurde dafür 2018 mit einem der

Bayerischen Kunstförderpreise ausgezeichnet. Sein aktueller Comic

EGOn,

der hier in Auszügen zu sehen ist, erschienen 2019 im Jaja Ver-

lag, gewann 2019 den Rudolph-Dirks-Award für beste Science Fiction.

Roboter als Personen im Rechtssinne?