Previous Page  30 / 52 Next Page
Information
Show Menu
Previous Page 30 / 52 Next Page
Page Background

30

Thema Künstliche Intelligenz

Text: Thomas Riehm

Comic: Dominik Wendland

Roboter als Personen

im Rechtssinne?

Zur Diskussion um eine

digitale Rechtspersönlichkeit

ie Idee einer Anerkennung von »intelligenten« Robotern

als rechtlich eigenständige Personen ist beinahe so alt wie

die Vorstellung von künstlicher Intelligenz selbst: Schon die

berühmten »Robotergesetze« des Science-Fiction-Autors Isaac

Asimov aus dem Jahr 1950 wandten sich unmittelbar an die

Roboter selbst als Adressaten, nicht etwa an dieMenschen, die

die Roboter konstruiert hatten, und auch nicht an diejenigen,

die sie betrieben. Daher ist es nicht verwunderlich, dass sich

parallel zur technischen Forschung an künstlicher Intelligenz

auch die Rechtswissenschaft Gedanken gemacht hat, wie dieses

neue Phänomen juristisch erfasst werden kann.

Ausgangspunkt der rechtlichen Problematik ist, dass das

Verhalten von Systemen, die auf künstlicher Intelligenz basie-

ren, sowohl für ihre Betreiber als auch für ihre Hersteller und

Programmierer zunehmendunvorhersehbar ist. Anders als klas-

sische Computerprogramme beruhen diese regelmäßig nicht

auf vergleichsweise überschaubaren »Wenn-Dann«-Struk-

turen, sondern »erlernen« ihre Verhaltensweisen mehr oder

weniger selbständig aus großen Datenmassen, ohne dass das

Ergebnis des Lernprozesses für Menschen ohne weiteres nach-

vollziehbar wäre. Aus rechtlicher Sicht wird es damit allerdings

schwieriger, Erklärungen oder Handlungen von KI-Systemen

ihrem Hersteller oder Betreiber zuzurechnen, um diese dafür

einstehen zu lassen.

Zurechnung setzt willentliche Handlung voraus

Traditionell wird die Verantwortlichkeit aus rechtlicher Sicht

an bewusste Handlungen von Menschen angeknüpft: Für eine

Tat ist der Täter strafrechtlich verantwortlich, weil er sie selbst

vorsätzlich oder fahrlässig begangen hat; zivilrechtlich hat er

für Schäden einzustehen, weil er sie schuldhaft verursacht hat;

für Vertragserklärungen hat er einzustehen, weil er oder ein

von ihm ermächtigter (menschlicher) Stellvertreter sie selbst

abgegeben hat. Diese Anknüpfung rechtlicher Folgen an das

eigene (willentliche) Verhalten stößt an Grenzen, wenn KI-Sys-

teme zum Einsatz kommen, deren Aktionen weder für ihre

Hersteller noch für ihre Betreiber vorhersehbar sind. Denn

alle genannten Zurechnungsmechanismen beruhen im Kern

darauf, dass das Ergebnis – z. B. eine Körperverletzung oder

auch eine Vertragserklärung – letztlich auf eine willentliche

Handlung eines Menschen zurückgeht. Diese Handlung ist es,

die als strafbar oder rechtswidrig bewertet wird und dadurch

strafrechtliche oder haftungsrechtliche Konsequenzen auslöst.

Auch bei Vertragserklärungen wird die Bindung eines Men-

schen an das Erklärte damit gerechtfertigt, dass die Erklärung

mit seinemWillen in den Verkehr gelangt ist.

Diese Verbindung zwischen demWillen eines Menschen

und dem von einem KI-System bewirkten Ergebnis wird in-

frage gestellt, wenn das Verhalten des Systems für niemanden

vorhersehbar ist. Denn dann sind auch Szenarien denkbar, in

denen Hersteller und Betreiber »alles richtig gemacht haben«

und das KI-System gleichwohl Schäden verursacht oder Er-

klärungen abgibt, die die beteiligtenMenschen so nicht gewollt

hätten – schlicht, weil es sich aufgrund seiner inhärenten Lern-

fähigkeit anders verhalten hat, als Hersteller oder Betreiber es

erwartet hatten.

Lernfähige Geräte erzeugen Verantwortungslücken

So könnte etwa ein Rasenmäher-Roboter im Garten ein frem-

des Haustier verletzen, obwohl der Betreiber bei der Auswahl

und Konfiguration des Geräts alle Sorgfaltsmaßregeln beachtet

hatte, weil es aus Erfahrungen des bisherigen Betriebs »ge-

lernt« hat, dass Berührungen kleiner weicher Objekte un-

problematisch seien. In diesem Beispiel wäre dem Betreiber

eventuell kein Verschuldensvorwurf zu machen, sodass er für

den verursachten Schaden nicht haftet. Anders wäre es nur

dann, wenn man bereits den Einsatz eines lernfähigen Robo-

ters als fahrlässig bewerten würde, wodurch aber zugleich das

gesamte Innovationspotenzial derartiger Geräte durch ein fak-

tisches Verbot ungenutzt bliebe. Auch dem Hersteller könnte

evtl. nicht der Vorwurf gemacht werden, ein unsicheresGerät auf

den Markt gebracht zu haben, wenn der Roboter im Zeitpunkt

des Inverkehrbringens dieses Verhalten noch gar nicht erlernt

hatte, weil der Hersteller nicht dafür verantwortlich ist, was das

D