Strafrechtlerin über Roboterrechte

"Ein symbolischer Adressat für die Menschen hinter der Maschine"

Der Roboter "Pepper" steht am 26.04.2017 in München (Bayern) in einem Showroom in der Firmenzentrale von IBM. Pepper ist ein humanoider Roboter, der darauf programmiert ist, Menschen und deren Mimik und Gestik zu analysieren
Der humanoide Roboter "Pepper" sieht niedlich aus, kann aber Fehler mit Folgen machen: Wer steht dafür gerade? © dpa
Susanne Beck im Gespräch mit Ute Welty · 09.01.2018
Brauchen wir Strafgesetze für Roboter? Wenn etwas bei deren Einsatz schief läuft und jemand zu Schaden kommt, wer ist dann verantwortlich zu machen - der Entwickler, der Hersteller oder der Nutzer? Strafrechtlerin Susanne Beck sieht da durchaus Gerechtigkeitsprobleme.
In Saudi-Arabien wurde kürzlich eine "Roboterfrau" zur Staatsbürgerin erklärt. Es gibt immer mehr Stimmen, die behaupten, dass Wesen mit künstlicher Intelligenz ein Bewusstsein entwickeln können und ihre Handlungen und Entscheidungen autonom seien. Unser Leben wird sich in den kommenden Jahrzehnten durch selbständig agierende Maschinen wahrscheinlich sehr viel grundlegender verändern, als sich die meisten das heute vorstellen können.
Mumbai, Indien: Die Roboterfrau Sofia hat am 30.12.17 ihren ersten Auftritt am Indischen Technologie Institut Bombay (IIT-B) während des Techfestes 2017.
Die Roboterfrau Sofia am Indischen Technologie Institut Bombay (IIT-B). Bekommen Humoide Roboter künftig auch Bürgerrechte und -pflichten?© imago/Hindustan Times
Was bedeutet das für die Rechtswissenschaft? Das Europaparlament hat nun von der EU-Kommission gefordert, einen Gesetzentwurf vorzulegen, in dem Roboter als "elektronische Personen" eingestuft und ihnen Rechte und Pflichten zugewiesen werden sollen. Aber was bedeutet das konkret – brauchen wir wirklich ein Roboterrecht?

"Wer haftet, wenn was schief läuft?"

Die Sachlage sei komplex, meint die Strafrechtlerin Susanne Beck. Beispiel autonomes Fahren im Straßenverkehr oder robotergesteuerte Pflege und Diagnostik in der Medizin: "Eine zentrale Frage, die sich hier immer wieder stellt, ist natürlich die Haftungsfrage. Wer haftet, wenn etwas schief geht, wenn eine solche Maschine Menschen verletzt?" Und eine mögliche Antwort darauf könne die Definition einer "E-Person" sein.
"Es geht nicht um konkrete Rechte und Pflichten des Roboters, sondern der soll dann symbolischer Adressat sein für die Personen, die hinter dieser Maschine stehen."
Dies aber führe wiederum zu dem Problem, wer denn nun in welchem Umfang haftbar zu machen sei: die Forscher, die einen Roboter entwickelt haben, die Hersteller, Verkäufer oder gar die Nutzer selbst?
"Wenn wir jetzt sagen, es soll zum Beispiel immer der Nutzer haftbar bleiben, etwa beim selbstfahrenden Kraftfahrzeug immer der Fahrer, dann haben wir da durchaus Gerechtigkeitsprobleme."
Man stelle sich LKW-Fahrer vor, denen von ihrem Auftraggeber quasi vorgegeben werde, einen autonomen Wagen zu fahren.
"Dann soll er aber im Notfall immer eingreifen können. Das ist in diesen Konstellationen häufig ganz schwierig, weil die Konzentration natürlich nachlässt, wenn die Maschine das Fahren übernimmt. Und diese Person soll jetzt umfassend haftbar bleiben? Man merkt schon, dass es hier irgendwie hakt und schwierig wird."
Zu klären sei beispielsweise bei Haftungsfragen, wer den größten Nutzen von dem Einsatz dieser Maschine habe oder finanziell am meisten profitieren und bei wem die Kontrolle über die Maschine liege.
"All diese Aspekte müssen beleuchtet werden, und darauf kann dann eine Aufteilung stattfinden."
Interessant sei auch die noch ungeklärte Frage, wie Robotersysteme, die etwa Ziel polizeilicher Einsätze würden, reagierten, wenn in ihr System im Rahmen des Einsatzes eingegriffen werde.
(mkn)

Das Interview im Wortlaut:

Ute Welty: Schreiben Sie noch, oder sprechen Sie schon? Auch in meinem Freundes- und Bekanntenkreis steigt die Zahl derer, die längst nicht mehr tippen, wenn man auch die Dienste von Siri oder Alexa in Anspruch nehmen kann. Immer mehr Autos verfügen über automatische Einparkhilfen, und Haushalts- oder Pflegeroboter dürften in nicht allzu ferner Zukunft allgegenwärtig sein. G
Gerade erst hat der Informatiker Jürgen Schmidhuber hier in Deutschlandfunk Kultur beschrieben, warum die künstliche Intelligenz der menschlichen Intelligenz eines Tages überlegen sein wird. Was das für die Rechtsprechung bedeutet, damit beschäftigt sich auch Susanne Beck, Professorin in Hannover für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie. Guten Morgen, Frau Beck!
Susanne Beck: Guten Morgen!
Welty: Ziemlich genau ein Jahr ist es jetzt her, dass das EU-Parlament einen entsprechenden Gesetzentwurf gefordert hat, in dem Roboter als elektronische Personen bestimmte Rechte und Pflichten zugewiesen bekommen. Inwieweit hat die Debatte Fortschritte gemacht seitdem?
Beck: Es hat sich schon deshalb viel in der Debatte getan, weil, wie Sie gesagt haben, das Thema ja allgegenwärtig ist, in den verschiedensten Lebensbereichen die Autonomie der Maschinen zunimmt, zum Beispiel beim Straßenverkehr. Gerade das autonome Fahren, autonome Kraftfahrzeuge, die sind natürlich sehr stark in der Debatte, werden öffentlich diskutiert. Hier werden tatsächlich neue Gesetze geschaffen, versucht, das in die Praxis umzusetzen. Aber auch in anderen Bereichen, Diagnostik, in der Medizin gibt es Diskussionen. Und eine zentrale Frage, die sich hier immer wieder stellt, ist natürlich die Haftungsfrage. Wer haftet, wenn etwas schief geht, wenn eine solche Maschine Menschen verletzt?
Und eine mögliche Lösung dafür ist eben diese E-Person, elektronische Person, die hier diskutiert wird, die im weitesten Sinne einer juristischen Person entspricht, die wir ja schon kennen im Recht - und Unternehmen sind juristische Personen - und letztlich dann Adressat sein soll für diese Haftungsfragen. Also, es geht nicht um konkrete Rechte und Pflichten des Roboters, sondern der soll dann symbolischer Adressat sein für die Personen, die hinter dieser Maschine stehen.
Welty: Wo Sie die Haftungsfrage ansprechen – wie sollte man die denn aufteilen zwischen Forschern, Herstellern, Verkäufern und Nutzern?

Nicht einfach eine Person haftbar machen

Beck: Das ist tatsächlich eines der zentralen Probleme oder die zentrale Frage, und da kann man irgendwie schlecht in Prozentzahlen sprechen. Es geht vor allem erst mal darum, dass man sich bewusst wird, dass es nicht unproblematisch ist, die Haftung einfach einem der Beteiligten zuzuschreiben.
Wenn wir jetzt sagen, es soll zum Beispiel immer der Nutzer haftbar bleiben, zum Beispiel beim selbstfahrenden Kraftfahrzeug immer der Fahrer, dann haben wir da durchaus Gerechtigkeitsprobleme. Stellen wir uns vor, wir haben einen Lkw-Fahrer, der sucht sich gar nicht selbst aus, dass er einen selbstfahrenden Lkw steuert oder letztlich nur noch drin sitzt. Dann soll er aber im Notfall immer eingreifen können. Das ist in diesen Konstellationen häufig ganz schwierig, weil die Konzentration natürlich nachlässt, wenn die Maschine das Fahren übernimmt. Und diese Person soll jetzt umfassend haftbar bleiben.
Das merkt man schon, dass es hier irgendwie hakt und schwierig wird. Das heißt, es müssen also die anderen Beteiligten jedenfalls mit ins Boot genommen werden. Wer dann wie viel, das hängt stark am Lebensbereich, also eben bei Kraftfahrzeugen vielleicht anders als bei Pflegerobotern oder Ähnlichem. Es hängt davon ab, wer hat denn den größten Nutzen von dem Einsatz dieser Maschine, wer profitiert am meisten, wer hat die Kontrolle über die Maschine. All diese Aspekte müssen beleuchtet werden, und darauf kann dann eine Aufteilung stattfinden.
Welty: Aber das, was Sie sagen, das bedeutet doch auch ein erhebliches Umdenken, einen erheblichen Abschied von bestehenden Grundsätzen. Fällt das allen juristischen Kollegen so leicht?
Beck: Das ist natürlich schwierig, sich von Dingen zu lösen, wie man Probleme bisher gelöst hat, das ist völlig richtig, und unsere klassischen Verantwortungskonzepte sind natürlich eher auf ein Individuum, einen individuellen Ansprechpartner zugeschnitten, das gilt gerade jetzt auch für mein Fachgebiet, für das Strafrecht. In anderen Bereichen kennen wir das natürlich schon eben ein bisschen besser, also dass wir eben ein Unternehmen haftbar machen statt jetzt einen individuellen Menschen sozusagen.
Im Strafrecht ist es besonders schwierig, ein solches Umdenken, und da kann es dann eben auch bedeuten, dass wir in manchen Lebensbereichen vielleicht niemanden mehr haben, der zumindest strafrechtlich verantwortlich für eine Rechtsgutverletzung ist. Und auch das wird für die Gesellschaft auch durchaus ein Umdenken bedeuten und ein gewisses Problem darstellen.

Wenn Roboter mit Polizisten auf Streife gehen

Welty: Sie halten es für sehr wahrscheinlich, dass Roboter oder künstliche Intelligenz auch künftig polizeilicher Maßnahmen wird, Überwachung oder Fremdsteuerung von Robotern. Niemand weiß heute, wie Roboter auf eine Onlinedurchsuchung oder eben auf eine Fremdsteuerung reagieren werden, wenn damit die automatischen Abläufe gestört werden. Wie wird das unter Juristen heute diskutiert?
Beck: Wir diskutieren erst mal vor allem auch solche Dinge, wie dass Roboter möglicherweise von der Polizei eingesetzt werden können. Was bedeutet das eigentlich, wenn ein Roboter eben vorgeschickt wird, um eine Situation erst mal zu checken oder Ähnliches. Das wird diskutiert, inwieweit das möglich ist, unter welchen Umständen das zulässig ist. Und bei den anderen Dingen ist es so, dass man hier eben eine Verhältnismäßigkeitsabwägung durchführen muss, das heißt, man muss eben diskutieren, wie groß ist das Risiko einer solchen Fremdsteuerung einer Maschine, und was ist unser Nutzen.
Und da muss man sehr genau abwägen. Und ein zentrales Problem im Bereich der Robotik ist aber natürlich, dass wir die Risiken, wie Sie schon gesagt haben, eben überhaupt nicht alle kennen, und dass wir es gar nicht ohne Weiteres berechnen können, wie künstliche Intelligenz hier reagiert. Und da ist im Zweifel dann eben Vorsicht geboten, wenn man das nicht kennt, das Risiko.
Welty: Das Recht eröffnet ja verschiedene Möglichkeiten des Umgangs mit Robotern. Man kann sie als bloße Werkzeuge ansehen. Es ist aber auch vorstellbar, dass man sie im Extremfall mit den Menschen rechtlich gleichstellt. Wie blicken Sie auf diese Debatte?

Aufpassen, dass man im Jetzt bleibt

Beck: Ich glaube, hier muss man aufpassen, dass man im Jetzt bleibt. Man kann natürlich sehr viel darüber spekulieren, wie Roboter in zehn oder 20 Jahren funktionieren werden. So weit voraus kann allerdings ein Rechtssystem nicht agieren und denken, und das ist, glaube ich, auch nicht sinnvoll, sich nur mit solchen Prognosen zu befassen. Ich glaube, das ist eine Irreführung der Debatte. Sondern man muss schon schauen, was ist eben jetzt oder in den nächsten Jahren relevant. Und das sind vor allem Fragen von solchen rechtlichen Konstellationen wie der elektronischen Person zum Beispiel.
Und hier gibt es natürlich eine partielle Gleichstellung insofern, als wenn wir die zu Adressaten von rechtlichen Anforderungen oder von Haftung machen, dann muss sie gewisse Rechten und Pflichten haben, eine solche Person. Das bedeutet aber nicht, dass sie Grundrechte hat oder dem Menschen in anderen Aspekten gleichsteht. Ich denke, wichtig ist, dass man der Gesellschaft bewusst macht, wir müssen jetzt bestimmte Probleme lösen, jetzt Haftungsfragen ansprechen. Wir müssen uns jetzt als Gesellschaft einigen, wo wollen wir solche Maschinen, wo können wir auf bestimmte Verantwortungen verzichten, wo soll eine Maschine Entscheidungen treffen und wo nicht. Das ist wichtig. Und wie dann Roboter in zehn oder 20 Jahren funktionieren, das müssen wir, glaube ich, lösen, wenn wir so weit sind.
Welty: Aber auch schon jetzt gibt es viel zu tun. Die Robotik und ihre Auswirkungen auf die Rechtsprechung, sagt die Jura-Professorin Susanne Beck. Da müssen wir über einiges nachdenken. Frau Beck, haben Sie herzlichen Dank für dieses Interview.
Beck: Ich danke Ihnen!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema