Seit 01:05 Uhr Tonart

Dienstag, 15.10.2019
 
Seit 01:05 Uhr Tonart

Zeitfragen / Archiv | Beitrag vom 22.06.2017

Ethikrat-KonferenzWer trägt die Verantwortung für autonome Systeme?

Von Christiane Habermalz

Podcast abonnieren
Erfurt (Thüringen): Im Operationssaal des Katholischen Krankenhauses St. Johann Nepomuk in Erfurt bereiten Ärzte und eine Schwester am 28.10.2000 eine Operation mit dem OP-Roboter CASPAR (Computer Assisted Surgical Planning and Robotics) vor. (picture-alliance / ZB)
Die Angst vor Kontrollverlust stehe meist im Fokus, dabei bergen autonome Systeme vor allem große Chancen, meint der Physiker Hennig Kagermann. (picture-alliance / ZB)

Wir geben immer mehr Entscheidungen an Maschinen ab. Aber wer ist dann verantwortlich, wenn etwas außer Kontrolle gerät? Auf der Jahrestagung diskutierte der Ethikrat Fragen rund um autonome Systeme, die nicht leicht zu beantworten sind.

Die Entwicklung geht schnell, und sie wird unser Leben stark verändern. Selbstfahrende Autos, Smart Homes, automatische Rasenmäher, Pflegeroboter, Suchmaschinen – intelligente Maschinen haben unseren Alltag längst erobert. Und hinter den autonomen Systemen steht die Verheißung einer besseren und bequemeren Zukunft. Doch was bedeutet es für eine Gesellschaft, wenn Entscheidungen zunehmend vom Menschen auf Maschinen delegiert werden? Peter Dabrock, Theologe und Vorsitzender des Deutschen Ethikrates stellt gleich zu Beginn der Konferenz "Autonome Systeme. Wie intelligente Systeme uns verändern" die entscheidenden Fragen.

"Soll uns das beunruhigen, wenn der Kühlschrank Daten über Daten von mir sammelt, und auch die anderen Haushaltsgeräte und schon voraussagen können, was ich als nächstes machen will. Und das ganze Haus ist mit Sensoren vollgestopft, die Daten sammeln und sie weitergeben?"

Was, wenn der Patient Gefühle entwickelt für seinen Pflegeroboter, und die eingesparte Zeit gar nicht der menschlichen Zuwendung zugutekommt, sondern als bloße Rationalisierungsmaßnahme dient? Wie wird sich unsere Gesellschaft dadurch in sozialer Hinsicht verändern? Und nicht zuletzt:

"Wer trägt Verantwortung für die Handlungen autonomer Systeme, wenn der Nutzer selbst an solchen Entscheidungen nur noch am Rande oder vermeintlich gar nicht mehr beteiligt ist?"

"Bedrohungspotenzial verkauft sich besser"

Hennig Kagermann sieht in den autonomen Systemen vor allem große Chancen. Der Physiker war lange Jahre im Vorstand des Softwareunternehmens SAP, heute ist er Präsident der acatech, der Deutschen Akademie der Technikwissenschaften. In der Öffentlichkeit würde jedoch, siehe Golem und Frankenstein, vor allem die Angst vor Kontrollverlust im Vordergrund stehen, klagt Kagermann.

"Sie alle lesen Zeitung, Sie alle lesen Bestseller, und natürlich, wie jede radikale Entwicklung, auch hier gibt es Bedrohungspotenzial, und das verkauft sich besser als die Chancen."

Autonome Systeme seien besonders sinnvoll für den Einsatz in menschengefährdenden Situationen, bei der Minenräumung, beim Rückbau von Kernkraftwerke. Im Verkehr würden 90 Prozent der tödlichen Unfälle auf menschliches Versagen zurückgehen – autonomes Fahren schützt den Menschen hier quasi vor sich selbst. Doch wer trägt die Verantwortung, wenn doch ein Unfall passiert? Ist es so, wie Bundesverkehrsminister Alexander Dobrindt kürzlich postulierte, als er bei der Vorstellung seines Gesetzes zum Autonomen Fahren ankündigte: "Wir stellen Fahrer und Computer jetzt rechtlich gleich"? So weit sind wir noch nicht, beruhigt die Juristin Christiane Wendhorst, Professorin für Zivilrecht an der Universität Wien.

"Nach wie vor haben jedenfalls aus juristischer Sicht Maschinen keine Rechtspersönlichkeit, sie sind nicht selbst Regelungsadressaten, sondern, die Regeln die wir haben richten sich an Personen."

Menschliche Entscheidungen sind hochkomplex

Sprich: Noch immer tragen der Fahrer bzw. bei Systemversagen der Hersteller die Verantwortung. Haftungsansprüche sind durch Versicherungen geregelt. Doch oft lässt sich kaum nachvollziehen, wo der Fehler lag, und wer im komplexen Produktbündel "vernetztes Auto" dafür zuständig ist. Das Produkthaftungsrecht ist auf so etwas kaum eingestellt, sagt Wendhorst.

Philosophisch und kulturgeschichtlich ist der Verantwortungsbegriff klar an die Conditio humana gebunden und nicht auf Maschinen übertragbar, sagt auch Julian Nida-Rümelin, Philosoph und früherer Staatsminister für Kultur. Menschliche Entscheidungen seien hochkomplex und ließen sich nicht auf eine reine Folgenanalyse reduzieren.

"Da geht es um Rechte, um Rücksichtnahmen, um Freiheiten, um Integritäten, um Kooperationen, um partikulare Bindungen, es ist alles ziemlich komplex, und diese schöne Idee der Reduktion auf eine Bewertungsfunktion und ein Optimierungsgebot kann nicht funktionieren."

Beispiele, die immer wieder genannt werden: Moralische Dilemmata. Welches Leben ist im Straßenverkehr mehr wert – das einer Kindergartengruppe oder das eines Senioren? Eine Maschine kann zwar mit Wertmaßstäben als Entscheidungsgrundlage gefüttert werden, aber:

"Es macht einen Riesenunterscheid aus, ob der einzelne Fahrer sagt, hier sind drei Kinder und ich kann die retten, indem ich in den Abgrund fahre. Ich opfere mein Leben, um diese drei Kinder zu retten. Oder ob das in die steuernde Software eingebaut ist. Das eine ist eine öffentliche Frage, wollen wir das generell, das andere ist eine individuelle Entscheidung, das ist ein kategorialer Unterschied."

Thea Dorn fordert Training der geistigen Urteilskraft

Am Ende ist es die Philosophin und Theaterwissenschaftlerin Thea Dorn, die die Konferenz noch einmal aufrüttelt. Immer wieder werde gesagt, autonome Systeme seien wunderbar, solange die Menschen die Kontrolle behalten. Dabei würden wir durch intelligente Systeme genau das immer mehr verlernen. Irgendwann sind wir gar nicht mehr in der Lage, dem System zu widersprechen.

"Woher sollen die Menschen kommen, die am Schluss bereit sind für solche gravierende Entscheidungen wie im Kriegsfall Verantwortung zu übernehmen? Wenn wir im Alltag systematisch abtrainiert kriegen, dass wir für unsere Entscheidungen gerade stehen, sondern immer nur sagen können, naja, das Navi hats mir gesagt, mein Schrittzähler hats mir gesagt, mein Ernährungsprogramm hats mir gesagt. Und das halte ich für einen ganz gefährlichen Trend."

Deutschland brauche dringend ein Fitness-Studios für geistige Urteilskraft, forderte Thea Dorn. Darum müsse sich der Ethikrat kümmern. 

Mehr zum Thema

Der Tag mit Daniel Bax - "Wir sind im Alltag angekommen, und das ist gut"

Automatisiertes Fahren - Kann ein Autopilot haftbar gemacht werden?
(Deutschlandfunk Kultur, Studio 9, 20.06.2017)

Roboter im OP - Wer operiert hier?
(Deutschlandfunk, Wissenschaft im Brennpunkt, 12.03.2017)

Zeitfragen

weitere Beiträge

Entdecken Sie Deutschlandfunk Kultur