Philosophie

Kann man Robotern Moral beibringen?

Ein Serviceroboter wird am 3.6.2014 auf der Messe Automatica in München präsentiert.
Der Serviceroboter - wie lernfähig ist er im Hinblick auf Vernunft und Urteilskraft? © picture-alliance / dpa / Peter Kneffel
Janina Sombetzki im Gespräch mit Liane von Billerbeck · 27.05.2015
Vernunft, Entscheidungsfähigkeit, Urteilskraft - wie viel von diesen menschlichen Kompetenzen lässt sich auf Roboter übertragen? Maschinen könnten durchaus ähnlich wie ein Mensch handeln, sie seien "Quasi-Akteure", sagt die Philosophin Janina Sombetzki.
In Köln findet derzeit das Internationale Festival der Philosophie "phil.COLOGNE" statt. Dort wird die Kieler Philosophin Janina Sombetzki einen Vortrag zum Thema Roboterethik halten.
Maschinen könnten durchaus ähnlich "wie ein Mensch" handeln, sie seien als "Quasi-Akteure" zu betrachten, sagte Sombetzki im Deutschlandradio Kultur. Bestimmte menschliche Fähigkeiten und Kompetenzen ließen sich in äquivalenter Weise auf Maschinen übertragen, etwa Urteilskraft, Entscheidungsfähigkeit, Vernunft oder Autonomie.
"So dass man nicht sagen muss: Maschinen haben Autonomie, Maschinen haben Verantwortung. Sondern sie tragen etwas vergleichsweise Ähnliches. Sie funktionieren in einer ähnlichen Weise wie Menschen. Und sie werden in Situationen zum Einsatz gebracht, in denen eben vorher auch Menschen handelten und immer noch handeln."
Bei der Diskussion um Roboterethik sei das Verständnis von Autonomie von zentraler Bedeutung, meinte Sombetzki. Viele Kritiker definierten Autonomie ausschließlich als das Fehlen von äußeren Gründen. Dem sei eine andere Definition von Autonomie "im starken Sinne" entgegenzusetzen:
"Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Bei Menschen ist das relativ einfach, da sagt man: wie kommen wir zu unseren guten Gründen? Durch Erziehung beispielsweise, durch Bildung, durch Kommunikation. Und bei Maschinen müssten wir dann sagen: Die guten Gründe stellen sozusagen die Programmierung dar."
Aufgabe der Wissenschaftler sei es, den Diskurs über die Roboterethik in die Öffentlichkeit zu tragen. Dabei gehe es besonders um moralische und ethische Fragen:
"Schon für uns Menschen ist es nicht ganz klar, wie wir uns in bestimmten Situationen verhalten sollen. In der Mensch-Maschine-Interaktion sind es letztendlich dieselben Probleme, denen wir begegnen."


Das Interview im Wortlaut:
Liane von Billerbeck: Stellen wir uns das mal vor: Da ist ein Roboter im Haushalt eines pflegebedürftigen Menschen, um ihr oder ihm Hilfe zu leisten, das Leben zu erleichtern. Er ist auf bestimmte Arbeiten programmiert, jemanden füttern beispielsweise. Was aber, wenn der Betreute nicht mehr essen will und der Roboter aber sein Programm durchzieht?
Der Computer muss also quasi menschliche Entscheidungen treffen. Kann der solche Verantwortung übernehmen? Braucht es dafür eine Roboterethik? Darüber spricht morgen auf der phil.Cologne, die – der Name sagt es – in Köln beginnt, die Kieler Philosophin Janina Sombetzki, die sich mit diesen Fragen befasst und ganz nebenbei auch den Beweis erbringt, wie lebensnah Philosophie sein kann. Bei uns ist sie jetzt am Telefon, Frau Sombetzki, schönen guten Morgen!
Janina Sombetzki: Schönen guten Morgen, hallo!
von Billerbeck: Die phil.COLOGNE, das ist ja eine große Nummer mit viel Interesse und Publikum. Dennoch, Philosophie hat noch immer so ein bisschen ein angestaubtes Image. Was entgegnen Sie denn als junge Philosophin auf solche Klischees?
Sombetzki: Ja, also, in der Tat fühle ich mich tatsächlich nicht besonders angestaubt, insbesondere in den Themen und Arbeitsschwerpunkten, in denen ich mich bewege. Die Philosophie gibt es ja als solche nicht. Das Schöne ist ja an der Philosophie, dass sie ihr Gesicht wandelt mit denjenigen, die sie betreiben. Und hingegen die öffentliche Meinung ändert sich leider nicht so schnell.
Aber ich denke, dass gerade die phil.COLOGNE ein sehr gutes Beispiel dafür ist, ja, wie Sie selbst sagten, wie lebensnah tatsächlich, wie aktuell philosophische Themen sein können. Und das tatsächlich in allen möglichen Bereichen. Nicht nur im Bereich der Technikphilosophie, sondern auch in beispielsweise Bereichen wie Umweltethik. Auch in Genderfragen, feministischer Philosophie, politischer Philosophie, Sozialphilosophie und so weiter. Man könnte jetzt sozusagen alle Disziplinen der Philosophie auflisten. Manche Bereiche bieten sich noch mehr dafür an, glaube ich, mit empirischen Wissenschaften und in den öffentlichen Diskurs einzusteigen.
Industrie- und Servicerobotik
von Billerbeck: Dazu gehört bestimmt das Thema, das wir besprechen werden, nämlich die Frage, ob es eine Roboterethik braucht. Wenn Sie uns da mal ein paar Beispiele bringen, wo sind denn Roboter heute schon eingesetzt, in Bereichen, die früher der Mensch bearbeitet hat?
Sombetzki: Nun, das fängt natürlich mit der Industrierobotik an, würde ich sagen, geht dann in Bereiche wie Militär. Das sind, glaube ich, so die beiden Großbereiche, in denen Roboter schon sehr lange zum Einsatz gebracht werden in unterschiedlicher Weise. Und dann eben auch nicht so, dass sie den Menschen vollständig ersetzen, aber für bestimmte Aufgaben ersetzen, die gefährlich für den Menschen sind, auch im Weltraum beispielsweise, bei Weltraumarbeiten.
Zunehmend aber eben auch im Service, in der Servicerobotik. Und jetzt nicht nur in Medizin und Altenpflege, sondern auch, ja, im gastronomischen Bereich, könnte man vielleicht allgemeiner sagen. Also, in Japan gibt es Entwicklungen, dass Roboter in bestimmten Restaurants oder Hotels unterwegs sind und dort Gäste bedienen.
von Billerbeck: Beim militärischen Bereich, bei Drohnen oder so kann man sich die ethischen Fragen sofort vorstellen, die haben wir auch oft diskutiert. Aber wir wollen ja heute darüber reden, wie das ist, wenn diese Maschinen in Zwänge kommen, in denen sie knifflige Entscheidungen treffen müssen, wie ein Mensch, in Anführungsstrichen. Also Konzepten wie Willen, Gewissen, Verantwortung entsprechen müssen. Geht das überhaupt, kriegt die Maschine das hin?
Übertragung menschlicher Kompetenzen
Sombetzki: Tja, Sie haben es ja schon gesagt: wie ein Mensch. Es gibt hier nicht Menschen, die handeln, sondern Quasi-Akteure, könnte man sagen. Und vielleicht lassen sich diese starken Kompetenzen und Fähigkeiten wie eben Willensfreiheit, Autonomie, Entscheidungsfähigkeit, Urteilskraft, Vernunft in einer äquivalenten Art und Weise auf Maschinen übertragen.
Sodass man nicht sagen muss, Maschinen haben Autonomie, Maschinen haben Verantwortung oder tragen Verantwortung, sondern sie tragen etwas vergleichsweise Ähnliches. Sie funktionieren in einer ähnlichen Weise wie Menschen und sie werden in Situationen zum Einsatz gebracht, in denen eben auch Menschen vorher handelten und auch immer noch handeln, aber dafür braucht es eben nicht die volle Autonomie, das genuine Autonomieverständnis, das wir für Menschen in Anschlag bringen, sondern etwas vergleichsweise Ähnliches.
von Billerbeck: Aber das Beispiel, das ich vorhin gebracht hatte – ein Roboter ist darauf programmiert, einen alten, pflegebedürftigen Menschen zu füttern, der Mensch ändert seine Meinung, will nicht mehr essen, der Roboter muss sein Programm durchziehen –, was passiert dann?
Der Roboter und sein Programm
Sombetzki: Ich glaube, das kommt darauf an, welches Autonomieverständnis wir dem Ganzen zugrunde legen. Ganz grob könnte man sagen, man könnte ein negatives Autonomieverständnis haben, dass einige vertreten. Das sagt einfach nur: Autonomie ist da, wo kein äußerer Zwang vorliegt. Das wäre eine sehr leichte Definition, eine sehr weite und leichte Definition von Autonomie. Und da würden dann schon sehr viele Maschinen, und nicht nur Maschinen nebenbei, auch Tiere et cetera drunter fallen.
Autonomie in einem starken Sinne würde sagen, Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Und beim Menschen ist das irgendwie relativ einfach, da sagt man, na ja, wie kommen wir zu unseren guten Gründen: durch Erziehung beispielsweise, durch Bildung, durch Kommunikation, wie auch immer. Und bei Maschinen müssten wir dann sagen, die guten Gründe stellt sozusagen die Programmierung dar.
Aber auch beim Menschen haben wir ja schon häufig das Gefühl, dass wir quasi funktionieren, dass wir nicht in jedem Moment unsere guten Gründe neu und spontan und kreativ besetzen und uns auswählen und darüber reflektieren, sondern wir funktionieren nach Gründen, die wir unserem Handeln immer schon gegeben haben. Das ist dann gerne das, was wir Gewissen nennen. Auch da könnte man von einer weichen Form der Programmierung sprechen, wenn Sie so wollen. Und um das noch ein bisschen weiter zu bringen: Es gibt natürlich auch nicht nur die starken, die determinierten Algorithmen, sondern es gibt Lernalgorithmen, die es erlauben, dass nicht reproduzierbare Zustände auftreten in artifiziellen Systemen. Das heißt, dass man eben nicht so genau weiß, was am Ende dabei herauskommt.
Diffuse Angst der Menschen vor Maschinen
von Billerbeck: Sie hören schon, das ist ein weites Feld, was Frau Sombetzki da sozusagen hat. Nun haben ja viele Menschen eine diffuse Angst angesichts der Vorstellung, von einem Roboter gepflegt zu werden? Müssen wir da viel mehr drüber diskutieren, um diese Ängste auszuschalten?
Sombetzki: Unbedingt. Ich glaube, dass gerade was den großen Bereich der Servicerobotik anbelangt, dass es da sehr viel mehr an Diskussion bedarf.
von Billerbeck: Auch über die Regeln für Computer?
Sombetzki: Unbedingt, auf jeden Fall, weil es ja schon für uns Menschen nicht eins zu eins auszumachen ist und immer ganz klar, wie wir uns in bestimmten Situationen verhalten sollen. Deswegen gibt es ja den Bereich der Moral, der Ethik, weil es einfach nicht von vornherein klar ist, welche Regeln wir Menschen in der Interaktion mit Menschen uns geben wollen. In der Mensch-Maschine-Interaktion sind es letztlich dieselben Probleme, denen wir begegnen.
Und das heißt, natürlich müssen wir uns darüber austauschen, welche Regeln, welche moralischen Kriterien, welche moralischen Gesetze wir dem Ganzen zugrunde legen wollen, aber natürlich auch ist es eine Aufgabe der Wissenschaftler, jetzt nicht nur der Philosophen, sondern natürlich der Informatiker, der Kybernetiker, der Robotiker, der Unternehmer, der Journalisten, dass wir diesen Diskurs in die Öffentlichkeit tragen und ihn in der Öffentlichkeit austragen. Und damit eben auch ein Stück gewährleisten, dass diese Angst vor Maschinen, vor den Maschinen, dass wir die ein bisschen regulieren oder zumindest darauf antworten.
von Billerbeck: Janina Sombetzki war das, Philosophin an der Christian-Albrechts-Universität Kiel. Und morgen wird sie auf der phil.COLOGNE über das höchst spannende Thema Roboterethik sprechen. Bei uns war sie heute schon, die phil.COLOGNE läuft noch bis zum 3. Juni dortselbst. Ihnen herzlichen Dank für das Gespräch!
Sombetzki: Danke!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema