Kommentar zu EU-Ethik-Leitlinien für KIs

Nur liebende Roboter wären vertrauenswürdig

05:06 Minuten
A humanoid robot. The seventh edition of Futurapolis, organized by Le Point magazine, was inaugurated in Toulouse (France) on November 16, 2018. For 2 days, the event, which is aimed at both the general public and businesses, is an opportunity to an inventory of technological advances, and to imagine the transformations of tomorrow. Photo by Patrick BATARD / ABACAPRESS.com |
"Computern ist alles scheißegal", meint der Philosoph David Lauer. © abaca
Von David Lauer · 14.04.2019
Audio herunterladen
Eine EU-Expertengruppe hat diese Woche ethische Leitlinien für Künstliche Intelligenzen vorgelegt. Die Rede von "vertrauenswürdigen" Maschinen darin ist blanker Unsinn, kommentiert der Philosoph David Lauer.
Der Science-Fiction-Schriftsteller Isaac Asimov hat Anfang der 40er Jahre die drei Gesetze der Robotik aufgestellt: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. Ein Roboter muss den Befehlen eines Menschen gehorchen. Und er muss seine eigene Existenz schützen, solange er damit nicht dem ersten oder zweiten Gesetz zuwiderhandelt.
Natürlich sind diese Gesetze fiktiv. Und doch scheinen sie den "Ethik-Leitlinien für eine vertrauenswürdige KI" der EU-Expertengruppe für Künstliche Intelligenz als Inspiration gedient zu haben. Künstliche Intelligenz, so heißt es darin, müsse ethischen Zielen dienen, damit Menschen ihr vertrauen können.

Lässt sich ethisches Denken programmieren?

Der Philosoph Thomas Metzinger allerdings, selbst Mitglied der Expertengruppe, hat die Bezeichnung "vertrauenswürdige KI" als "begrifflichen Unsinn" gebrandmarkt. Nur Menschen, nicht Maschinen, könnten vertrauenswürdig oder nicht vertrauenswürdig sein. Metzinger hat Recht, so meine ich. Aber das sehen nicht alle so. Das Forschungsfeld der Maschinenethik ist nämlich keine Science Fiction, sondern sehr real.
Dabei geht es um die Programmierung von künstlichen autonomen Agenten, also von Künstlicher Intelligenz, die selbst ethisch verantwortlich entscheiden können soll. Und warum auch nicht, so könnte man fragen. Jeder Schachcomputer, jedes Navigationsgerät kann die am besten geeignete Strategie zur Erreichung eines vorgegebenen Ziels auswählen. Warum sollte das nicht auch gehen, wenn diese Ziele ethisch definiert sind? Warum nicht der entsprechenden KI als oberste Zielinstanz Kants kategorischen Imperativ oder das utilitaristische Prinzip der Nutzenmaximierung einprogrammieren?
David Lauer steht für ein Porträt-Bild vor einem grauen Hintergrund.
Der Philosoph David Lauer.© © Fotostudio Neukölln / Gunnar Bernskötter
Die Antwort lautet: Weil man, selbst wenn man solche ethischen Taschenrechner baut, keinen moralischen Akteur erschaffen hat. Nur bei einer moralischen Akteurin aber kann sich die Frage ihrer Vertrauenswürdigkeit überhaupt stellen. Vertrauen im eigentlichen Sinne kann ich nur einem System, das sich selbst für etwas verbürgen kann, indem es sagt: Vertraue mir! Du hast mein Wort!
In der "Genealogie der Moral" spricht Nietzsche von einer paradoxen Aufgabe, welche sich die Natur in Hinsicht auf den Menschen gestellt habe: "ein Tier heranzüchten, das versprechen darf". Was würde es also heißen, eine Maschine zu programmieren, die versprechen darf? Ein Versprechen geben kann nur ein System, das Verantwortung übernehmen kann und ihr gerecht werden will. Es muss sich schuldig fühlen und auf sich stolz sein können.

Verantwortung übernehmen kann nur, wer lieben kann

Dazu muss es über ein Selbstbild verfügen und über den Wunsch, von anderen in diesem Selbstbild bestätigt zu werden. Das wiederum setzt voraus, dass andere ihm etwas bedeuten und es selbst anderen etwas bedeuten möchte. Mit anderen Worten: Um einen autonomen ethischen Agenten zu bauen, müsste man eine Maschine bauen, die empfindet, begehrt, genießt, leidet und liebt. Und wir haben keinerlei Ahnung, ob dies auch nur prinzipiell möglich ist.
Bis auf weiteres gilt daher der 40 Jahre alte Satz des amerikanischen Philosophen John Haugeland: Das Problem mit der Künstlichen Intelligenz sei, dass Computern alles scheißegal ist. Solange das so ist, ist die Rede von vertrauenswürdiger KI lediglich ein Marketinginstrument, das von den eigentlich Verantwortlichen ablenken soll. Was in Frage steht, ist in Wahrheit die Vertrauenswürdigkeit einer Industrie, die daran Interesse hat, KI-Systeme zu jedem Zweck an jeden zu verkaufen, der zahlt. Diese Vertrauenswürdigkeit aber kann nicht durch technischen Fortschritt sichergestellt werden, sondern nur durch politische Kontrolle.

David Lauer ist Philosoph und lehrt an der Christian-Albrechts-Universität zu Kiel. Seine Forschungsschwerpunkte liegen unter anderem in der Philosophie des Geistes und der Erkenntnistheorie. Er lebt mit seiner Familie in Berlin.

Mehr zum Thema