Künstliche Intelligenz und Empathie

Maschinen, die Gefühle zeigen

43:19 Minuten
Weiblich aussehende Köpfe von Sexrobotern mit künstlicher Intelligenz stehen auf einer Holzfläche.
Maschinen schauen uns an: Köpfe für Sexroboter mit kommunikativen Grundfertigkeiten. © imago images / VWPics / Sergi Reboredo
Catrin Misselhorn im Gespräch mit Stephanie Rohde · 21.03.2021
Audio herunterladen
Sexroboter sollen uns dank emotionaler Intelligenz noch näher kommen. Das werfe ethische Fragen auf, sagt die Philosophin Catrin Misselhorn. Das Ausmaß, in dem diese und andere Maschinen Gefühle ausforschen und beeinflussen, sei bedenklich.
Jetzt zeigen sie also auch noch Gefühle: Sexroboter, die über Sprache und Mimik verfügen, sind nicht das einzige Beispiel dafür, dass Maschinen auf das Feld der Emotionen vordringen. "Artificial Empathy", also maschinell erzeugtes – oder simuliertes – Mitgefühl, ist seit einigen Jahren ein Trend in der Forschung zu künstlicher Intelligenz, kurz: KI. Es könnte Roboter für Aufgaben in der Pflege qualifizieren, aber auch für den Einsatz in Therapien – oder als programmierbare Sexualpartner.

"Ein gewisses Gruseln"

Catrin Misselhorn, Professorin für Philosophie an der Georg-August-Universität Göttingen, empfindet angesichts derartiger Szenarien "ein gewisses Gruseln". Das habe jedoch nichts mit der Aussicht zu tun, "dass Maschinen vielleicht eines Tages Emotionen empfinden und Menschen dadurch zu ähnlich werden könnten". Von einem solchen Quantensprung seien wir weit entfernt, so Misselhorn.
Sorgen bereite ihr vielmehr, "welche Möglichkeiten des Eindringens in unsere intimsten inneren Erlebnisse und welche Manipulationsmöglichkeiten" mit der technischen Erfassung und Simulation menschlicher Emotionen einhergingen – Möglichkeiten, die von großen Tech-Konzernen wie Facebook bereits intensiv genutzt würden.
Wenn heute von "empathischer KI" gesprochen werde, sei das "natürlich auch eine Marketingstrategie", so Misselhorn. Echte Empathie impliziere, "dass man die Gefühle einer anderen Person mitempfinde". Davon könne bei Maschinen nach dem heutigen Stand der Technik keine Rede sein. Ein "subjektiver Erlebnisaspekt" sei bei ihnen nicht vorhanden. Sehr wohl könnten sie allerdings menschliche Emotionen analysieren.

Roboter lesen Gesichter

"Gefühle lassen sich auch an objektiven Anzeichen ablesen, etwa der Mimik, der Stimme oder an physiologischen Veränderungen, beispielsweise der Herz- oder Atemfrequenz, der Muskelspannung und Hautleitfähigkeit", erläutert Misselhorn. Besonders fortgeschritten sei die gesichtsbasierte Emotionserkennung. Sie funktioniere besonders gut bei basalen Emotionen wie Furcht, Freude oder Traurigkeit, die mit bestimmten Gesichtsausdrücken verknüpft seien. Solche Merkmale könnten durch Mustererkennung von den Systemen allmählich immer besser erfasst werden.
Dabei bestehe ein besonderer Reiz für die Entwickler solcher Systeme darin, dass Gesichtsausdrücke viel weniger bewusst kontrolliert werden könnten, als es den meisten Menschen bewusst sei, so Misselhorn: "Es gibt eine sogenannte Mikromimik, die verrät, ob wir etwas gerade nur vortäuschen oder tatsächlich einen bestimmten emotionalen Gesichtsausdruck haben."

Wenn die Psyche leckschlägt

Der US-amerikanische Psychologe Paul Ekman spreche daher von "Lecks der Psyche", durch die unser Innenleben unfreiwillig nach außen dringe, selbst dann, wenn wir Gefühle eigentlich nicht preisgeben wollten – oder uns ihrer selbst gar nicht wirklich bewusst seien. "Und das ist eben der Grusel", sagt Catrin Misselhorn, "dass diese Emotionserkennung uns sehr stark in unserer Intimsphäre auf die Pelle rückt."
Porträt von Catrin Misselhorn.
Wenn Roboter unsere Gefühle scannen, profitierten davon vor allem die Konzerne, die diese Daten sammeln, warnt die Philosophin Catrin Misselhorn.© Stephanie Trenz
In der Industrie stehe die technische Emotionserkennung im Zusammenhang mit einer Trendwende: "weg von der reinen Automatisierung, hin zu Lösungen, deren Endziel nicht die Ersetzung von Menschen durch Maschinen ist, sondern die Zusammenarbeit von Mensch und Maschine." Emotionale KI solle diese Interaktion "natürlicher und intuitiver machen", so das Argument vieler Entwickler-Firmen, die Roboter auch als "soziale Gefährten" konzipierten.

Emotionale KI nicht den Konzernen überlassen

Tatsächlich nützten die Systeme aber vor allem den Unternehmen selbst, "die mit der Erkennung von Emotionen Profite machen", sagt Misselhorn. Deshalb sei es ganz entscheidend, "dass wir den Umgang mit emotionaler KI nicht nur den Konzernen überlassen, die diese Technologien entwickeln und für ihre Zwecke einsetzen, sondern es gilt, diese Entwicklung nach unseren ethischen und sozialen Vorstellungen politisch zu steuern und zu regulieren."
Ethische Herausforderungen ergäben sich schon daraus, dass wir auf intelligente Maschinen emotional reagierten: "Das ist ja der Witz, auch wenn die künstlichen Systeme keine Gefühle empfinden, empfinden wir gleichwohl Empathie mit ihnen." Geradezu wissenschaftlich-experimentell habe Stanley Kubrick dieses Verhältnis in seinem Film "2001 Odyssee im Weltraum" ausgelotet, bemerkt Misselhorn.

Ethische Ansprüche intelligenter Maschinen

Der Bordcomputer eines Raumschiffs hat bereits mehrere Astronauten getötet, weil er den Erfolg der Mission durch sie gefährdet sieht, da macht sich der überlebende Astronaut Dave Bowman daran, das System abzuschalten. Der Computer "HAL 9000" erkennt seine Absicht und bittet ihn, von seinem Vorhaben abzulassen. Dabei wirkt die Maschine äußerst menschlich: "Ich habe Angst", sagt HAL, und als bereits Teile seines Speichers entfernt wurden, beginnt er, ein Lied zu singen, wie ein Kind, das in einem dunklen Wald gegen seine Furcht ankämpft.
Die Filmszene zeige, "wie diese Stimme immer mechanischer wird, immer mehr von ihrer menschlichen Qualität verliert und am Ende damit natürlich auch immer weniger Empathie erzeugt im Betrachter", sagt Catrin Misselhorn. "Und man muss sich dann die Frage stellen: Hat HAL Emotionen? Ist es also moralisch falsch, ein solches Wesen mit einem Selbsterhaltungsinteresse, mit Angst vor dem Tod, abzuschalten? Oder muss man umgekehrt den Schluss ziehen, dass es sich um eine subtile Form der Manipulation handelt?"

Menschliches Mitgefühl in Gefahr

Und noch etwas müsse in Betracht gezogen werden, wenn es um ethische Grundsätze für den Umgang mit intelligenten Maschinen gehe, so Misselhorn – die Frage nämlich, wie dieser Umgang auf uns selbst als Menschen zurückwirke: "Eine Interpretation wäre ja, zu sagen: Na ja, so lange diese Wesen nicht wirklich Emotionen haben, so lange können wir mit denen machen, was wir wollen." Es gebe Leute, die mit diesem Argument zum Beispiel rechtfertigten, dass jemand einen Sexroboter dazu verwendet, eine Vergewaltigungsfantasie auszuleben: Auf diese Weise würde ja keinem wirklichen Menschen ein Schaden zugefügt.
"Eine andere Interpretation wäre aber, zu sagen: Es kommt nicht nur allein darauf an, ob die etwas empfinden, oder ob sie nur so tun, es kommt auch darauf an, wie wir darauf reagieren", so Misselhorn. Mit diesem Argument habe der Philosoph der Aufklärung Immanuel Kant Grausamkeit gegenüber Tieren für moralisch verwerflich erklärt, "nicht etwa deshalb, weil Tiere für ihn moralische Ansprüche haben, sondern weil dadurch das Mitgefühl der Menschen abgestumpft und dadurch eine der Moralität im Verhältnis zu anderen Menschen wichtige moralische Anlage geschwächt wird."

Noch nicht marktreif: Sex mit einem Alien

Sollten wir Roboter also mit Rücksicht behandeln, um nicht selbst unmenschlich zu werden? Diese Position vertrete auch die Anthropologin Kathleen Richardson, sagt Misselhorn. Sie kämpfe mit einer Kampagne gegen Sexroboter insbesondere dagegen, dass künstliche Sexualpartner Frauen oder Mädchen nachgebildet werden.
Das Argument, dass Menschen an ihnen stellvertretend sexuelle Handlungen ausführen könnten, mit denen sie einem menschlichen Partner schaden würde – vielleicht sogar zu therapeutischen Zwecken –, lasse Richardson nicht gelten: Es komme ja auch niemand auf die Idee, Roboter zu konstruieren, "die rassistischen oder antisemitischen Vorstellungen entsprechen, damit Rassisten oder Antisemiten ihre Vorurteile und Aggressionen an ihnen abreagieren und nicht an echten Menschen."
In sexuellen Handlungen an "weiblich" gestalteten Robotern komme "eine moralisch fragwürdige, sexistische Einstellung gegenüber Frauen zum Ausdruck", unterstreicht Catrin Misselhorn. Aus diesem Grund sei ihr Gebrauch "moralisch anstößig" – zumindest, wenn es sich um Modelle handle, die das stereotype Bild einer Frau als beliebig verwendbares Sexobjekt reproduzierten. Vorstellbar seien natürlich auch ganz anders gestaltete Sexroboter, "die gar nicht menschenähnlich sind und dadurch ganz neue sexuelle Erlebnisformen schaffen." An solchen Alternativen werde auch bereits geforscht. Aber die "ziemlich alienartig aussehenden" Prototypen würden sich auf dem Markt wohl eher als Nischenprodukte erweisen.
(fka)

Catrin Misselhorn: "Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co"
Reclam Verlag, Stuttgart 2021
150 Seiten, 6 Euro

Außerdem in dieser Ausgabe von Sein und Streit:

Debatte über Diskriminierung: "Struktureller Rassismus" - ein irreführender Begriff
Obwohl rassistische Einstellungen hierzulande abnehmen, werden sie immer lauter beklagt. Dass Diskriminierungen bekämpft werden, sei wichtig, meint Philipp Hübl. Die Rede vom "strukturellem Rassismus" aber lege falsche Schlüsse nahe.

"Kritische Theorie des Hörens": Die Welt mit den Ohren sehen
Die Welt erkennen, das tun wir meistens mit den Augen. Das Hören als Weg der Erkenntnis fristet dagegen eine kümmerliche Existenz, auch in der Philosophie. Zu Unrecht, wie Martin Mettin zeigt.

Mehr zum Thema