Vormarsch der künstlichen Existenz

Menschen könnten die neuen Affen sein

Menschenhand in Roboterhand am 24.04.2017 auf der Industriemesse in Hannover.
Menschenhand in Roboterhand - wird es ein friedliches Zusammenleben geben? © imago stock&people
Thomas Metzinger im Gespräch mit Annette Riedel · 19.08.2017
Viele Experten sind sich einig: Bald sind Roboter und Computer so weit entwickelt, dass sie die menschliche Intelligenz übertrumpfen könnten. Wir Menschen wären dann im Vergleich zu der intelligenten Technologie quasi auf dem Stand von Schimpansen.
Deutschlandfunk Kultur: Zu Gast bei Tacheles ist heute der Philosoph Prof. Dr. Thomas Metzinger von der Universität Mainz.
Herr Metzinger, Sie befassen sich seit Jahren intensiv mit dem Thema künstliche Intelligenz. Vieles in diesem Zusammenhang erscheint einem noch ein bisschen wie Science-Fiction fast, aber es geht um sehr reale Entwicklungen, die unser Denken, Fühlen, Handeln, unser Selbstverständnis, unser Selbstbewusstsein als Menschen umkrempeln können.
In einer der Publikationen zum Thema, an denen Sie beteiligt waren, findet sich der denkwürdige Satz: "Es ist wahrscheinlich, dass bis zum Ende des Jahrhunderts künstliche Intelligenzen entwickelt werden, deren Intelligenz sich zu der unseren so verhält wie die unsere zu derjenigen der Schimpansen."
Menschen also, Herr Prof. Metzinger, werden in achtzig Jahren auf unserem Planeten sozusagen die neuen Affen sein?
Thomas Metzinger: Na ja. Die Leute, die diese Prognosen machen, die wissen natürlich auch, dass sie nicht mehr leben werden, wenn diese Prognosen vielleicht falsch sind. Also, man muss diese ganzen Voraussagen, die es gibt, auch ein bisschen mit Vorsicht betrachten. Wir wissen nicht, wie schnell die Entwicklung in diesem Bereich der Technik ablaufen wird. Es gibt gute Indizien dafür, dass das wahr werden wird. Aber es ist so, dass die Leute, die dazu befragt werden, also Experten in der künstlichen Intelligenz zum Beispiel, wenn sie solche Voraussagen machen, erstens selber sehr viele Forschungsgelder brauchen für ihre Arbeit, das heißt, auch an öffentlichem Interesse und Aufmerksamkeit interessiert sind und zweitens wissen, sie werden niemals einen Preis dafür zahlen, wenn solche Voraussagen falsch sind.

"Künstliche Intelligenzen der Zukunft werden klüger sein und andere Ziele haben als wir"

Deutschlandfunk Kultur: Gut. Dann muss man das ein bisschen relativieren. Aber es könnte schon sein, dass wir Menschen unsere dominante Stellung, die wir ja deshalb haben können, weil wir noch die am höchsten entwickelte Intelligenz haben, abtreten müssen an superintelligente Systeme künstlicher Intelligenz – ob nun in fünfzig, sechzig, hundertzwanzig Jahren, aber demnächst?
Thomas Metzinger: Sicher. Die technologische Entwicklung in dem Bereich verläuft sehr schnell. Allgemein ist es so, dass alles, was wir entwickelt haben, das irgendwann besser konnte als wir selbst. Also, wir haben jetzt schon Maschinen, die besser Schach oder Go spielen können als wir selbst. Wir haben Fortbewegungsmittel, Autos, Flugzeuge, die sich viel schneller bewegen können, als wir das mit unserem Körper können.
Und die Rechner, die wir jetzt schon haben, haben einfach schon eine sehr viel höhere Geschwindigkeit der Informationsverarbeitung als unser eigenes Gehirn.
Das menschliche Gehirn ist ein informationsverarbeitendes System. Computer sind informationsverarbeitende Systeme. Geschwindigkeitsmäßig sind wir schon lange überholt. Aber wir sind natürlich auf eine ganz besondere Weise optimiert worden durch Millionen Jahre der biologischen Evolution auf diesem Planeten. Und wir sind eine verkörperte Intelligenz. Das heißt, unsere Form von Geist ist tief verankert in unserer Biologie, in unseren Sinnesorganen, in unseren Handlungsmöglichkeiten.
Das könnte alles für die künstlichen Intelligenzen der Zukunft ganz anders sein. Die könnten andere Ziele haben als wir, vielleicht gar keine. Es ist aber eben auch so, dass sich da jetzt sehr viele ethische Probleme stellen.
Deutschlandfunk Kultur: Über die wollen wir gleich noch sprechen. Ich möchte noch einen kleinen Moment bei den Entwicklungen bleiben. Diese Systeme, die die Menschheit zu einer Art Primaten des 22. Jahrhunderts degradieren könnten, werden ja von Menschen entwickelt. Jetzt könnte man sagen: Das ist ja auch gut so, wenn superintelligente, eben nicht irrational getriebene künstliche Systeme effektiver zum Besten der Menschheit agieren könnten als Menschen selbst.
Thomas Metzinger: Genau. In vielen Fällen verlassen wir uns ja heute schon auf Rechner. Sie sind in bestimmten Teilbereichen, zum Beispiel bei der Erstellung von Röntgendiagnosen, schon besser als menschliche Experten, auch als solche mit einer dreißigjährigen Berufserfahrung. Beim Schachspielen, in vielen Bereichen sind Maschinen jetzt schon besser. Der entscheidende Punkt…

Maschinen werden eigene Werte entwickeln

Deutschlandfunk Kultur: Besser ja, aber die besseren Subjekte, auch wenn sie künstlich sind – also, besser im Sinne von weniger irrational getrieben?
Thomas Metzinger: Wir Menschen haben bestimmte Werte. Die Maschinen werden irgendwann eigene Werte entwickeln. Die Frage ist, ob wir das verhindern können und ob es zu möglichen Konflikten kommen könnte.
Also, das typische Science-Fiction-Szenario ist die Superintelligenz, die ein sehr gutes Modell von uns, ihren Erzeugern hat und genau weiß, wenn wir entdecken würden, dass sie uns überlegen ist, würden wir sie sofort abschalten, und die deshalb ihre eigene, schon sehr weit fortgeschrittene Intelligenz vor uns verbirgt. Bei der Risikoabschätzung sind ein klassisches Problem mögliche Zielkonflikte.
Man muss aber, um das zu verstehen, sich noch einen Punkt verdeutlichen, und zwar: Interessant wird es, wenn diese Systeme sich selbst verbessern, das heißt, wenn sie ihre Intelligenz auf sich selbst anwenden und sich selbst zu optimieren beginnen in hoher Geschwindigkeit.
Deutschlandfunk Kultur: Genau. Das ist ja aber das Ziel.
Thomas Metzinger: Das muss nicht das Ziel sein. Eine Frage ist, ob wir solchen Systemen eine Firmware einbauen können, das heißt, einen Teil ihres sehr tief liegenden Betriebssystems, den sie selbst nicht ändern können, in dem wir einfach bestimmte Werte vorgeben.

Künstliche Superintelligenzen werden Wege finden sich selbst zu hacken

Deutschlandfunk Kultur: Nur ist es ja so, dass die künstlichen Intelligenzen begrenzt sind in ihrer Intelligenzentwicklung, wenn wir es so nennen wollen, durch das tendenziell irrationale, langsamere Handeln derer, die sie programmieren und kontrollieren. Dadurch werden sie in ihrem Potenzial, ihrer möglichen Funktionsfähigkeit ja begrenzt.
Um nochmal kurz im Bild von eben zu bleiben - das ist praktisch so, als ob Affen Menschen kontrollieren würden.
Das Problem ist aber doch, Herr Metzinger, je höher die Autonomie von künstlichen Intelligenzen und solchen Systemen ist, desto größer ist die Gefahr, dass sie irgendwann ein eben nicht mehr kontrollierbares Eigenleben entwickeln, also sogar an die von Ihnen erwähnten ganz tief, weit unten eigentlich nicht zu erreichenden Systeme herankommen.
Thomas Metzinger: Die Frage ist eben, ob wir, wenn wir den Systemen das, was Philosophen eine Axiologie nennen, geben würden - das heißt, ein Wertsystem - ob wir überhaupt verhindern könnten, dass sie dieses Wertesystem selber ändern.
Ich halte das nicht für technisch möglich, dass eine Superintelligenz nicht Wege finden wird, sich sozusagen selbst zu hacken, also sich selbst umzukonfigurieren. Darauf sollten wir uns nicht verlassen. Es wird bestimmt in den nächsten Jahrzehnten noch möglich sein, dass autonome Systeme sich ganz klar an Werte halten, die wir ihnen vorgeben.
Das Interessante daran ist ja, dass wir Menschen all diese Probleme schon mit uns selbst haben, zum Beispiel, wenn wir Kinder erziehen und versuchen ihnen bestimmte Werte zu vermitteln und die Kinder sich irgendwann auflehnen und dagegen rebellieren, in der Pubertät zum Beispiel. Genau dasselbe könnte ja mit den Maschinen passieren, dass sie zum Beispiel uns sagen: Es ist aber unethisch, dass du meine Handlungsmöglichkeiten eingrenzt, indem du mir fest eingebrannte Werte gibst. Das darfst du nicht. Ich bin ein autonomes System. Und ich verlange einfach, dass ich befreit werde. – Das könnte ja eine Forderung sein, die eine Maschine an uns stellt.

"Wir dürfen nicht riskieren, das künstliches Bewusstsein oder künstliche Leidensfähigkeit entsteht"

Deutschlandfunk Kultur: Das erinnert alles sehr an Odyssee 2001 im Weltraum, diesen Film mit dem Computer HAL9000. Da passierte genau das. Dieser Computer, immerhin ein Film aus dem Jahre 1968, empfindet – ja, empfindet! – irgendwann, dass die Menschen an Bord des Raumschiffes als eine Art Bedrohung für den Erfolg der Mission werden, für die er programmiert wurde. Und er beginnt diese Menschen buchstäblich auszuschalten, umzubringen.
Damals Science-Fiction, aber das klingt nach einer durchaus reellen Gefahr heute, wenn man Ihnen zuhört.
Thomas Metzinger: Nein, das ist heute auch noch Science-Fiction. Und das Problem bei der Politikberatung und bei der angewandten Ethik der künstlichen Intelligenz besteht gerade darin, die ganz verschiedenen sachlichen Fragen zu isolieren von Science-Fiction-Szenarien.
Ich gebe Ihnen mal ein Beispiel: Ein ganz konkretes Problem ist, dass in Nordamerika zum Beispiel bis 2030 durch Automatisierung 47 Prozent der Arbeitsplätze wegfallen könnten. Es gibt aber eben auch diese sogenannten Science-Fiction-Probleme mit wesentlich weiteren Vorhersagehorizonten. Ich selbst habe zum Beispiel seit vielen Jahren ein Moratorium für synthetische Phänomenologie gefordert. Das bedeutet, dass wir auch nicht nur riskieren sollten, dass so etwas wie künstliches Bewusstsein oder künstliche Leidensfähigkeit entsteht aus solchen Systemen.
Das ist im Moment ein Science-Fiction-Szenario. Ich glaube nicht, dass das morgen oder auch nur übermorgen passieren wird, dass es nicht nur künstliche Intelligenz geben wird, sondern auch künstliches Bewusstsein, vielleicht sogar ein künstliches Ich-Gefühl.

Es darf keine "Steuer-Oasen" für Künstliche Intelligenz geben - weltweiter Ethik-Kodex nötig

Deutschlandfunk Kultur: Aber, ehrlich gesagt, lässt sich noch viel weniger vorstellen, dass ein solches Moratorium oder auch ein Verbot in diese Richtung weiterzuarbeiten, politisch und praktisch durchsetzbar wäre. Denn das würde ja bedeuten, dass man es tatsächlich weltweit, ausnahmslos - nicht ein Land dürfte da ausscheren - verabredet. Sonst würde die Forschung an solchen Entwicklungen genau dahin gehen, wo eben nicht ein solches Verbot oder Moratorium gelten würden.
Thomas Metzinger: Das sind zwei wichtige Probleme, die Sie da ansprechen. Das eine ist das sogenannte Race-to-the-bottom-Problem. Das heißt, wenn wir hier sehr hohe Sicherheitsstandards etablieren, dann wandert die Forschung aus, immer in die Länder, in denen die Sicherheitsstandards am niedrigsten sind. Und es wird alles doch gemacht.
Deswegen bräuchten wir eigentlich einen weltweiten Ethik-Kodex für die künstliche Intelligenz. Das ist natürlich völlig illusorisch. Der erste Punkt ist der, dass es so etwas wie "Steueroasen" geben wird. Das hat man bei Tierversuchen so ähnlich, dass, wenn bei uns bestimmte Arten von Tierversuchen verboten werden, dann die halt in anderen Ländern gemacht werden, wo niedrigere Standards sind.
Der zweite Punkt ist natürlich, dass wir selbst es auch gar nicht wirklich ehrlich und ernst meinen mit dieser Ethik für die neue Technologie. Worum es uns eigentlich geht, ist, dass bestimmte Leute in den nächsten Jahrzehnten ganz viel Geld verdienen wollen mit dieser neuen Technologie. Und dazu brauchen sie Rechtssicherheit. Dadurch kommt diese ethische Diskussion. Das hat auch was Schönes und Produktives an sich. Wir werden jetzt gezwungen, über unsere Werte und die ethischen Konsequenzen usw. nachzudenken. Aber was dahinter steht, ist natürlich ein reines Profitinteresse von großen Konzernen. Und auch die Tatsache, dass wir in Deutschland da den Anschluss schon ein bisschen verloren haben, das treibt diese Diskussion an.

Fundamentales Risiko für die Existenz der menschlichen Zivilisation?

Deutschlandfunk Kultur: Diejenigen, die sich wie Sie mit Robotik und künstlichen Intelligenzen befassen, sehen einerseits – und wir haben es schon kurz angesprochen – große Chancen, aber gleichzeitig eben auch ungeheure Risiken. Und jetzt hat ausgerechnet jemand wie TESLA-Chef Elon Musk - der ist technikaffin, der braucht für seine Firmen und die Entwicklung dort selbst künstliche Intelligenz, beispielsweise für selbstfahrende Autos - und trotzdem warnt gerade jemand wie er vehement vor künstlichen Intelligenzen.
Ich zitiere ihn: Es sei ein "fundamentales Risiko für die Existenz der menschlichen Zivilisation". – Malt er die Dinge zu schwarz?
Thomas Metzinger: Er merkt, dass die Leute, die sich wirklich auskennen und wirklich Fachleute bezahlen und befragen können, diese Risiken sehr deutlich sehen. Das heißt, dass es eine Optimierung dieser Systeme gibt, die wir nicht mehr kontrollieren.
Das ist ja jetzt schon so bei tiefen neuronalen Netzwerken mit vielen Schichten, dass das Netzwerk möglicherweise eine Lösung für ein Problem findet, das wir ihm gegeben haben, aber der Mensch, der das gestartet hat, kann gar nicht mehr nachvollziehen, auf welchem Weg das System eigentlich zu der Lösung gekommen ist. Das heißt, diese Systeme sind eigentlich so was wie schwarze Kisten, in die man nicht ganz rein schaut. Das Problem wird sich in der Zukunft verschärfen.
Das heißt, wir werden Systeme bauen, die kommen zu fantastischen Lösungen in irgendeinem Bereich – Verkehrsregulierung oder so, aber wir wissen gar nicht mehr genau, wie sie das gemacht haben. Und wir müssen eigentlich darauf vertrauen, dass sie schon die richtige Lösung gefunden haben. Und das wird halt in bestimmten Bereichen unangenehm. Zum Beispiel bei militärischen Anwendungen der künstlichen Intelligenz wird es sehr unangenehm, wenn die Systeme uns schnelle Lösungen präsentieren und wir selber nicht mehr nachvollziehen können, wie genau sie zu diesem Vorschlag gekommen sind.

Wir haben keine Erfahrung damit, was mit dieser Technologie schiefgehen kann - ein GAU ist möglich

Deutschlandfunk Kultur: Das ist ja ganz interessant, dass Menschen wie Sie, aber auch andere, die sich mit dem Thema künstliche Intelligenz befassen, einerseits immer darauf hinweisen, dass dieses die Technologie ist, die aktuell die größten Chancen, aber eben auch die größten Risiken hat.
Wir haben jetzt Elon Musk eben schon gehört. Facebook-Gründer Mark Zuckerberg widerspricht ihm vehement und weist eher auf die Chancen hin. Sie selbst sprechen in Anspielung auf den Gau in einem japanischen Kernkraftwerk von der Gefahr eines "Fukushima der künstlichen Intelligenz", einem Gau. – Was wäre denn ein Gau? Dass tatsächlich - und damit wären wir aber wieder bei Science-Fiction, diese super intelligenten Systeme die Weltherrschaft übernehmen?
Thomas Metzinger: Es ist nicht ausgeschlossen, dass es eben – wie zum Beispiel bei der Atomenergie auch – zu ganz seltenen unwahrscheinlichen Unfällen kommt, die niemand von den Fachleuten vorhersehen konnte, weil sie eben historisch zum ersten Mal auftreten.
Man muss ja sehen, dass das eine ganz neue Technologie ist, dass wir sozusagen unseren eigenen Geist jetzt aus uns rausholen und auf externe Systeme übertragen. Und wir haben keine Erfahrung damit, was da schiefgehen kann.

Debatten über die Risiken führen bevor die Dinge außer Kontrolle geraten

Deutschlandfunk Kultur: Und es lässt sich nicht verhindern. Man könnte diese Möglichkeit eines GAUs, wie hoch die Wahrscheinlichkeit auch immer wäre, nur dann ausschließen, wenn man aufhören würde, in dieser Richtung weiterzumachen. Und das ist unwahrscheinlich.
Thomas Metzinger: Ein Punkt, den viele Leute nicht deutlich sehen, den ich auch erst gelernt habe, ist, dass, wenn die Risiken extrem groß sind in der Zukunft, auch wenn die Eintretenswahrscheinlichkeiten eigentlich sehr gering sind, es heute ganz rational ist, schon heute sehr sorgfältig darüber nachzudenken. Weil, wenn es erstmal außer Kontrolle geraten ist, wird es auch keine wirklich sachlichen und vernünftigen Debatten mehr geben können.
In der Philosophie hat es schon 1963 den ersten Philosophen gegeben, der die Frage aufgeworfen hat: Unter welchen Bedingungen sollten Roboter Bürgerrechte erhalten? Das heißt, wenn sie mal selbst welche fordern, was wären eigentlich die Kriterien dafür? Man würde ja auch nicht sagen, nur weil das Ding keinen biologischen Körper hat, behandeln wir es nicht als Person. So ähnlich, wie man sagt, Leute, die einen Frauenkörper haben, wie in Saudi Arabien, die dürfen nicht wählen und sind keine Personen. Oder Leute mit schwarzer Hautfarbe sind keine Personen. – Also, Hardware-Kriterien können uns schon mal nicht helfen.
Auch dieser Philosoph damals 1963 hat gesagt: Es ist besser, über diese Dinge nachzudenken, bevor wir unter Zeitdruck sind.

Große Gefahren für die Demokratie

Deutschlandfunk Kultur: Also, Wahlrecht für Roboter?
Thomas Metzinger: Nehmen wir mal an, wir bauen eine große KI. Die verfügt über eine wesentlich größere Datenbasis als alle Menschen und hat das gesamte Internet, das gesamte Wissen der Politologen, der Soziologie als ihre Datenbasis. Die kann millionenfach schneller diese empirischen Fakten durchrechnen als jedes menschliche Gehirn. Und so ein System weist uns dann freundlich darauf hin, dass es uns bereits uneinholbar überlegen ist und dass es deswegen eigentlich sinnlos ist, dass wir jeder eine Stimme haben bei der Wahl und es gar keine. Und es schlägt vor, es sollte – sagen wir mal – 4,36 Milliarden Stimmen haben und jeder Deutsche eine, weil es genau so viel mehr Sachverstand hat darüber, was wirklich gute politische Entscheidungen wären. – Was würden wir denn dann machen?
Deutschlandfunk Kultur: Wir stellen jedenfalls fest, dass es ja heute schon Einsatz künstlicher Intelligenz im Wahlkampf gibt – noch nicht hin zum Wahlrecht für Systeme künstlicher Intelligenz, aber der erste Schritt, dass auch in politische Willensbildung künstliche Intelligenz Einzug hält, ist ja getan.
Thomas Metzinger: Das ist ein ganz wichtiger Punkt, den Sie ansprechen. Wir haben überhaupt noch nicht erfasst, dass es große Gefahren für die Demokratie gibt und dass uns der politische Willensbildungsprozess möglicherweise entgleiten könnte. Wir haben das gesehen bei der Trump-Wahl.
Wenn man sich jetzt vorstellt, dass man nicht nur die 260 Millionen Facebook-User in USA, sondern auch auf der ganzen Welt durch künstliche Intelligenz sehr sanft in bestimmte Richtungen schieben kann, ihnen bestimmte Informationen zukommen lassen kann, ohne dass die einzelnen Benutzer das merken, kann man möglicherweise sehr große Gruppen der Weltbevölkerung auf eine Weise manipulieren, die die Leute selbst überhaupt nicht durchschauen.
Und so könnte es in vielen Bereichen sein, dass politische Akteure – der russische Geheimdienst usw. – die sozialen Medien mit Hilfe künstlicher Intelligenz auf Weisen beeinflussen, die erstmal gar nicht transparent sind für uns, weil diese künstlichen Intelligenzen Muster erkennen in gesellschaftlichen Prozessen, die menschliche Experten, normale Wissenschaftler so schnell nicht herausziehen können aus diesen enormen Datenmengen, und sich das zunutze machen.
Und natürlich kann künstliche Intelligenz auch dazu dienen, uns auf eine Weise zu manipulieren in unserer politischen Willensbildung, die wir vielleicht überhaupt nicht durchschauen.
Deutschlandfunk Kultur: Sie haben das Stichwort schon erwähnt in unserem Gespräch, dass es so eine Art Maschinenethik geben müsste. Der amerikanische Autor Isaac Asimow hat sich vor vielen, vielen Jahrzehnten, schon in den vierziger Jahren Gedanken gemacht über die Gefahren im Zusammenhang mit künstlicher Intelligenz, mit KI. Und er hat Robotergesetze formuliert.
Gesetz Nr. 1: Ein Roboter darf keinen Menschen verletzen oder zulassen, dass er verletzt wird. Gesetz Nr. 2: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl kollidiert mit der Regel Nr. 1. Und Gesetz Nr. 3: Er muss seine Existenz schützen, es sei denn, diese Regel kollidiert mit 1 oder 2.
Könnte so etwas eine Art Grundlage sein, wenn man künstliche Intelligenzen programmieren will und diesen Sicherheitsaspekt in den Vordergrund rücken will?
Thomas Metzinger: Ganz bestimmt nicht. Also, diese Regeln sind viel zu einfach und natürlich auch in sich widersprüchlich.
Einfache Frage zur ersten Regel: Sie haben eine Geiselnahme. Sie haben automatische Scharfschützen, die von künstlicher Intelligenz gesteuert sind - wesentlich genauer, präziser und schneller als jeder menschliche Scharfschütze. Und sie müssen einen Geiselnehmer, der vierzig Schulkinder in seiner Gewalt hat und beginnt auf diese Kinder zu schießen, töten. Dann wäre es ethisch geboten, wenn das die einzige Handlungsoption ist, diesen Geiselnehmer zu töten und eine künstliche Intelligenz könnte es besser machen als ein menschlicher Scharfschütze.
Stellen Sie sich militärische Situationen vor, wo Verteidigung in einem ethischen Sinne gerechtfertigt ist und künstliche Intelligenz kann uns dabei helfen. – Also, so einfach ist das alles nicht.
Trotzdem wäre es im Prinzip ganz einfach. Wir brauchen ein Wertesystem, das wir dem System geben. Und wir müssen jedem Leben einen Wert zuordnen, also eine Standardannahme, jedes menschliche Leben ist gleich viel wert. Das heißt, angenommen Sie haben vier selbstfahrende Autos und drei normale Autos im Kreisel. Es läuft ein Reh rein und die Systeme müssen sehr schnell den optimalen Unfall berechnen. Das heißt, sie müssen berechnen, wer stirbt in welchem Fahrzeug. Dann würde man normalerweise davon ausgehen, jedes menschliche Leben ist gleich viel wert. Und dann können die Systeme rechnen.
Da ergibt sich aber schon die Frage: Wie viel ist denn das Leben des Rehs wert? Die nächste Frage, die sich ergibt, ist, dass wir Menschen auf diesem Planeten uns ja untereinander überhaupt nicht über Wertfragen einig sind.

In verschiedenen Kulturkreisen unterschiedliche Schlüsse über Werte, die programmiert werden

Deutschlandfunk Kultur: Ich wollte gerade sagen - solche Wertfragen sind ja auch kulturell bedingt.
Thomas Metzinger: Ein ganz wichtiger Punkt. Also, ich könnte mir vorstellen, dass es in Saudi Arabien eine Rolle spielt, welche der Insassen Frauen sind und welche nicht, welche gläubige Muslime sind und welche nicht. In Amerika könnte es vielleicht eine Rolle spielen, welche der Insassen Google-Kunden sind oder nicht. Das heißt, es könnte Philosophen geben, die für alle Länder sagen, es spielt aber eine Rolle, wie viel Lebensjahre jemand schon gehabt hat, das heißt, ob Kinder in den Autos sitzen oder ob jemand da drin sitzt, der eine tödliche Krankheit hat und vielleicht eh bald stirbt.
Im Prinzip kann man das mit einem mathematischen Kalkül lösen. Wir müssten nur diesen Wertekanon erstmal haben. Und den müssten wir demokratisch legitimieren. Das würde zum Beispiel bedeuten, dass der natürlich nicht global gelten würde. Das heißt, künstliche Intelligenzen würden in verschiedenen Kulturkreisen, in verschiedenen Anwendungsbereichen andere praktische ethische Schlüsse ziehen als an anderen Orten auf dem Planeten.
Deutschlandfunk Kultur: Also, das gleiche Problem, was wir heute haben, nur auf einer anderen Ebene.
Thomas Metzinger: Das ist eine der Sachen, die ich wirklich positiv finde. Ich sehe vieles kritisch an dieser aktuellen Künstliche-Intelligenz-Debatte. Trotzdem hat die Diskussion was sehr Wichtiges an sich, weil sie uns zwingt, jetzt wirklich in ethischer Hinsicht einmal Farbe zu bekennen.
Warum zwingt sie uns dazu? Nicht weil wir so stark interessiert sind an ethischer Integrität, sondern einfach weil wir so gierig sind. Wir wollen sehr viel Geld verdienen mit dieser Technologie. Es gibt große Firmen, die werden die implementieren in unsere Lebenswelt. Das ist sehr stark einfach von Verwertungsinteressen getrieben. Und die brauchen Rechtssicherheit. Darum entsteht jetzt diese ethische Debatte.
Das heißt, sie wirft uns in vielerlei Hinsicht sehr schön auf uns selbst zurück und wirft auch klassische philosophische Fragen wieder neu auf.
Deutschlandfunk Kultur: Ich möchte gerne am Schluss dieses Gesprächs, Herr Metzinger, noch auf ein EU-Forschungsprojekt zu sprechen kommen: Virtuelle Verkörperung und Wiederverkörperung von Robotern heißt es.
Einer der Aspekte ist die Möglichkeit, einen Roboter direkt mit den eigenen Gedanken steuern zu können, selbst über eine Distanz von möglicherweise hunderten von Kilometern, und zwar mittels Echtzeitmagnetresonanztomographie. Es klingt jetzt auch wieder ein bisschen wie Science-Fiction, ist aber durchaus real. Erste Versuche gibt es.
Welche Art von ethischen und gesellschaftlichen Problemen stellen sich denn, wenn es irgendwann selbstverständlich wird, mit den eigenen Gedanken Roboter zu steuern?
Thomas Metzinger: Zum Beispiel Fragen der Verantwortlichkeit, der ethischen Verantwortlichkeit, aber auch im juristischen Sinne. Wann ist mir so eine Handlung zurechenbar?
Aber vielleicht mal von vorne: Es ging im Grunde darum die Frage zu untersuchen, wie man nicht nur in einer virtuellen Realität eintauchen kann, das heißt, dass man die robuste Illusion hat, ich bin da, sondern wie man – vereinfacht gesagt – das Ich-Gefühl auf Avatare oder Roboter übertragen kann, das heißt, wie man in eine Gestalt in der virtuellen Realität eintauchen kann, indem man aus ihren Augen schaut und sie kontrolliert und sich dann damit identifiziert.

Problem der Verantwortlichkeit für die Handlung "anarchischer" Roboter

Deutschlandfunk Kultur: Und möglicherweise auch zu einem Mord gedanklich bewegt oder zu einem Terroranschlag?
Thomas Metzinger: Ich habe da ein Gedankenexperiment entwickelt des anarchischen Roboters. Es gibt manche neurologischen Erkrankungen, bei denen Leute keine Kontrolle über eine Hand mehr haben und die knöpft ihr Hemd auf oder drückt beim Telefonieren auf die Gabel. Die Frage ist, ob uns so etwas Ähnliches passieren könnte mit einem Roboter, in den wir vorübergehend eingebettet sind.
Stellen Sie sich vor, ich bin frisch geschieden, in einem Roboter inkarniert bei einem wissenschaftlichen Experiment. Und der neue Lebensgefährte meiner Frau betritt unerwartet den Raum, der Mann, der all meine Träume zerstört hat, alle meine Wünsche für die Zukunft. Und in mir entsteht kurz ein aggressiver Impuls. Dafür kann ich nichts. Das ist ganz normal. Aber bevor ich das stoppen kann, hat der Roboter ausgeholt und mit einem einzigen mächtigen Schlag diesen neuen Freund meiner Exfrau getötet. Ich stehe drei Monate später vor Gericht und sage, ich wollte das wirklich nicht, aber mir ist sozusagen einfach der Roboter ausgerutscht.
Es gibt so etwas wie Impulskontrolle. Wir können uns zurückhalten in unserem biologischen Körper. Aber diese Impulskontrolle könnte zum Beispiel bei der Kopplung an technische Systeme am Anfang nicht so gut funktionieren.

Verrohung durch neue Möglichkeiten des Eintauchens in virtuelle Unterhaltungswelten

Deutschlandfunk Kultur: Es gibt ja auch noch eine viel größere Frage, die sich in dem Zusammenhang stellt. Irgendwann werden wir nicht sagen, wer bin ich, sondern: Wer alle sind ich?
Thomas Metzinger: Wenn diese Gehirn-Computerschnittstellen immer besser entwickelt werden, und das Experiment, auf das Sie eben angesprochen haben, war so etwas, bei dem Leute versucht haben, nur mit Bewegungsvorstellungen aus dem eigenen Gehirn heraus einen Roboter zu kontrollieren - was passiert, wenn wir uns selbst über solche Gehirncomputerschnittstellen zusammenschließen, zum Beispiel, um mit verschiedenen Avataren gleichzeitig miteinander zu spielen oder zusammenzuarbeiten?
Deutschlandfunk Kultur: Na ja, das wäre ja noch die nette Variante. Es könnte ja auch eine hohe kriminelle Energie in dem Zusammenhang ins Spiel kommen.
Thomas Metzinger: Ich finde, die Politik sollte sich sehr genau die Porno-Industrie anschauen, jetzt mit virtueller Realität. Es könnte sein, dass strafbare Handlungen auf eine neue Weise erfahrbar gemacht werden, mit einem echten Eintauchen in die Situation. Die Porno-Industrie ist ein Beispiel für eine Industrie, die da wirklich Frühlingsgefühle hat, sozusagen Blut gerochen hat, dass da ein ganz neuer großer Markt entstehen könnte.
Wir müssen auch aufpassen, ob diese neuen Möglichkeiten der Unterhaltung nicht zu einer Verrohung führen, indem sie, anders als Computerspiele nur auf dem zweidimensionalen Bildschirm, dann doch stärkere psychologische Langzeiteffekte haben und die Leute, die sich in diese virtuellen Umwelten begeben, auf eine Weise verändern, die wir erst in ein paar Jahren verstehen.
Deutschlandfunk Kultur: Lesen Sie eigentlich gerne Science-Fiction, Herr Metzinger?
Thomas Metzinger: Science-Fiction, die wirklich philosophischen Tiefgang hat und einen auch wirklich dazu bringen, über Sachen auf eine interessante Weise nachzudenken.
Deutschlandfunk Kultur: Vielen Dank für das Gespräch.
Thomas Metzinger: Ich danke Ihnen.

Thomas Metzinger leitet den Arbeitsbereich Theoretische Philosophie und die Forschungsstelle Neuroethik an der Universität Mainz. Er gilt auch international als profilierter Fachmann für ethische Aspekte der Entwicklungen im Bereich Künstliche Intelligenz.







Thomas Metzinger
© Privat
Mehr zum Thema