Künstliche Intelligenz

Das Märchen vom Computer-Gott

04:28 Minuten
Ein Roboter streckt seine Hand aus, im Hintergrund eine Anmutung vom Universum.
Die Hand Gottes? © imago / Science Photo Library
Ein Kommentar von Enno Park · 21.03.2019
Audio herunterladen
Das Märchen von einer gottgleichen künstlicher Intelligenz, die anstelle des Menschen entscheidet, wird gerne erzählt. Vor allem von Unternehmen, Organisationen oder Menschen, die nicht zur Verantwortung gezogen werden möchten, meint Enno Park.
Als Ray Kurzweil, Chef-Entwickler bei Google, gefragt wurde, ob es einen Gott gibt, war seine Antwort kurz und knapp: "Noch nicht." Der Gott, den es noch nicht gibt, ist ein Computer und er soll schon in wenigen Jahrzehnten in Erscheinung treten.
Die Idee dahinter ist simpel: Eine intelligente Maschine entwickelt eine noch intelligentere Maschine, die wiederum eine noch intelligentere Maschine entwickelt und immer so weiter. Das Ergebnis wäre eine Intelligenz-Explosion und das Entstehen einer gottgleichen Hyper-Intelligenz weit jenseits des menschlichen Fassungsvermögens. Je nachdem, wen man fragt, wird dieser Computer-Gott das Paradies auf Erden bringen oder aber den Untergang der Menschheit einläuten.
Noch ist es nicht so weit und derzeit ist es auch fragwürdig, ob es jemals so kommt. Trotzdem reden wir bereits heute über Algorithmen und künstliche Intelligenz, als wäre diese Gottheit schon da. Tatsächlich werden Computer immer besser darin, Autos zu lenken, ganze Industrieproduktionen zu steuern, oder mit Wertpapieren zu handeln. Bilderkennungssysteme identifizieren Gesichter in der Menge oder auch Tumore auf Röntgenbildern mit einer höheren Zuverlässigkeit als Menschen.

Denken und Maschinenintelligenz sind nicht vergleichbar

Sie sagen die Wahrscheinlichkeit für Verbrechen in bestimmten Stadtvierteln voraus, als handele es sich um einen Wetterbericht, und geben Prognosen über Straftäter ab, um zu entscheiden, wie lange diese weggesperrt werden sollten. Und eine Oxford-Studie stellt die Prognose auf, dass in naher Zukunft 50 Prozent aller Jobs automatisierbar seien. Das träfe Industriearbeiter genauso wie Ingenieure, Service-Kräfte genauso wie Manager, ja sogar Ärzte, Journalisten, Richter und eines Tages vielleicht sogar Politiker.
Das führt zur bangen Frage, was den Menschen dann noch einzigartig macht. Doch wer diese Frage stellt, ist bereits einem Märchen aufgesessen. Dem Märchen von der künstlichen Intelligenz. Es klingt, als sei Maschinenintelligenz irgendwie mit menschlichem Denken vergleichbar. Das ist bei weitem nicht der Fall. Ein Taschenrechner rechnet um Größenordnungen schneller und präziser als ein Mensch und dennoch kam bisher niemand auf die Idee, ihn für intelligent zu halten.
Ähnlich verhält es sich mit der sogenannten künstlichen Intelligenz. Sie ist sehr gut darin, Muster zu erkennen und Wahrscheinlichkeiten auszurechnen, aber eben auch nicht mehr. Künstliche Intelligenzen können nicht denken und es gibt auch keine Anzeichen, dass sich das ändert.

Maschinen entscheiden nach Vorgaben von Menschen

Seriöse Informatiker vermeiden deshalb den Begriff "künstliche Intelligenz". Sie reden lieber von Machine Learning oder algorithmischen Entscheidungssystemen. Entscheidungen sind der Zweck dieser Computer: Welche Person ist auf dem Foto? Was ist die schnellste Route von München nach Hamburg? Soll das selbstlenkende Auto beschleunigen oder abbremsen? Welche Werbung soll einer bestimmten Person im Internet gezeigt werden?
Wenn Computer Entscheidungen fällen, entsteht schnell das Gefühl, dass sie Macht übernehmen. Dieser Gedanke wird vom Silicon Valley gefördert. Denn wo die Maschine Entscheidungen trifft, können Menschen so tun, als ob sie keine Verantwortung mehr tragen.

Wer übt Macht aus?

Das verschleiert den Blick dafür, wer wirklich Macht ausübt: die ganz konkreten Menschen und Organisationen, die diese künstlichen Intelligenzen entwerfen und betreiben. Nicht ein Computer verweigert einen Kredit, sondern das Bankhaus. Sind die Entscheidungen ungerecht, kann die Bank so tun, als könne sie auch nichts dafür. Führen die Entscheidungen jedoch zu Verlusten bei der Bank, wird sie das System bald wieder abschalten.
Wenn also eines Tages Algorithmen dabei helfen sollen, Gerichtsurteile zu fällen, Polizeieinsätze zu koordinieren oder Bewerbungen für einen Job auszuwerten, dann sind es weiterhin Menschen, die die Regeln aufstellen, nach denen die Algorithmen die Entscheidungen treffen. Und diese Menschen tragen weiterhin die Verantwortung, wenn etwas schief geht.

Enno Park ist Journalist und Wirtschaftsinformatiker. Er beschäftigt sich mit den Auswirkungen des digitalen Wandels auf die Gesellschaft bis hin zur Verschmelzung von Mensch und Maschine. Seit er Cochlea-Implantate trägt, bezeichnet er sich selbst als Cyborg und ist einer der Gründer des Cyborgs e.V. in Berlin.

© Deutschlandradio / Cara Wuchold
Mehr zum Thema