Breitband²

Es geht um die Zukunft des Denkens

53:58 Minuten
26.03.2016
Audio herunterladen
Go ist ein Spiel mit fast unendlich vielen Möglichkeiten. Erfahrene Spieler setzen die Steine deshalb oft intuitiv.
Go ist ein Spiel mit fast unendlich vielen Möglichkeiten. Erfahrene Spieler setzen die Steine deshalb oft intuitiv. Aus diesem Grund konnten sich viele nicht vorstellen, dass tatsächlich passiert, was diesen Monat passiert ist: Die Google-Software AlphaGo besiegte den wohl weltbesten Go-Spieler, den Südkoreaner Lee Sedol.

Ein Computer, der sich selbst trainiert

Ein Computer hat damit gegen die Erfahrung eines Menschen gewonnen. Das lag aber nicht an der puren Rechenleistung der Maschine, wie es noch 1997 beim Sieg des IBM-Computers Deep Blue über den damaligen Schachweltmeister Garri Kasparow der Fall war. Der Sieg von AlphaGo basiert auf der besonderen Struktur des Computers: AlphaGo ist ein neuronales Netzwerk, das selbstständig lernen kann. Der Computer errechnet seine Spielzüge nicht nur aus Daten von Go-Partien, die Menschen schon einmal gespielt haben. Er kann sich auch selbst trainieren.
Der Sieg von AlphaGo wird deshalb als ein Meilenstein in der Entwicklung von künstlicher Intelligenz angesehen - und diskutiert. Denn welche Auswirkungen künstliche Intelligenz auf unsere Gesellschaft haben wird, steht noch in den Sternen. Es ist aber absehbar, dass in Zukunft fast alle menschlichen Fähigkeiten von Supercomputern übertroffen werden können - irgendwann zwischen 2020 und 2060. Weshalb der Physiker Stephen Hawking und visionäre Unternehmer wie Elon Musk von Tesla Motors oder der Apple-Mitbegründer Steve Wozniak vor den Gefahren selbstlernender intelligenter Maschinen warnen.
Menschliche Werte für künstliche Intelligenz
Die klassische Dystopie von einem Supercomputer, der sich dem Menschen widersetzt, ist dabei noch das simpelste Szenario. Komplexere Bedenken äußern zum Beispiel neun Wissenschaftler und KI-Experten in ihrem Appell »Digitale Demokratie statt Datendiktatur«.
Welche Chancen und welche die Risiken birgt die künstliche Intelligenz? Auf welchem Stand ist die Technologie heute? Welche Anforderungen bringt ihre Weiterentwicklung mit sich? Und welche Ziele und ethischen Werte könnten ihr einprogrammiert werden, damit die Interessen der Menschen nicht von Maschinen bestimmt werden?
Über diese Fragen spricht Philip Banse mit unseren Gästen:
Klaus Mainzer ist Professor für Philosophie und Wissenschaftstheorie an der TU München. Im Herbst erscheint sein Buch "Künstliche Intelligenz - Wann übernehmen die Maschinen?".
Damian Borth leitet das Deep Learning Competence Center des Deutschen Forschungszentrum für künstliche Intelligenz und beschäftigt sich vor allem mit Bild- und Videoanalyse.
Martin Jaggi von SpinningBytes, einer Ausgründung der Eidgenössisch technischen Hochschule Zürich, befasst sich mit der Analyse großer Datenmengen.
Moderation: Philip Banse
Redaktion: Meike Laaff und Jana Wuttke
Web: Nora Gohlke
Bild: Le Jour ni l'Heure 5656 : Edgar Degas, 1834-1917, Deux hommes en pied, c. 1862, dét., musée d'Art moderne de Troyes, anc. collection Pierre & Denise Lévy, Aube, Champagne, mercredi 19 juin 2013, 14:55:12 von Renaud Camus auf Flickr, CC BY