Seit 21:30 Uhr Einstand

Montag, 15.07.2019
 
Seit 21:30 Uhr Einstand

Interview / Archiv | Beitrag vom 03.08.2015

Autonome Waffensysteme"Roboter kennen keine Empathie"

Robin Geiß im Gespräch mit Korbinian Frenzel

Podcast abonnieren
Eine Drohne am Boden vor dem schneebedeckten Bergen des Hindukusch. (AFP / Bonny Schoonak)
"Die militärstrategischen Verlockungen sind enorm", sagt Robin Geiß. Hier eine US-Drohne des Typs "Predator" auf einer Luftbasis in Afghanistan. (AFP / Bonny Schoonak)

Werden Soldaten in Kampfhandlungen künftig durch autonom agierende Robotersysteme ersetzt, die gezielt töten? Für die meisten Menschen ist das eine Horrorvorstellung. Auch der Sicherheitsexperte Robin Geiß warnt vor einem "Tod durch Algorithmen" - und plädiert für zumindest ein Teilverbot solcher Systeme.

Da ist sie wieder, die Vorstellung von einem "sauberen" Krieg: Autonome Robotersysteme übernehmen, mit Hilfe kluger Algorithmen, die Angriffe auf feindliche Stellungen und töten ebenso gezielt wie emotionslos. Das, was man gemeinhin als "menschliches Versagen" bezeichnet, würde wegfallen, denn Roboter zeigten auch in Hochrisikosituationen keine Ermüdungserscheinungen und kämen bestens mit der Daten- und Informationsflut zurecht, die bei bewaffneten Konflikten anfällt.

Keine Zukunftsmusik mehr

Namhafte Forscher und Firmengründer im Bereich Künstliche Intelligenz wenden sich in einem offenen Brief gegen die Weiterentwicklung und Verwendung solcher autonomen Waffensysteme. Mitunterzeichner ist auch der deutsche Rechtswissenschaftler und Sicherheitsexperten Robin Geiß. Für ihn sind die beschriebenen Szenarien keineswegs ferne Zukunftsmusik. Im Deutschlandradio Kultur sagte Geiß, der an der Universität Glasgow tätig ist: "Die militärstrategischen Verlockungen sind enorm". Entzündet habe sich die Debatte an einem Papier des US-Verteidigungsministeriums. Demnach hätten die USA bekundet, "dass sie bis zum Jahr 2038 immer mehr militärische Systeme in solche autonomen Funktionen überführen wollen".

Geiß räumte ein, dass es eine Reihe von Vorteilen dieser Systeme gebe – etwa die Genauigkeit und geringe Fehleranfälligkeit. Deshalb seien sie etwa gut als autonome Minensuchboote geeignet. Doch die Nachteile überwiegen seiner Meinung nach deutlich, er fordert deshalb ein Teilverbot:

Mathematische Tötungsentscheidung

"Die Kehrseite dessen, dass diese Systeme so rational operieren ist eben, dass sie auch keine Gnade kennen und auch keine Empathie. Und wenn man solchen Systemen Entscheidungen über Leben und Tod überantwortet, dann hat man auf einmal - der UN-Sonderberichterstatter hat davon gesprochen – 'Tod durch Algorithmen'. Man hat also eine vorkalkulierte mathematische Tötungsentscheidung, die diese Systeme dann abarbeiten. Und das ist doch eine erhebliche Entwertung des menschlichen Lebens."

Mehr zum Thema

Autonome Waffensysteme - "Die Wissenschaft hat die Technologie dafür längst in der Tasche"
(Deutschlandradio Kultur, Interview, 29.07.2015)

Technikexperte Karsten Weber - Hände weg von autonomen Drohnen!
(Deutschlandradio Kultur, Interview, 13.04.2015)

Kriegswaffen - UNO berät über Verbot von "Killerrobotern"
(Deutschlandfunk, Forschung aktuell, 02.12.2013)

"Roboter fühlen nichts"
(Deutschlandradio Kultur, Thema, 05.09.2013)

Interview

50 Jahre MondlandungWas der Mensch im All sucht
Ein NASA-Handout-Foto vom 20. Juli 1969 zeigt den Apollo-11-Astronauten Edwin 'Buzz' Aldrin, der auf der Mondoberfläche neben US-Flagge steht. (dpa / EPA / NASA / Neil Armstrong)

In wenigen Tagen jährt sich die Mondlandung zum 50. Mal. Was wollte der Mensch dort oben? Er wollte zeigen, dass es einen Weg gibt, wenn es den entsprechenden Willen gibt, meint der Philosoph Walther Zimmerli.Mehr

weitere Beiträge

Entdecken Sie Deutschlandfunk Kultur