Autonome Waffen

Völkerrecht und Menschenwürde sind gefährdet

07:40 Minuten
Predator-Drohne - ein unbemanntes Flugzeug, das 24 Stunden lang in der Luft bleiben und Überwachungs- und Raketenangriffe durchführen kann, während es von menschlichen Bedienern an einem entfernten Ort ferngesteuert wird.
Eine ferngesteuerte Drohne, die Raketenangriffe durchführen kann. Kriegsgerät, das ganz ohne menschliche Steuerung auskommt, ist bereits in der Entwicklung und laut einem UNO-Bericht auch im Einsatz. © imago / Everett Collection
06.11.2021
Audio herunterladen
Autonome Kriegsmaschinen, die Menschen töten können, sind längst Realität. In einem offenen Brief rufen KI- und Robotik-Forscher die Politik nun dazu auf, klare Grenzen zu ziehen. Sie wollen damit auch ihr Fachgebiet schützen.
"Entscheidungen über Leben und Tod dürfen nicht an Algorithmen delegiert werden", heißt es in einem offenen Brief, der Anfang November veröffentlicht wurde. Darin äußern 62 KI- und Robotikforschende ihre tiefe Besorgnis über autonome Waffensysteme.
Schon lange gibt es Streit über den Einsatz von künstlicher Intelligenz (KI) im militärischen Bereich. Im Mai meldete die UNO in einem Bericht, im Bürgerkrieg in Libyen seien sogenannte Killerroboter in Einsatz gewesen. Dabei handelt es sich um unbemannte Drohnen, die Gegner ohne menschliche Steuerung oder Entscheidung verfolgen und töten können.
Hannes Federrath, Präsident der Gesellschaft für Informatik und einer der Unterzeichner des offenen Briefs, sieht viele problematische Szenarien im Einsatz solcher Technologien. Beispielsweise: "Wir haben konkret das Problem, dass die Maschinen unter Umständen entscheiden, Menschen zu töten, obwohl sie gar keine Soldaten sind. Das ist ein typisches Szenario, das natürlich auch vor allem völkerrechtlich zu diskutieren ist."

"Wir wollen nicht, dass unser Fachgebiet in Verruf gerät"

"So wie die meisten Chemiker:innen und Biolog:innen kein Interesse am Bau chemischer oder biologischer Waffen haben, so haben auch wir Forscher:innen auf den Feldern der KI und der Robotik kein Interesse daran, Hightech-Waffen zu entwickeln. Wir wollen nicht, dass unser Fachgebiet dadurch in Verruf gerät", schreiben Federrath und seine Kollegen in ihrem offenen Brief.
Denn die meisten Algorithmen und Technologien werden nicht explizit für militärische Zwecke entwickelt. "Wenn man sich heute vorstellt, dass beispielsweise eine Bilderkennung in einem militärischen System auch eingesetzt werden kann, dann sieht man das Problem", erklärt Federrath.
KI-Forschung solle deshalb nicht explizit behindert werden. Aber man wolle an die Verantwortung der entwickelnden Wissenschaftler appellieren. "In einem weiteren Schritt geht es darum, dass Staaten sich klar positionieren."

Die neue Bundesregierung soll "klare Kante" zeigen

Der offene Brief richtet sich deswegen an die nächste Bundesregierung und soll Einfluss nehmen auf den anstehenden Koalitionsvertrag. Deutschland müsse sich weltweit dafür einsetzen, dass es zu einer völkerrechtlichen Regelung komme, "die nicht nur einfach so dahergesagt ist, sondern die dann wirklich auch verbindlich ist".
Zwar hatte die vorherige Bundesregierung bereits eine entsprechende Klausel im Koalitionsvertrag. "Doch die hat nach der Auffassung vieler doch zu wenig getan", so Federrath. "Wir würden uns wünschen, dass die neue Bundesregierung klare Kante zeigt und deutliche Impulse setzt."
Mehr zum Thema