Mehr Kriege, mehr Tote

Jürgen Altmann im Gespräch mit Stephan Karkowsky · 18.11.2010
Die Verbreitung und Weiterentwicklung bewaffneter unbemannter Flugzeuge muss gestoppt werden, sagt der Dortmunder Physiker und Friedensforscher Jürgen Altmann. Wenn immer mehr Länder Zugriff auf solche Drohnen hätten, würde dies die Wahrscheinlichkeit für Kriege erhöhen, so Altmann.
Stephan Karkowsky: Der Krieg der Roboter ist keine Science-Fiction mehr. Den Drohnenkrieg der USA in Afghanistan etwa könnte man verstehen als ersten Schritt hin zu einer völligen Automatisierung. Damit es nie so weit kommt, sollten heute bereits völkerrechtliche Verträge Roboterkriege verbieten, fordert der Physiker Jürgen Altmann. Wie ernst die Situation ist, erklärt uns Jan Raehm.

Beitrag von Jan Raehm

"Und deshalb muss diese Zukunft der Kriegsführung bereits heute verhindert werden", fordert der Dortmunder Physiker und Friedensforscher Jürgen Altmann. Guten Tag!

Jürgen Altmann: Guten Tag!

Karkowsky: Herr Altmann, ist nicht eigentlich bereits der Drohnenkrieg zu verurteilen und nicht erst seine Weiterentwicklung zur Vollautomatisierung?

Altmann: Da ist etwas dran, ja. Man kann argumentieren, dass wenn es nicht bei dem Monopol bleiben wird, dass also im Moment nur die USA und England bewaffnete Drohnen einsetzen, sondern viele andere Staaten auch, dass dann die Möglichkeit, Kriege zu führen, häufiger wird, dass die Chance, aus einer Krise in einen Krieg zu rutschen durch nicht verstandene Wechselwirkungsmechanismen zwischen zwei solchen Drohnensystemen, dass diese Gefahr damit erheblich größer würde. Und das Nächste ist: Wenn jemand Tausende von Kilometer weit weg sitzt und nur aufgrund eines Videobildes entscheidet, wen oder was er angreift oder tötet, dann ist sicherlich weniger Information vorhanden, als wenn dieselbe Person dort vor Ort wäre. Und sie hat auch weniger Möglichkeiten. Eine Gruppe Soldaten im Land kann zu einer Gruppe von Leuten, die sie potenziell für Gegner hält, sagen: Hände hoch, lasst die Waffen fallen! Das kann eine Drohne, die ferngesteuert wird, nicht. Also muss man sogar auch befürchten, dass immer wieder mal mehr Leute getötet werden, als das der Fall wäre, wenn Soldaten vor Ort wären.

Karkowsky: Sie sind Mitbegründer des internationalen Komitees zur Kontrolle von Roboterwaffensystemen, und Sie arbeiten schon viele Jahre als Friedensforscher. So ein Komitee zu gründen, ist ja auch ein Zeichen dafür, dass Sie sagen, es steht fünf vor zwölf. Was bringt Sie zu dieser Annahme?

Altmann: Nun ja, wir haben, wie ich eben sagte, im Moment im Wesentlichen die USA und ein bisschen auch England und Israel mit bewaffneten unbemannten Flugzeugen – Landfahrzeuge sind noch eine ganze Weile von dem echten breiten Einsatz. Und wenn man extrapoliert, das ist, wenn man so will, der neue Trend in den Luftwaffen, in der Forschung und Entwicklung für neue bewaffnete Flugzeuge, dann kann man sehen, dass wenn man da nicht irgendwie eine Sperre aufbaut, ein Verbot einführt, dass über kurz oder lang 30 oder 50 oder 100 Länder so etwas haben werden, und die gegenseitige Bedrohung, insbesondere auch in Krisenzonen, die würde steigen und die Wahrscheinlichkeit für Kriege würde damit sich erhöhen. Also von daher gibt es einen guten Grund, die Entwicklung möglichst frühzeitig zu stoppen.

Karkowsky: Arbeitet das Militär denn irgendwo tatsächlich an Projekten, wo Maschinen autonom töten sollen?

Altmann: Es ist im Forschungsbereich angedacht. Es gibt langfristige Fahrpläne des US-Verteidigungsministeriums, wo die völlige Autonomie als letztes Ziel angegeben ist. Es gibt konkrete Forschungen insbesondere darüber, wie man das denn so machen könnte, dass, auch wenn kein Mensch in der Entscheidung mehr beteiligt ist, das noch konform wäre mit den Regeln des Kriegsvölkerrechts, also insbesondere, dass man Zivilisten nicht angreifen darf. Die Frage ist dann immer, kann man denn erwarten, dass diese Forschung in mittlerer Frist zu echten Ergebnissen führt: Also wird es möglich sein, dass ein Computersystem verlässlich entscheiden kann, ist die dort gesehene Person, ist die ein Kombattant oder sie eben als Zivilist zu schonen.

Karkowsky: Skizzieren Sie uns doch einmal, wie eine solche Waffe dann überhaupt eingesetzt werden könnte, was müsste die tun im Sinne des Militärs?

Altmann: Zum Beispiel in ein Haus eindringen, Hände hoch! rufen, und wenn jemand nicht auf Anhieb alles fallen lässt, dann gegebenenfalls schießen. Oder aber als Flugzeug über einer Stadt kreisen und verdächtige Menschenansammlungen beobachten, und wenn das System dann denkt, es sieht so aus, also ob die Leute da Waffen tragen, dann werden sie vernichtet. So etwas hat es von bemannten Hubschraubern aus gegeben, und im Moment wie gesagt gibt es das von ferngesteuerten unbemannten Flugzeugen aus. Aber auch bei Hubschrauberbesatzungen, die nur 100 Meter vielleicht weg waren und sich etwas angeguckt haben, ist es vorgekommen, dass die ein Teleobjektiv an einer Kamera fälschlich für eine Maschinenpistole gehalten haben und deshalb Leute umgebracht haben, die nur fotografieren wollten. Da gibt es einen berühmten Fall von zwei Reuters-Korrespondenten und weiter herumstehenden anderen Leuten, wo eben durch einen Hubschrauberangriff diese zehn oder zwölf Leute umgebracht wurden. Man muss befürchten, dass noch schwerwiegendere Fehler auftreten können, wenn ein Rechner so eine Bildauswertung macht und dann entscheidet: Jawohl, das sieht nach Gegnern aus.

Karkowsky: Sie hören den Dortmunder Physiker Jürgen Altmann im "Radiofeuilleton". Herr Altmann, Sie haben gesagt, wenn die Maschine dann denkt, aber die Maschine denkt ja nicht selbstständig, sie führt ja nur aus, was ein Programmierer ihr vorher eingegeben hat. Sie macht nur das, was der Mensch an ihrer Stelle machen würde, der sie programmiert hat. Wo ist da das Problem?

Altmann: Das eine Problem liegt darin, dass ein Programmierer nie alle Umstände voraussehen kann und Regeln programmieren kann und sich ausdenken für alle die komplexen Erlebnisse und Situationen, in denen eine solche autonome Kampfmaschine sich befinden würde.

Karkowsky: Kann das denn der Mensch im Kampfeinsatz?

Altmann: Der wird ja nicht programmiert, sondern der ist ja gerade unter bestimmten allgemeinen Regeln des Kriegsvölkerrechts und unter der Nutzung seines einerseits gesunden Menschenverstandes, andererseits seiner militärischen Ausbildung einigermaßen in der Lage, in solchen Situationen halbwegs korrekte Entscheidungen zu treffen: Wen darf ich angreifen, was darf ich angreifen und was nicht. Auch Menschen machen Fehler, aber wenn man überlegt, wie der Stand der Robotertechnik im Moment ist oder der Bestand der künstlichen Intelligenz, dann kann man relativ sicher sagen, dass es noch mindestens 20 Jahre dauern wird, bis man auch nur im Entferntesten sagen könnte, künstliche Intelligenz erreicht langsam das menschliche Niveau. Da ist der Mensch eben bisher noch – und auf absehbare Zeit wird das wahrscheinlich so bleiben – unerreicht in der Fähigkeit, in einer komplexen Situation sich zurechtzufinden und sie zu bewerten und da richtige Entscheidungen zu treffen.

Karkowsky: Wenn ich nun die Perspektive einmal umdrehe und frage, schon heute hilft der Drohnenkrieg Opfer unter den eigenen Soldaten zu vermeiden, man vermeidet auch traumatisierte Kriegsheimkehrer – so argumentiert das Militär –, ist das nicht der entscheidende Vorteil für solche Waffensysteme?

Altmann: Ja, wenn Sie es aus rein nationaler Sicht sehen, sicherlich. Das ist eines der entscheidenden Motive. Dazu kommt, dass zum Beispiel unbewaffnete Fahrzeuge oder Flugzeuge, die müssen nicht nach acht Stunden landen, um die Piloten zum Schlafen zu bringen und so weiter, die können also 30 Stunden am Stück "arbeiten" oder schießen, das ist der zweite militärische Vorteil. Also aus rein militärischer Sicht und Kampfstärke gesehen, ist es eine logische Entwicklung. Wenn man aber sich versetzt in jemand, der von oben auf das internationale System guckt und jetzt sieht, dass viele Länder sich so etwas zulegen, und dann fragt, ist das denn gut oder schlecht für den Frieden auf der Welt, dann kommt man zu etwas anderen Bewertungen. Die reine nationale militärische Stärke sollte nicht das Hauptkriterium sein bei der Entwicklung neuer Rüstungen.

Karkowsky: Was genau haben Sie nun vor mit Ihrem Komitee gegen Roboterwaffen, vor allen Dingen, wie wollen Sie dieses Argument des Militärs – wir schützen damit unsere eigenen Soldaten – entkräften?

Altmann: Also wir haben zwei Hauptforderungen. Die eine ist die, dass es grundsätzlich keine autonome Tötungsentscheidung, Angriffsentscheidung geben darf. Da gibt es sogar bei manchen Militärs ein gewisses Echo, also da sehe ich durchaus Chancen, dass ein solches Verbot in das Kriegsvölkerrecht aufgenommen werden könnte. Die zweite Forderung ist die, dass man bei der Stationierung und bei der Entwicklung von bewaffneten Fahr- und Flugzeugen bestimmte Vorsichtsmaßregeln einhält, dass man ihre Eigenschaften begrenzt. Das könnte zum Beispiel die Reichweite sein und das könnte insbesondere auch die Stationierung sein, dass man also die nicht innerhalb von kurzer Entfernung in der Nachbarschaft eines möglichen Gegners stationiert, also sozusagen kurz vor seiner Grenze, weil sonst das Risiko in einer Krise, ohne dass man es eigentlich möchte, in den Schießkrieg zu geraten aufgrund von Missverständnissen und gegenseitiger Bedrohung und dem Zwang, dass solche automatischen Systeme sehr schnell oder halbautomatischen Systeme sehr schnell reagieren müssten, weil das Risiko wäre zu groß.

Karkowsky: Maschinen mit der Lizenz zum Töten zu verhindern, das ist die Mission des Dortmunder Physikers und Friedensforschers Jürgen Altmann. Ihnen vielen Dank für das Gespräch!
Mehr zum Thema