zum Hauptinhalt
Plattform M nennt sich dieser Killer-Roboter den die russische Armee erprobt.

© imago/ITAR-TASS

Konferenz über Killerroboter: Die dritte Revolution der Kriegsführung

Die Uno berät aktuell über vollständig autonome Kriegswaffensysteme. Sicher ist schon jetzt: Ein Verbot steht nicht zur Debatte.

Es noch nicht Wirklichkeit, doch Science Fiction ist es auch nicht mehr: In naher Zukunft können völlig autonom handelnde Tötungsroboter auf den Schlachtfeldern über Leben und Tod entscheiden. Seit Jahren schon werden – bislang ergebnislos – Diskussionen über ein Verbot oder wenigstens eines Beschränkung für den Einsatz solcher Waffensysteme geführt. Am Montag begannen in Genf unter dem Dach der Vereinten Nationen (UN) Beratungen über Killerroboter.

Was ist ein Killerroboter?

Der offizielle Begriff ist „Tödliche Autonome Waffensysteme“, englisch: „Lethal Autonomous Weapon Systems“ (Laws). Eine allgemein gültige Definition für solche Waffen gibt es noch nicht. Die Vereinten Nationen und das Internationale Komitee vom Roten Kreuz umschreiben die Apparate so: Sie können Ziele ohne menschliches Zutun identifizieren, angreifen und eliminieren. Mit anderen Worten: Einmal programmiert können diese Waffensysteme selbstständig Daten analysieren, frei in ihrem Einsatzgebiet navigieren und Maschinengewehre, Kanonen oder Raketen steuern. Die immensen Fortschritte auf dem Feld der künstlichen Intelligenz, die in den vergangenen Jahren erzielt wurden, bilden die Basis für die Entwicklung von Killerrobotern. Diese können an bestimmten Stellen fest verankert werden, zum Beispiel auf Kriegsschiffen oder entlang von Grenzen. Oder sie schützen wichtige militärische und zivile Einrichtungen, wie Atomanlagen oder Staudämme. Aber diese Tötungsmaschinen können auch mobil sein – auf Rädern, Panzerketten oder auch auf künstlichen Beinen.

Sind auch Drohnen, die bereits eingesetzt werden, Killerroboter?

Sie sind zwar unbemannt, aber heute werden sie noch von Soldaten gesteuert, die auch den Beschuss der Ziele auslösen. Deshalb sind Drohnen – noch – keine Killerroboter. Dazu werden sie, wenn sie autonom handeln können. Der Weg dahin scheint nur noch kurz.

Wie weit sind die Entwicklungen?

Der für Rüstung zuständige russische Vize-Regierungschef Dmitri Rogosin twitterte im Frühjahr ein Video, auf dem ein humanoider Killerroboter wie aus dem Film „Terminator“ zu sehen ist. Das gehörte eher in die Kategorie Kriegspropaganda. Die äußere Ähnlichkeit mit dem Menschen ist völlig irrelevant. Experten der Menschenrechtsorganisation Human Rights Watch gehen davon aus, „dass die Vereinigten Staaten, Großbritannien, China, Israel, Russland und Südkorea Waffensysteme entwickeln, die in zunehmenden Maße autonom sind“. Derzeit sind schon Exemplare – gewissermaßen Prototypen – im Einsatz. Sie bewachen Südkoreas Grenze zum verfeindeten Norden, sie können beobachten, identifizieren und das Feuer eröffnen. Menschen spielen dabei keine Rolle. Der Elektronikkonzern Samsung ist bei der Entwicklung dieser Apparate federführend gewesen.

Wie wird die Entwicklung von Killerrobotern gerechtfertigt?

Befürworter argumentieren, dass die Gefahren für Soldaten minimiert werden. Gerade das jedoch könnte dazu führen, dass die Hemmschwelle sinkt und es häufiger zu Kampfeinsätzen kommt – und damit auch zu einer höheren Zahl ziviler Opfer. Diese Entwicklung zeigt sich bereits beim Einsatz der ferngesteuerten Drohnen.

Wenn Roboter autonom über ihren Einsatz bestimmen: Wer trägt die Verantwortung?

Das ist das ethnische Grundproblem, das mit den Killerrobotern verbunden ist. Sittliches und moralisches Handeln, die Unterscheidung zwischen Gut und Böse, richtig oder falsch, die Abschätzung der Folgen von Aktionen, die Übernahme von Verantwortung für das eigene Tun, das alles gäbe es in Kriegen der Zukunft nicht. Roboter besitzen zwar künstliche Intelligenz, aber keine Emotionen wie Anteilnahme oder Reue, sie haben keinerlei Schuldbewusstsein. Sie können mit Begriffen wie Verhältnismäßigkeit gar nichts anfangen. Die ist jedoch im sogenannten Kriegsvölkerrecht festgeschrieben: Konfliktparteien müssen unnötige Zerstörungen und unnötiges Leid beim Gegner vermeiden. Zivilisten, verletzte, kampfunfähige und gefangene Soldaten müssen verschont werden. Das lässt sich kaum programmieren, meinen Experten. Schon 2013 wurde in einem Bericht von Politikexperten für den UN-Menschenrechtsrat gewarnt: Diese „nimmermüden Kriegsmaschinen“, könnten bewaffnete Konflikte zu Endloskriegen machen – Diplomatie hätte kaum eine Chance, das Morden von Maschinen zu beenden, die darauf eingestellt sind, selbst in aussichtslosen Situationen noch weiterzukämpfen.

Wird am Ende nicht auch die Verfolgung von Kriegsverbrechen unmöglich?

Diese Gefahr ist groß. Roboter können nicht verantwortlich gemacht werden, und sie können auch nicht bestraft werden. Eine Bestrafung der Programmierer ist nach Ansicht von Experten juristisch nicht begründbar, denn es ist ja gerade das Ziel, dass den Menschen nach der Einrichtung der Geräte die Kontrolle über deren Handlungen entzogen wird. Nach der gleichen Logik greift die rechtlich festgeschriebene „Vorgesetztenverantwortlichkeit“ nicht. Danach kann ein Vorgesetzter für Vergehen seiner Untergebenen zur Rechenschaft gezogen werden, wenn er es versäumt, einen Vorstoß entweder zu vermeiden oder zu bestrafen. Bei einem autonomen Waffensystem wäre er dazu aber gar nicht in der Lage. Bonnie Docherty, Waffenexpertin bei Human Rights Watch, fordert deshalb: „Regierungen müssen sicherstellen, dass die Kontrolle darüber, wen und wann ihre Waffen angreifen, bei Menschen bleibt.“

Gibt es rechtliche Grenzen für die Entwicklung von Killerrobotern?

Bisher nicht. Die aktuelle UN-Konferenz wird sie auch nicht festlegen, sie soll lediglich in einer „politischen Erklärung“ die militärischen, politischen, ethischen und rechtlichen Dimensionen ausloten. Ein Verbot steht nicht zur Debatte, nicht einmal Empfehlungen wird es wohl geben.

Welche Position nimmt Deutschland ein?

Da es diese Systeme heute praktisch noch nicht gibt, hat Deutschland gemeinsam mit Frankreich vorgeschlagen, zunächst eine Begriffsbestimmung für autonome Waffensysteme vorzunehmen. Eine technische Expertengruppe, der auch Rüstungsvertreter angehören sollen, soll die Staaten über die Risiken der neuen Waffen lediglich aufklären. Vertreter der „Internationalen Kampagne für einen Stopp der Killerroboter“ halten das für völlig unzureichend. Stattdessen müssten diese Waffen präventiv verboten werden.

Wer fordert solch ein Verbot noch?

Es sind nur 19 Staaten. Hinter den Kulissen bremsen genau die Länder, die bei der Verschmelzung von Künstlicher Intelligenz und Kriegsgeräten weit gekommen sind: Es sind die USA, Großbritannien, China, Israel, Russland und Südkorea.Der Chef des Autobauers Tesla, Elon Musk, und mehr als 100 weitere Fachleute entwarfen in einem offenen Brief kürzlich ein düsteres Szenario. Killerroboter seien die dritte Revolution der Kriegsführung, schrieben sie, nach der Erfindung des Schießpulvers und der Atomsprengköpfe. Falls die neuen Waffen in die Hände von Despoten und Terroristen fielen, stünde der totale Schrecken bevor.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false