FYI.

This story is over 5 years old.

News

Die UN diskutiert über eine Zukunft voller Killer-Roboter

Schon sehr bald wird es Maschinen geben, die vollautomatisch Ziele erfassen und angreifen können. Wie viel Entscheidungsgewalt sollten wir an sie abgeben?

Foto: PD-USGov-Military / Wikimedia Commons

Der Rüstungswettbewerb wird immer mehr zu Science-Fiction—und wir Menschen müssen uns langsam anstrengen, um dranzubleiben.

Gestern haben sich UN-Diplomaten in Genf zu einem einwöchigen Expertentreffen über Killer-Roboter versammelt.

Automatisierte Tödliche Waffensysteme (Lethal Automated Weapon Systems oder LAWS)—wie sie im Fachjargon heißen—könnten selbständig Ziele ausfindig machen und angreifen, ohne menschliches Zutun. Es gibt sie zwar noch nicht, aber einige Länder sind nah dran.

Anzeige

Obwohl bewaffnete Roboter Bilder von Terminator'schen Humanoiden hervorrufen, würden sie wahrscheinlich zuerst aus dem Himmel kommen—die weiterentwickelten Nachkommen der Drohnen, die die CIA benutzt.

„Wir sollten uns auf die wahrscheinliche Entwicklung des technologischen Fortschritts konzentrieren, nicht auf Bilder aus der Populärkultur“, sagte Stephen G. Townly, Rechtsberater des US-amerikanischen Departments of State, und Mitglied des amerikanischen Teams in Genf.

Drohnen, wie wir sie kennen—solche, die über den Stammesgebieten von Pakistan kreisen und Konvois (oder Hochzeiten) im Jemen angreifen—gelten nicht als selbständig, da sie per Joystick von Operateuren gesteuert werden, wenn auch aus Tausenden Kilometern Entfernung.

Aber der amerikanische Rüstungskonzern Northrop Grumman hat bereits die X-47b entwickelt, ein Drohnenflugzeug, dass sich bereits selbst steuern kann und, nach ein paar Feineinstellungen, bald in der Lage sein könnte, selbstständig eine Waffe abzufeuern. Großbritannien und Israel arbeiten ebenfalls an autonomen bewaffneten Drohnen.

Eine X-47b. Foto: MC2 Timothy Walter / Wikimedia Commons

Südkorea besitzt schon jetzt Roboter-Wächter: von Samsung gebaute Überwachungsroboter, die mit 5,56mm-Maschinengewehren und Granatenwerfern ausgestattet die entmilitarisierte Zone zwischen Norden und Süden bewachen.

Im Moment werden diese Maschinen wie die Drohnen noch von Soldaten überwacht, aber sie haben die Fähigkeit, mittels Infrarot-Detektoren selbständig Ziele anzuvisieren und unter Feuer zu nehmen.

Anzeige

Menschenrechtsgruppen hoffen, das Treffen zu nutzen, um Cyborgs eventuell unter der „Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen“ (CCW) von 1980 verbieten zu lassen, dem internationalen Abkommen, das Waffen wie Phosphor, Napalm, Sprengfallen und Minen verbietet.

Gegenwärtig haben 117 Parteien die Konvention unterschrieben, inklusive der USA, China und anderer Länder wie Israel, die die Kapazitäten für selbstständige Technologien besitzen.

Pakistanische Abgesandte haben sich heute vehement gegen Autonome Waffen ausgesprochen. In Pakistan sind mehr als 2000 Menschen durch amerikanische Drohnen gestorben.

Sie machten darauf aufmerksam, dass LAWS die Hemmschwelle senken würden, einem Krieg beizutreten, was dazu führen würde, dass „bewaffnete Konflikte nicht mehr das letztes Mittel [sein werden]—in der Konsequenz könnte der Einsatz von Krieg ein häufigeres Phänomen werden.“

„LAWS sind von ihrer Natur her unmoralisch, weil kein Mensch mehr am Prozess beteiligt ist. Die Macht, Entscheidungen über Leben und Tod zu treffen, wird an Maschinen delegiert, denen ganz grundsätzlich Mitleid, Moralempfinden und Intuition fehlen“, fügten sie hinzu.

Am Montag veröffentlichte Human Rights Watch—das den Ausdruck „Killer-Roboter“ mitgeprägt hat—einen Bericht, der vor dem möglichen Einsatz abseits des Schlachtfelds warnte—zum Beispiel in der Strafverfolgung, in „Robocop“-ähnlichen Szenarien.

Anzeige

Es gibt Präzedenzfälle für die Beratung über Roboter.

1995 einigten sich die Mitgliedsstaaten auf Beschränkungen für „blendende Laser-Waffen“—also Laser, mit denen man große Mengen feindlicher Truppen permanent erblinden lassen kann.

Trotzdem hat dieser Zusatz zum CCW die US-Flotte nicht daran gehindert, ausgefeilte Laser-Waffensysteme zu bauen, die Flugzeuge und Marschflugkörper mittels Strahlen von hoher Intensität aus dem Himmel schießen können—Hauptsache der Pilot ist tot, bevor er erblinden kann.

Darin liegt das Dilemma, das jeder Regulierung von Kriegsführung zugrunde liegt—ein Dilemma, das durch neue Technologien nur noch akuter wird.

„Die grundlegende Idee ist, dass die Regeln des Krieges, wie sie zum Beispiel in der Genfer Konvention festgelegt wurden, menschliche Akteure voraussetzen. Menschen, die entscheiden können, ob sie ein Gewehr oder eine Rakete abfeuern oder eine Bombe abwerfen“, erklärte Thomas Nash, Leiter von Article 36, einer NGO, die sich der Vorbeugung von durch bestimmte Waffen erzeugtes Leid verschrieben hat.

„Mit der Entwicklung einer Technologie, die diese Entscheidungsfähigkeit wegnimmt—es ist wichtig, eine Grenze zu ziehen, damit Menschen diese Entscheidungen treffen“, fügte er hinzu. „Der moralische Grund [für ein Verbot] ist, dass Menschen über so etwas wie Töten entscheiden sollten“, fügte Nash hinzu.

Andere halten Roboter für geeigneter für diese Rolle.

Anzeige

Bei einer Podiumsdiskussion in Genf argumentierte Ronald Arkin, Professor für Robotik an der Georgia Tech, dass autonome Waffen menschliche Soldaten „an Leistung übertreffen könnten“ und regte an, dass ihre Entwicklung „ein humanitäres Bestreben darstellen“ könnte.

Befürworter argumentieren, dass Roboter vorprogrammiert werden können (oder die Genfer Konvention zumindest schnell googeln könnten), um sich an internationales Gesetz zu halten.

„Ich bin überzeugt, dass sie sich moralischer verhalten können, als das menschlichen Soldaten möglich ist“, schrieb Arkin 2007 in einem Bericht (Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture). Er beharrt darauf, dass Roboter sich anders als Menschen danach sogar selbst opfern könnten, um Zivilisten zu schützen.

Aber warum sollte ein Land seine Hardware dafür programmieren, sich vor Kugeln zu werfen, wenn es dadurch einen Krieg verlieren könnte?

Wenn man es bis zu seinem logischen, techno-futuristischen Schluss durchdenkt, verliert sich das Kriegsrecht in Absurdität.

Aber trotz der Problematik, die darin enthalten ist, wenn man Armeen dazu erziehen will, auf die korrekte Art und Weise zu töten, zu verstümmeln und zu zerstören, glaubt Nash, dass es noch gefährlicher wäre, der militärtechnologischen Entwicklung hinterherzurennen.

„Wir sehen Konflikte als ein Versagen der internationalen Gemeinschaft“, erklärte er. „Gleichzeitig erkennen wir an, dass es im Krieg bestimmte Regeln geben muss, und dass diese Regeln in gewisser Weise unsere grundsätzliche Menschlichkeit unterstreichen.“

Dem Treffen in Genf wird im November eine noch größere, jährliche Zusammenkunft folgen.