FYI.

This story is over 5 years old.

Statt Soldaten ziehen Roboter in den Krieg

Das wäre eh viel besser, dann stirbt keiner mehr und wir können so viel Krieg führen, wie wir wollen. Wer den stärkeren Terminator hat, gewinnt.
19.6.13

Die Idee, dass Maschinen auf kurz oder lang die Weltherrschaft an sich reißen werden, ist spätestens seit den Matrix- oder Terminator-Filmen nicht mehr neu und womöglich schon bald Realität. Vollständig autonome Waffen, die „Killer-Roboter“, sind das, was Landminen und Streubomben einst waren, nur viel intelligenter. Und sie töten ohne Reue oder auch nur eine Sekunde darüber nachzudenken.

Die Idee, von Robotern beherrscht zu werden, die aussehen wie Arnold Schwarzenegger, gehört nicht zu den angenehmsten Vorstellungen. Deshalb legten die internationale NGO Human Rights Watch und die Harvard Law School International Human Rights Clinic bereits im November 2012 einen Bericht mit rechtlichen, ethischen und politische Bedenken vor. „Bewaffnete Roboter, die gezielt und ohne menschliches Zutun töten können, dürfen niemals gebaut werden“, sagte damals der Direktor der Abteilung Waffen bei Human Rights Watch, Steve Goose. „Der Mensch sollte auf dem Schlachtfeld stets die Entscheidungshoheit behalten. Kampfroboter überschreiten moralische und rechtliche Grenzen und sollten öffentlich geächtet werden.“

Niemand weiß so genau, wie weit die militärische Forschung in diesem Sektor wirklich ist. Allerdings dauert es wahrscheinlich noch ein bisschen. Die Vorteile sind aber jetzt schon klar: Sie kennen weder Erschöpfung noch Hunger, Angst oder Moralverlust. Wenn Roboter in einem Konflikt „sterben“, können sie einfach ersetzt werden, ohne dass hunderte Mütter in der Heimat um ihre verlorenen Kinder weinen und möglicher Weise Wählerstimmen kosten. Ein gewichtiges Argument.

Die Kriegsführung hat sich sowieso schon innerhalb der letzten zehn Jahre verändert. Drohnen werden zwar, bei aller Umstrittenheit, nach wie vor von Menschen gesteuert, töten die Feinde aber aus Tausenden Kilometern Entfernung durch einen simplen Mausklick. „Targeted Killing“ nennt sich diese Vorgehensweise im Militärjargon. Die Einen sterben und die Anderen sitzen im Zweifel nicht einmal mehr selber im  Kampfgebiet—und sind nach Schichtende wieder bei ihren Familien.

„Es gibt verschiedene Probleme, die sich beim Einsatz von automatischen Waffensystemen abzeichnen. Eines der größten ist, dass eine automatisierte Zielerkennung auch in den nächsten Jahrzehnten nicht in der Lage sein wird, in einer komplexen Gefechtssituation zu erkennen, wer Kombattant und wer Nichtkombattant ist“, sagt Jürgen Altmann, Professor für experimentelle Physik an der Technischen Universität Dresden und Experte für Friedensforschung. „Wann man angreifen darf und sollte, ist eine sehr komplexe Überlegung, die einerseits Erfahrungen und Kenntnisse im Militärwesen und im Krieg, andererseits auch im sozialen Verhalten von Menschen benötigt. Alles das kann künstliche Intelligenz in absehbarer Zeit nicht leisten“, sagt er.

Auf der anderen Seite ist es nicht gerade so, dass Menschen sich besonders vorbildlich auf dem Schlachtfeld verhalten, denn dort erleben sie Situationen, die sie oft psychisch und physisch überfordern. Wie weit lang andauernde Gefahrensituation und die Indoktrinierung und Entmenschlichung des Gegners (im Namen der Terrorbekämpfung) führen können, zeigen der Folterskandal in Abu Ghraib oder was gerade in Syrien passiert: Vorgänge, die eher an die Militärstrategien eines Dschingis Khan erinnern.

Moderne Waffen werden immer komplexer und einzelne Soldaten immer unbedeutender. Daher werden viele Militärtechnologien wohl bald immer autonomer reagieren. Durch das Sterben der eigenen menschlichen Soldaten steigt der Legitimationsdruck für Regierungen, die ihre Truppen in den Krieg schicken. Andersrum könnten Kriege schneller entstehen, wenn (zumindest auf der eigenen Seite) nur Maschinen zerstört werden.

Und auch wenn das US-Verteidigungsministerium 2012 für die nächsten zehn Jahre festgelegt hat, dass an der Entscheidung über die Anwendung tödlicher Gewalt immer ein Mensch beteiligt sein muss und damit (vorerst) keine automatisierten Waffensysteme benutzt werden, existieren ähnliche Projekte bereits in anderen Staaten. Der „Samsung SGR-A1“ zum Beispiel ist kein neues Handy, sondern der erste vollautomatische Kampfroboter der Welt und befindet sich in Südkorea an der Grenze zu Nordkorea.

Der „Samsung SGRA-A1“ in Aktion

Im Moment ist das System so eingestellt, dass es nur nach menschlicher Bestätigung—wahlweise mit Gummigeschossen, einem K-4-Maschinengewehr oder einem 40-mm-Granatwerfer—auf ein, vorher durch diverse Scanner und Kameras identifiziertes, Ziel schießt. Experten sagen allerdings, dieser Mechanismus ließe sich auch abschalten. Gleiches gilt für Taranis oder X47B, Kampfdrohnen die automatisch starten und landen und prinzipiell auch vollautomatisiert feuern könnten—wenn man sie ließe.

Peter Asaro, Mitbegründer des International Comittee for Robot Arms Control, sieht dem Einsatz von vollautomatischen Waffen ebenfalls kritisch entgegen: „Das Problem ist nicht nur, ob das System präzise oder akkurat ist. Die Frage ist, ob das System den Wert eines Zieles erkennen kann. Ist das Ziel wirklich eine Bedrohung? Ist die Anwendung tödlicher Gewalt wirklich nötig? Wie hat sich der Wert des militärischen Ziels im Verlaufe eines Kampfes geändert? Ist der Wert des Ziels hoch genug, um dafür Zivilisten zu opfern? Wenn ja, wie viele? Es ist nicht einfach, für solche komplexen moralischen Entscheidungen einen Algorithmus zu schreiben, wenn es denn überhaupt möglich ist.“

Man stelle sich nur einen Soldaten vor, der bereits verletzt und bereit ist, sich zu ergeben und dennoch getötet wird—eine moralische und vor allem richtige Entscheidung ist das nicht—, oder zwei sich feindlich gegenüber stehende Schiffsflotten mit vollautomatisierten Schussvorrichtungen. In solchen kritischen Situationen könnten einfache Störphänomene, wie zum Beispiel Lichtreflexe, zu falschen Annahmen, Beschuss und damit zum Konflikt führen.

„Ich denke, es muss nicht unbedingt sein, dass man Systeme erschafft, die so menschenähnlich wie möglich sind—auch wenn die Versuchung natürlich groß ist. Es gibt in diesem Bereich grundlegende ethische und moralische Komplikationen, die man bereits im Vorfeld klären sollte. Zum Beispiel: sollte man Maschinen mit künstlicher Intelligenz und einem Bewusstsein genau dieselben Menschenrechte wie uns zugestehen? Darüber wird zwar schon nachgedacht, allerdings noch in einem sehr abstrakten Rahmen“, sagt Jürgen Altmann.

Peter Asaro meint außerdem, dass sich „da natürlich auch die Frage nach der Haftung und der Verantwortung für denjenigen stellt, der dem Roboter Anweisungen gegeben hat. In der Realität kann man einen Roboter gerichtlich nicht belangen, wenn er etwas Schlimmes getan hat. So verliert man den abschreckenden Effekt und jede Verantwortlichkeit. Das ist ein riesiges Problem.“

Wen klagt man also beim Eintreten des Ernstfalls an? Den Mechaniker, den Programmierer oder die für den Bau verantwortliche Firma? „Es stellt sich auch die Frage, ob der Einsatz automatisierter Waffensysteme überhaupt mit dem Gesetz in Einklang zu bringen ist. Ist es akzeptabel, keinerlei Rechenschaft über die Taten einer Maschine ablegen zu müssen? Es ist eine moralische Frage, ob es zulässig ist, jede Autorität an Maschinen abzugeben, wenn es darum geht, jemanden zu töten. Ich denke, die Antwort darauf sollte in jedem Fall ‚Nein’ lauten, ganz egal wie fähig eine Maschine letzten Endes ist.“

Ein weiteres Problem ist nicht unbedingt aus der Beliebigkeit der vom Roboter getroffenen Entscheidung und der damit in Verbindung stehenden Ethik. „Man muss sich auch fragen, ob bestimmte Waffensysteme nicht eher dazu führen, dass es überhaupt Krieg gibt. Bei einer flächendeckenden Einführung solcher Systeme wird es zu einem ungezügelten Wettrüsten kommen, an dem nicht nur die Großmächte wie China, Russland und die Vereinigten Staaten beteiligt sind, sondern auch kleine Akteure wie Singapur oder Pakistan. Das führt auf lange Sicht zu weltweiter militärischer Instabilität und der Bedrohung des Friedens“, sagt Jürgen Altmann.

Bereits 1942 formulierte der Science-Fiction-Autor Isaac Asimov in der Kurzgeschichte Runaround drei Grundregeln der Moral für Roboter: Erstens darf ein Roboter einem Menschen durch sein Handeln oder durch Unterlassung keinen Schaden zufügen. Zweitens müssen Roboter die Befehle der Menschen befolgen, es sei denn, sie stünden im Konflikt mit der ersten Regel. Drittens: Ein Roboter schützt seine eigene Existenz, es sei denn, das stünde im Konflikt mit Regel 1 und/oder 2.

Wenn auch ursprünglich bloße Fiktion bilden diese Gesetze die Basis und das Kernproblem der modernen Untersuchungen zur Künstlichen Intelligenz und Roboterethik recht gut ab: Roboter und vermeintlich intelligente Maschinen können nicht mit Uneinigkeit umgehen.

Auch wenn laut Jürgen Altmann „Science-Fiction-Filme und -Romane keine gute Orientierung sind, da in ihnen natürlich versucht wird, die Gefahren und möglichen Probleme zuzuspitzen“, dürfte es schließlich den Wenigsten gefallen, eines Tages von Robi-Robotto über den Haufen geschossen zu werden, der noch dazu so aussieht wie der ehemalige Gouverneur von Kalifornien.