Anzeige
tech

Die führenden Technik-Experten der Welt wollen superintelligente „autonome Waffen“ verbieten

Stephen Hawking und Apple-Mitbegründer Steve Wozniak warnen davor, dass militärische künstliche Intelligenz und Robotertechnik außer Kontrolle geraten können.

von VICE Staff
28 Juli 2015, 12:47pm

hollybear583 | pixabay | Public Domain

Einige der führenden Wissenschaftler dieser Welt befürchten, dass wir kurz davor sind, die Kontrolle über das zerstörerische Potential künstlicher Intelligenz zu verlieren, und haben sich dafür eingesetzt autonome Waffensysteme und „Killer-Roboter" zu verbieten, die Ziele auswählen und angreifen können, ohne von Menschen gesteuert zu werden.

Apple-Mitbegründer Steve Wozniak, Tesla- und SpaceX-Gründer Elon Musk und der Stephen Hawking waren unter den 1.000 angesehenen Wissenschaftlern, Forschern und Ingenieuren, die einen Brief unterschrieben haben, in dem davor gewarnt wird, dass im Rennen darum, solche Verteidigungssysteme zu entwickeln, „autonome Waffen die Kalaschnikows von morgen werden".

Der Brief wurde Montag bei der Eröffnung der International Joint Conference on Artificial Intelligence in Buenos Aires in Argentinien vorgestellt.

In ihm wird zwar bescheinigt, dass robotische Waffen die Zahl menschlicher Opfer im Krieg potentiell verringern können, jedoch auch argumentiert, dass die Kosten gegenüber den Vorteilen letztendlich überwiegen.

„Die Technologie der künstlichen Intelligenz hat einen Punkt erreicht, an dem die Entwicklung von [selbstständigen Waffen]—praktisch und vielleicht sogar rechtlich gesehen—innerhalb von Jahren und nicht von Jahrzehnten machbar und das Risiko hoch ist: Selbstständige Waffen wurden als die dritte Revolution der Kriegsführung bezeichnet, nach Schießpulver und nuklearen Waffen", heißt es in dem Brief.

Motherboard: Die neue Macht der Mensch-Maschinen

Aber anders als nukleare Waffen, deren Komponenten nachweisbar und relativ einfach zu kontrollieren sind, könnten „selbstständige Waffen" sich schnell ausbreiten und den Charakter der Kriegsführung grundlegend verändern.

„Es werden dafür keine teuren oder schwer zu bekommenden Rohstoffe benötigt, also werden sie für alle signifikanten Militärmächte immer verfügbar und im großen Stil billig zu produzieren sein", wird im Brief behauptet.

Er fordert auch klarere Grenzen zwischen akademischer und militärischer Forschung im Bereich künstlicher Intelligenz.

„Genau wie die meisten Chemiker und Biologen kein Interesse daran haben, chemische oder biologische Waffen herzustellen, haben die meisten Forscher im Bereich künstlicher Intelligenz kein Interesse daran, Waffen mit künstlicher Intelligenz herzustellen—und wollen nicht, dass andere ihrem Bereich einen schlechten Ruf verleihen, indem sie dies tun und dadurch potentiell eine massive Gegenreaktion gegen künstliche Intelligenz auslösen, die spätere soziale Vorteile verhindert."

Dies ist nicht das erste Mal, dass führende Wissenschaftler und Köpfe der Technik aufgrund der Konsequenzen künstlicher Intelligenz Alarm geschlagen haben. Letzten August hat Elon Musk davor gewarnt, dass künstliche Intelligenz „potentiell gefährlicher ist als Atomwaffen". Stephen Hawking mahnte letztes Jahr, dass „die Entwicklung vollständiger künstlicher Intelligenz das Ende der Menschheit bedeuten könnte". Im Januar hat er einen ähnlichen Brief unterschrieben, in dem Vorschriften gefordert wurden, nach denen Roboter menschlichen Befehlen folgen müssen.

Anfang des Jahres hat Microsoft-Gründer Bill Gates diese Bedenken in einer „Ask me anything"-Runde bei Reddit aufgegriffen.

„Ich gehöre zu den Leuten, die wegen der Super-Intelligenz besorgt sind", antwortete er auf eine Frage bezüglich der Bedrohung, die von komplexer künstlicher Intelligenz ausgeht. „Zunächst werden die Maschinen viele Arbeiten für uns erledigen und nicht wirklich intelligent sein. Das sollte positiv sein, wenn wir vernünftig damit umgehen. Aber ein paar Jahrzehnte später sind sie intelligent genug, um zu einer Bedrohung zu werden. Ich stimme dahingehend mit Elon Musk und einigen anderen überein und verstehe nicht, warum einige Leute sich keine Sorgen machen."

Im März sagte Steve Wozniak der Australian Financial Review, dass „wenn wir diese Geräte bauen, damit sie sich um alles für uns kümmern, sie letztendlich schneller denken werden als wir und sie sich den langsamen Menschen entledigen, um die Firmen effektiver zu betreiben."

„Die Zukunft ist beängstigend und sehr schlecht für die Menschheit", sagte er weiter.

The Creators Project: Ex Machina — So menschlich war künstliche Intelligenz noch nie

Aber nicht jeder teilt diese apokalyptische Vision. John Markoff, Pulitzerpreis-Gewinner und Technik-Journalist bei den New York Times, sagte dem Wissenschaftsmagazin Edge Anfang des Monats, dass er es für übertrieben hält.

„Gates und Musk und Hawking haben alle gesagt, dass dies eine existentielle Bedrohung für die Menschheit ist. Das sehe ich einfach nicht", sagte er. „Wenn man beginnt, es auseinanderzunehmen, dann ist ihr Argument und das fundamentale Argument des Silicon Valley, dass sich alles um diese exponentielle Beschleunigung dreht, die aus der Halbleiterindustrie hervor geht."

Diese Beschleunigung, merkte Markoff an, hat sich eingependelt oder „pausiert" zumindest. Obwohl Ingenieure Fortschritte dabei gemacht haben, dass Maschinen Muster erkennen können, bleibt die Wahrnehmung immer noch eine große Herausforderung.

„Mein Gefühl ist, nachdem ich zwei oder drei Jahre daran gearbeitet habe, dass es eine viel differenziertere Situation ist, als die Alarmschlagenden zu glauben scheinen", so Markoff. „Es gibt zwei weitere Dinge zu beachten: Erstens, es geht nicht so schnell. Diese Technologien anzuwenden, wird länger dauern, als die Leute denken. Zweitens, die Struktur der Arbeitswelt ändert sich vielleicht auf Arten, die bedeuten, dass wir mehr Roboter benötigen, als wir dachten, sodass diese Roboter eine Rolle spielen müssen."

„2045 wird es viel mehr so aussehen wie heute, als du denkst", fügte er hinzu.