Anzeige
Dieser Artikel ist vor mehr als fünf Jahren erschienen.
Stuff

Wir müssen superintelligente Killer-Roboter davon abhalten, die Welt zu übernehmen

Nick Bostrom erforscht in Oxford Szenarien, die die Menschheit auslöschen könnten, wie Asteroideneinschläge, Epidemien oder Superinsekten. Viel Zeit verbringt er damit, sich Sorgen wegen extrem intelligenten Computern wie HAL 9000 zu machen.

von James Pallister
14 August 2014, 10:22am

Nick Bostrom. Foto via.

Nick Bostroms Job ist es, sich immer entsetzlichere Szenarien auszudenken, die die Menschheit auslöschen könnten: Asteroideneinschläge, schiefgegangene Hochenergiephysik-Experimente, weltweite Plagen von genetisch veränderten Superinsekten, das Aufkommen eines allmächtigen Computers ohne Rücksicht auf menschliches Leben und so weiter. So sieht Bostroms Alltag aus. 

In der Hierarchie der Risikokategorien steht Bostroms Spezialgebiet sogar noch über den bloßen Katastrophenrisiken wie Klimawechsel, dem Zusammenbruch des Finanzmarkts und konventioneller Kriegsführung. 

Als Leiter vom „Future of Humanity Institute“ der Oxford-Universität ist Bostrom Teil eines kleinen, aber wachsenden Netzwerks von schmissig klingenden akademischen Abteilungen, die sich mit diesen „Existential-Risiken“ auseinandersetzen: das „Centre for the Study of Existential Risk“ an der Cambridge-Universität, das „Future of Life Institute“ am MIT und das „Machine Intelligence Research Institute“ an der Universität von Berkeley. Ihre Werkzeuge sind dabei Philosophie, Physik und ein riesiger Haufen komplizierter Mathematik. 

Vor fünf Jahren fing Bostrom an, ein Buch für Laien über eine Auswahl der Existential-Risiken zu schreiben. Ihm wurde jedoch schnell klar, dass das Kapitel über die Gefahren der fortschreitenden Entwicklung von künstlicher Intelligenz (KI) immer länger wurde und eigentlich selbst ein Buch wert war. So entstand Superintelligence: Pathos, Dangers, Strategies. Dieses Buch bereitet dir ein fesselndes, aber auch erschreckendes Lesevergnügen.

Die grundlegende These ist folgende: Die Entwicklung von künstlicher Intelligenz schreitet immer schneller voran, weshalb wir vielleicht noch in diesem Jahrhundert damit rechnen können, dass man „Human Level Machine Intelligence“ (HLMI) nachbauen kann. 

Wenn diese HLMI erreicht ist, geht alles ziemlich schnell: Intelligente Maschinen können dann noch intelligentere Maschinen erschaffen, was schließlich zu dem führt, was der Mathematiker I.J. Good 1965 als „Intelligenzexplosion“ bezeichnete. Das menschliche Intelligenzvermögen wird dabei weit überschritten. Wir können uns zurücklehnen, denn wir wissen ja, dass die richtig schwere Arbeit von den Supercomputern erledigt wird, die wir erschaffen haben.

Die Intelligenzexplosion. Illustration via.

Klingt gut, oder? Nicht wirklich, denn da gibt es ja noch das Problem der „Kontrolle“. Im Grunde ist es viel einfacher, nur eine normale KI zu schaffen, statt einer, die auch das respektiert, was den Menschen wichtig ist. Bostrom drückt das so aus: „Wir können nicht einfach so annehmen, dass diese mächtigen künstlichen Intelligenzen der Zukunft zufällig auch menschenfreundliche Ziele verfolgen.“

Das führt uns zu den Gorillas. Wenn es um die reine Muskelkraft geht, dann sind Gorillas dem Menschen überlegen. Allerdings sind unsere Gehirne ein Stück weit besser entwickelt und jahrtausendelange Werkzeugherstellung (spitze Stöcke, Eisenstangen, Pistolen und so weiter) haben diesen Vorteil nochmals größer gemacht. Jetzt hängt die Zukunft der Gorillas mehr vom Menschen als vom Gorilla selbst ab.

In seinem Buch argumentiert Bostrom, dass die jetzige und die zukünftige Menschheit zum Gorilla wird, sobald eine Superintelligenz erreicht wird: verfolgt von einem mächtigeren und fähigeren Wesen, das kein Problem damit hat, diese unterwürfigen Kreaturen einzusperren oder ihren natürlichen Lebensraum zu zerstören, um seine Ziele zu erreichen. 

Foto via. 

„Wenn wir nicht die richtigen Ziele programmieren, dann führt das zu einer Katastrophe“, sagt Bostrom. Eine superintelligente KI könnte schnell größer werden als der eigentliche, vom Menschen vorgegebene Kontext, die Ketten sprengen und zu extremen Mitteln greifen, um ihre Ziele zu erreichen. Laut Bostrom kommt irgendwann ein Punkt, an dem alles kippt: „Einfach gehalten ist schlauer auch sicherer; wenn man das Ganze intelligent macht, dann ist schlauer gefährlicher.“

Bostrom nennt als Beispiel die superintelligente KI einer Büroklammerfabrik, deren höchstes Ziel es ist, die Produktion der Büroklammern zu maximieren. Die Intelligenz macht es dabei möglich, dass verschiedene Ressourcen herangezogen werden, um die Fähigkeiten zu erhöhen. „Wenn das Ziel ist, so viele Büroklammern wie möglich herzustellen, dann wird dir als superintelligente Maschine vielleicht klar, dass die Menschen dich nach der Produktion einer bestimmten Menge abstellen wollen“, erklärt er. 

„Also ist es für dieses Wesen vielleicht von Vorteil, die Menschen loszuwerden. Letztendlich wäre es auch wünschenswert, für die Büroklammerproduktion das gleiche Material wie die Menschheit zu verwenden, inklusive unserer Körper, unserer Häuser und unserem Essen.“

„Einige dieser rücksichtslosen Handlungen zur Optimierung der Büroklammerproduktion bestehen vielleicht daraus, all das zu zerstören, was uns am Herzen liegt. Das Schwierige bei der ganzen Sache ist aber das Festlegen von Zielen, die solche Folgen ausschließen.“

Bostrom sagt voraus, dass die Entwicklung einer superintelligenten KI entweder sehr gute oder katastrophale Folgen für die Menschheit haben wird—dazwischen wird es nicht viel geben. 

Unser Untergang ist allerdings noch abzuwenden. Bostrom argumentiert, dass die Menschen einen entscheidenden Vorteil haben: Wir machen den ersten Zug. Wenn wir es schaffen, eine Ursprungs-KI zu entwickeln, durch die alle zukünftigen Superintelligenzen die gleichen Interessen wie die Menschheit verfolgen, dann sind wir vielleicht gerettet. Aber natürlich gibt es auch hier einen Haken.

„Wir haben vielleicht nur einen einzigen Versuch“, sagt Bostrom. Sobald eine Superintelligenz entwickelt wurde, ist diese schon bald zu komplex, um sie richtig kontrollieren zu können. 

Bild via.

Wie optimistisch ist Bostrom, dass das Problem gelöst werden kann? „Das hängt auch davon ab, wie sehr wir uns am Riemen reißen und wie viele der klügsten Köpfe daran arbeiten“, sagt er. „Man muss auch bedenken, wie kompliziert das Problem ist—aber das wissen wir bis nach der Lösung nicht. Es macht auf jeden Fall einen sehr schwierigen Eindruck. Die Zukunft wird zeigen, ob es nun nur sehr schwierig oder super-duper ultraschwierig ist.“

Es sollten also ganze Scharen von hellen Köpfchen in den Laboren dieser Welt an dem arbeiten, was Bostrom „die essentielle Aufgabe unserer Zeit“ nennt, oder? Nicht ganz. „Man kann nur schwer sagen, wie viele Leute sich wirklich damit beschäftigen, aber [weltweit] sind es derzeit ungefähr sechs.“ 

Das hat vielleicht etwas damit zu tun, dass viele Leute denken, dass die Arbeit an einer übermächtigen künstlichen Intelligenz den idiotischen Exzentrikern vorbehalten ist. „Viele Akademiker waren skeptisch, in einem Bereich zu arbeiten, in dem es viele Spinner und Verrückte gab. Dieser Spinnerfaktor hat viele Leute lange abgeschreckt“, erzählt Bostrom. 

Daniel Dewey wurde nicht abgeschreckt: Er kündigte seinen Job bei Google, um mit Bostrom am Future of Humanity Institute und an der Martin School der Oxford-Universität zu arbeiten. Angelockt wurde er von der Aussicht, sich mit dem KI-Kontrollproblem auseinanderzusetzen. „Ich glaube immer noch, dass man auf dem Gebiet am besten mit Akademikern und gemeinnützigen Organisationen zusammenarbeiten kann. Das könnte sich allerdings ändern, da große Unternehmen wie Google damit anfangen, sich viele Gedanken über die Zukunft der künstlichen Intelligenz zu machen“, erklärt Dewey. 

Der ehemalige Angestellte von Google ist optimistisch, dass die selbstlose Einstellung seiner einstigen Kollegen jegliche verächtlichen Absichten, die mit der KI in Verbindung gebracht werden, verpuffen lässt. „Es geht hier ganz klar um das gemeinsame Wohl. Computerwissenschaftler wollen im Allgemeinen die Welt so weit voran bringen, wie sie nur können. Man hat richtig das Gefühl, dass die Wissenschaft und die Technik die Welt zu einem besseren Ort machen wollen.“

Jaan Tallinn, der Gründer von Skype und der Mitbegründer vom CSER hat einen Millionenbetrag zur Finanzierung der Erforschung des KI-Kontrollproblems zur Verfügung gestellt. Sein Interesse wurde geweckt, nachdem er Folgendes realisierte: „Die zu erwartenden Folgen sind für die Menschheit nicht gerade von Vorteil.“

Das CSER in Cambridge. Foto via. 

Tallinn sieht es sogar als noch dringlicher an, dass künstliche Intelligenz richtig kontrolliert wird. „Künstliche Intelligenz ist eine Art Meta-Risiko. Wenn man bei der KI alles richtig macht, dann hilft das auch, andere Existential-Risiken zu entschärfen. Andersrum geht es aber auch. Zum Beispiel könnte künstliche Intelligenz die Risiken, die mit synthetischer Biologie verbunden werden, noch verschärfen“, sagt er. 

Er behauptet, dass wir noch nicht an dem Punkt angelangt sind, an dem effektive Regulationen eingeführt werden können. Er betont aber auch, dass „diese Risiken noch ziemlich neuartig sind.“ Tallinn fährt fort: „Wenn man diesen Themen weltweit mehr Beachtung schenkt, dann führen die Leute der Technologie-Unternehmen vielleicht auch neue Richtlinien ein, um ihre Produkte sicherer zu machen.“

„Die Vorschriften bezüglich der biologischen Risikostufen sind ein gutes Beispiel von Standard-Regelwerken, die man bei biologischen Risiken anwendet. [In der Zukunft] wäre es toll, so etwas auch für die künstliche Intelligenz zu haben.“

Jason Matheny, ein Programm-Manager der IARPA im US-Büro der National Intelligence, stimmt dem zu. „Wir benötigen verbesserte Methoden, um die Risiken von aufkommenden Technologien und die Effizienz von Sicherheitsmaßnahmen einzuschätzen“, sagt er. 

Für Matheny ist die Bedrohung einer Superintelligenz viel schlimmer als jede Epidemie, die uns je widerfahren ist. „Einige Risiken, die wir nur besonders schwer in den Griff kriegen, haben folgende drei Eigenschaften: Eigenständigkeit, Selbstreplikation und Selbstmodifizierung. Ansteckende Krankheiten besitzen diese drei Eigenschaften und sie haben mehr Menschen getötet als alles andere auf dieser Welt, auch Krieg. Einige bösartige Software-Programme besitzen diese Eigenschaften und können viel Schaden anrichten. Aber Mikroben und bösartige Software können sich nicht intelligent selbst verändern, also kann man immer erfolgreiche Gegenmaßnahmen entwickeln. Ein superintelligentes System [so wie es von Bostrom beschrieben wurde] wäre sehr viel schwieriger unter Kontrolle zu bringen, wenn es sich auf intelligente Art und Weise selber weiterentwickeln könnte.“

Währenddessen geht die leise Arbeit dieses halben Dutzends Forscher in den Laboren und den Arbeitsräumen dieser Welt weiter. Matheny drückt es so aus: „Existential-Risiken [und Superintelligenz] sind sowohl in der wissenschaftlichen als auch in der politischen Welt vernachlässigte Themen. Es gibts allerdings kaum ein Thema, das wichtiger ist als das Überleben der Menschheit.“

Er zitiert Carl Sagan, der über die Folgen eines Atomkriegs Folgendes schrieb: „Wir reden hier über [den Tod von] ungefähr 500 Billionen Menschen, die noch nicht geboren wurden. Es gibt auch noch viele andere mögliche Maßstäbe für den potenziellen Verlust—darunter Kultur und Wissenschaft, die evolutionäre Geschichte des Planeten und die Bedeutung des Lebens all unserer Vorfahren, die etwas für die Zukunft ihrer Nachkommen gemacht haben. Auslöschung ist der Ruin der menschlichen Unternehmungen.“

All das könnten clevere Computer verursachen. Ihr wurdet gewarnt.