Anzeige
tech

Dieser Wissenschaftler soll verhindern, dass Roboter die Menschheit auslöschen

Ben Rubenstein hat 100.000 Dollar bekommen, um zu untersuchen, was bei lernfähigen Maschinen alles schiefgehen kann.

von Dan Nulley
23 Juli 2015, 1:08pm

Foto: Stephen Bowler | Wikimedia Commons | CC BY 2.0

Die meisten von uns haben keine Angst vor Killer-Robotern, weil wir erwachsen sind und wissen, dass es so etwas nicht gibt. Aber Anfang des Monats hat das Future of Life Institute—eine vom berühmten Technik-Unternehmer Elon Musk unterstützte Organisation—37 finanzielle Zuschüsse für Projekte vergeben, die dafür sorgen sollen, dass künstliche Intelligenz auch weiterhin „robust und für die Menschheit vorteilhaft" bleibt. Anders gesagt: Ihnen wurde ein ganzer Haufen Kohle gegeben, um sicherzustellen, dass sich die Maschinen nicht erheben und uns alle töten.

Die unterstützten Projekte haben es sich unter Anderem zum Ziel gesetzt, KI-Systeme mit menschlichen Moralvorstellungen gleichzuschalten und die Eigenständigkeit von autonomen Waffen zu begrenzen. Zu den Zuschuss-Empfängern gehört auch Ben Rubinstein, ein Dozent im Fach Computerwesen und Informationssysteme an der Melbourne University. Rubinstein erhielt 100.000 Dollar, um daran zu arbeiten, dass sich Computer nicht gegen uns wenden und wichtige Sicherheitssysteme knacken.

Wir haben uns mit Rubinstein unterhalten, um ihn zu fragen, wie zum Teufel er das anstellen will.

VICE: Hey Ben. Hollywood liebt die Vorstellung davon, dass künstliche Intelligenz irgendwann stärker ist als die menschliche Intelligenz. Müssen wir uns wegen dieses Szenarios wirklich Sorgen machen?
Ben Rubinstein: Ich persönlich halte das Ganze nicht für unumgänglich. Von außen betrachtet hat es zwar den Anschein, als ob wir in der Technik rasend schnell Fortschritte machen, aber Insider wissen, dass dem eigentlich gar nicht so ist. Wenn ich mir eine KI anschaue, dann fallen mir zum Beispiel auch schnell viele Dinge auf, die sie nicht kann. Es gibt da das sogenannte Moravec'sche Paradox, das mit wenigen Ausnahmen im Grunde besagt, dass Menschen und Computer nie in den gleichen Dingen gut sind.

Ich nehme an, dass Moral zu den Dingen gehört, die Computer nicht drauf haben. Wie schafft man es trotzdem, moralische und ethische Werte in das Gehirn einer Maschine einzupflanzen?
Wenn künstliche Intelligenz die nächste Stufe erreichen wird, dann müssen wir diese Werte abgleichen. Das Problem dabei ist allerdings Folgendes: Was, wenn der Nutzen der Maschine nicht mit dem Nutzen des Menschen übereinstimmt? Isaac Asimov war ein Science-Fiction-Autor und er schrieb die drei Gesetze der Robotik nieder: Roboter dürfen keine Menschen verletzen oder zulassen, dass ein Mensch zu Schaden kommt. Roboter müssen die Befehle der Menschen befolgen, außer es wird dabei Gesetz Nummer Eins gebrochen. Und Roboter müssen sich selbst schützen, sofern dabei nicht die Gesetze Nummer Eins und Zwei gebrochen werden. Diese Gesetze garantieren eine gute Geschichte und ergeben auch viel Sinn. Sie sind leider bloß ziemlich vage.

Und wie macht man sie weniger vage?
In einigen Forschungsprojekten wird versucht, der künstlichen Intelligenz ein menschliches Urteilsvermögen beizubringen. Man lässt die KI einfach nur Menschen beobachten, lädt sie dann in eine Maschine und schreibt schließlich einen Algorithmus, damit sie unsere Handlungen überwachen kann. Man erschafft ein Modell unserer Welt und fügt dem Ganzen Werte hinzu, die erklären können, was wir machen. Ich hoffe, das ist jetzt logisch.

Irgendwie schon ...
Im Grunde drehen wir den ganzen Prozess um. Anstatt von Werten auf Taten zu schließen, beobachten wir eher diverse menschliche Handlungen und versuchen dann, das Ganze quasi rückwärts zu analysieren, um so auf unsere Werte zu kommen.

Motherboard: Künstliche Intelligenz knackt das Rätsel des unzerstörbaren Plattwurms

Erzähl uns doch mal ein wenig von deinem Projekt. Was wird dir durch die finanzielle Förderung jetzt alles ermöglicht?
Ich werde mich vor allem auf den Lernprozess der Maschinen konzentrieren. Für eine kurzfristige Problemstellung will ich herausfinden, ob dieser Lernprozess fehlgeleitet werden kann. Wenn man ein Maschinen-Lernsystem entwirft, dann hat man ja auch ein bestimmtes Ziel im Kopf. Also wird das System die Daten auf bestimmte Muster analysieren und danach eine Prognose treffen. Dabei kann es zum Beispiel um das Kundenverhalten oder um das Erkennen einer Krankheit auf der Grundlage medizinischer Beobachtungen gehen.

Aber nehmen wir mal an, dass wir einem Maschinen-Lernsystem absichtlich ungenaue Daten einspeisen. Wie sehr würde das System davon negativ beeinflusst werden? Das ist vor allem relevant für den Bereich der Cybersecurity. Stell dir doch mal vor, wie ein Feind dein System manipuliert, indem er den mechanischen Algorithmus in die Irre führt, um so den falschen Eindruck zu erwecken, dass zum Beispiel eigenständige Waffen zufällig losgehen.

Überall da, wo lernfähige Maschinen zum Einsatz kommen und wichtige Entscheidungen treffen—beispielsweise die Überwachungsgeräte in Krankenhäusern—, sind meine Forschungen relevant. Es geht nicht mehr einzig und allein darum, sich ins System reinzuhacken.

Könnte ein Szenario á la Terminator irgendwann einmal Realität werden?
Ich werde das wohl nicht mehr miterleben und ich bin jetzt Mitte 30. Allerdings wurden mehrere KI-Experten gefragt, wann die künstliche Intelligenz wohl in der Lage sein wird, menschliche Dinge zu tun. Dabei wurde geschätzt, dass das wohl so zwischen 2040 und 2050 der Fall sein wird. KI-Forscher haben jedoch den Ruf, nur schlecht voraussagen zu können, wie weit es die künstliche Intelligenz bringen wird. Deshalb würde ich solche Schätzungen eher mit Vorsicht genießen.

Du schließt es aber auch nicht ganz aus. Heißt das, dass es theoretisch möglich ist?
Ja. Die künstliche Intelligenz verbessert sich von Tag zu Tag und irgendwann wird ein solches Szenario eintreten. Wenn man sich allerdings solche Geschichten wie Terminator anschaut, dann scheint es darin für die Menschheit immer total aussichtslos zu sein und man kann sich nur mit einer Zeitmaschine helfen. Das Problem mit Science-Fiction ist jedoch, dass oftmals die heutige Gesellschaft genommen wird und man dann fragt: Was, wenn die KI genau jetzt plötzlich total überlegen wird?

Wenn jetzt auf einmal ein Terminator oder ein Cylon durch die Straßen laufen würde, dann wäre das eine Katastrophe. Aber bevor so etwas passiert, wird sich die künstliche Intelligenz weiterentwickelt und in unserer Welt immer mehr Verantwortung bekommen haben. Ich glaube, dass dann zuerst einmal einige kleine Unfälle passieren werden, zum Beispiel bei vollautomatischen Autos oder bei Robotern, die sich um alte Menschen kümmern. Selbst der kleinste dieser Unfälle wird zur Folge haben, dass man beim Einsatz von KI erstmal wieder vorsichtiger wird.

Genau dieser Umstand macht es auch so schwer einzuschätzen, was passieren wird, wenn es irgendwann einmal Superintelligenz gibt. Ich stehe der ganzen Sache jedoch ziemlich optimistisch gegenüber.