Anzeige
Ben Rubinstein: Ich persönlich halte das Ganze nicht für unumgänglich. Von außen betrachtet hat es zwar den Anschein, als ob wir in der Technik rasend schnell Fortschritte machen, aber Insider wissen, dass dem eigentlich gar nicht so ist. Wenn ich mir eine KI anschaue, dann fallen mir zum Beispiel auch schnell viele Dinge auf, die sie nicht kann. Es gibt da das sogenannte Moravec'sche Paradox, das mit wenigen Ausnahmen im Grunde besagt, dass Menschen und Computer nie in den gleichen Dingen gut sind.Ich nehme an, dass Moral zu den Dingen gehört, die Computer nicht drauf haben. Wie schafft man es trotzdem, moralische und ethische Werte in das Gehirn einer Maschine einzupflanzen?
Wenn künstliche Intelligenz die nächste Stufe erreichen wird, dann müssen wir diese Werte abgleichen. Das Problem dabei ist allerdings Folgendes: Was, wenn der Nutzen der Maschine nicht mit dem Nutzen des Menschen übereinstimmt? Isaac Asimov war ein Science-Fiction-Autor und er schrieb die drei Gesetze der Robotik nieder: Roboter dürfen keine Menschen verletzen oder zulassen, dass ein Mensch zu Schaden kommt. Roboter müssen die Befehle der Menschen befolgen, außer es wird dabei Gesetz Nummer Eins gebrochen. Und Roboter müssen sich selbst schützen, sofern dabei nicht die Gesetze Nummer Eins und Zwei gebrochen werden. Diese Gesetze garantieren eine gute Geschichte und ergeben auch viel Sinn. Sie sind leider bloß ziemlich vage.
Anzeige
In einigen Forschungsprojekten wird versucht, der künstlichen Intelligenz ein menschliches Urteilsvermögen beizubringen. Man lässt die KI einfach nur Menschen beobachten, lädt sie dann in eine Maschine und schreibt schließlich einen Algorithmus, damit sie unsere Handlungen überwachen kann. Man erschafft ein Modell unserer Welt und fügt dem Ganzen Werte hinzu, die erklären können, was wir machen. Ich hoffe, das ist jetzt logisch.Irgendwie schon …
Im Grunde drehen wir den ganzen Prozess um. Anstatt von Werten auf Taten zu schließen, beobachten wir eher diverse menschliche Handlungen und versuchen dann, das Ganze quasi rückwärts zu analysieren, um so auf unsere Werte zu kommen.
Erzähl uns doch mal ein wenig von deinem Projekt. Was wird dir durch die finanzielle Förderung jetzt alles ermöglicht?Motherboard: Künstliche Intelligenz knackt das Rätsel des unzerstörbaren Plattwurms
Ich werde mich vor allem auf den Lernprozess der Maschinen konzentrieren. Für eine kurzfristige Problemstellung will ich herausfinden, ob dieser Lernprozess fehlgeleitet werden kann. Wenn man ein Maschinen-Lernsystem entwirft, dann hat man ja auch ein bestimmtes Ziel im Kopf. Also wird das System die Daten auf bestimmte Muster analysieren und danach eine Prognose treffen. Dabei kann es zum Beispiel um das Kundenverhalten oder um das Erkennen einer Krankheit auf der Grundlage medizinischer Beobachtungen gehen.
Anzeige
Ich werde das wohl nicht mehr miterleben und ich bin jetzt Mitte 30. Allerdings wurden mehrere KI-Experten gefragt, wann die künstliche Intelligenz wohl in der Lage sein wird, menschliche Dinge zu tun. Dabei wurde geschätzt, dass das wohl so zwischen 2040 und 2050 der Fall sein wird. KI-Forscher haben jedoch den Ruf, nur schlecht voraussagen zu können, wie weit es die künstliche Intelligenz bringen wird. Deshalb würde ich solche Schätzungen eher mit Vorsicht genießen.Du schließt es aber auch nicht ganz aus. Heißt das, dass es theoretisch möglich ist?
Ja. Die künstliche Intelligenz verbessert sich von Tag zu Tag und irgendwann wird ein solches Szenario eintreten. Wenn man sich allerdings solche Geschichten wie Terminator anschaut, dann scheint es darin für die Menschheit immer total aussichtslos zu sein und man kann sich nur mit einer Zeitmaschine helfen. Das Problem mit Science-Fiction ist jedoch, dass oftmals die heutige Gesellschaft genommen wird und man dann fragt: Was, wenn die KI genau jetzt plötzlich total überlegen wird?Wenn jetzt auf einmal ein Terminator oder ein Cylon durch die Straßen laufen würde, dann wäre das eine Katastrophe. Aber bevor so etwas passiert, wird sich die künstliche Intelligenz weiterentwickelt und in unserer Welt immer mehr Verantwortung bekommen haben. Ich glaube, dass dann zuerst einmal einige kleine Unfälle passieren werden, zum Beispiel bei vollautomatischen Autos oder bei Robotern, die sich um alte Menschen kümmern. Selbst der kleinste dieser Unfälle wird zur Folge haben, dass man beim Einsatz von KI erstmal wieder vorsichtiger wird.Genau dieser Umstand macht es auch so schwer einzuschätzen, was passieren wird, wenn es irgendwann einmal Superintelligenz gibt. Ich stehe der ganzen Sache jedoch ziemlich optimistisch gegenüber.