FYI.

This story is over 5 years old.

Tech

Bostrom will verhindern, dass künstliche Intelligenz die Menschheit zerstört

Ich habe mich mit dem Philosophen Nick Bostrom über die wundervolle und schreckliche Zukunftsvision maschineller Superintelligenz unterhalten.
Screenshot von Youtube: Kirk befreundet sich mit V'Ger - der superintelligenten Voyager 6

„Der Weltraum, unendliche Weiten, wir schreiben das Jahr 2273. Dies sind die Abenteuer des Raumschiffs Enterprise….“

Ein Gespräch mit Professor Nick Bostrom vom Future of Humanity Institute versetzt dich unweigerlich in die Welt der ersten Star Trek Filme von 1979, wo die verloren geglaubte Forschungssonde Voyager 6 zur Erde zurückkehrt. Die von Aliens mit Superintelligenz ausgetattet Sonde hat nur eine Mission: Ihrem Schöpfer alles berichten, was sie gelernt hat. Und weil sie die Erde für Ihren Schöpfer hält, will sie sich mit unserem Planeten verschmelzen—auf Kosten allen menschlichen Lebens.

Anzeige

Für Professor Nick Bostrom und seine Mitarbeiter ist eine künstliche Superintelligenz ein realistisches Szenario. Der Philosoph vom Future of Humanity Institute der Oxford Martin School beschäftigt sich mit den Auswirkungen und Gefahren von Maschinen, die die Fähigkeiten des menschlichen Intellekts weit hinter sich lassen und den Untergang der Menscheit in Kauf nehmen.

Falls wir den Übergang zur Superintelligenz überleben, könnte die Zukunft für Millionen von Jahren wundervoll werden.

Ich habe mich mit ihm über die Wahrscheinlichkeit hyperintelligenter künstlicher Maschinen und die möglichen Komplikationen unterhalten—beruhigenderweise lief unser Gespräch irgendwann auch auf Star Trek hinaus.

Motherboard: Ist künstliche Intelligenz auf menschlichem Niveau möglich? Und wenn ja, wird die Menschheit diese dann auch erschaffen?

Professor Nick Bostrom: Ich denke es ist wahrscheinlich, dass beides eintreffen wird, angenommen, dass die Menscheit nicht zuvor schon ausgestorben ist.

Und was ist eure grobe Einschätzung, wann das geschehen wird?

Wir haben eine Umfrage unter Experten der K.I.-Forschung auf wissenschaftlichen Konferenzen durchgeführt und sie gefragt zu welchem Zeitpunkt es eine 50-50 Chance für die Existenz menschenähnlicher künstlicher Intelligenz gibt: Die häufigsten Antworten lagen zwischen den Jahren 2040 und 2050.

Mit einer 90% Wahrscheinlichkeit rechnen die meisten Experten im Jahr 2075 mit einer solchen artifiziellen Intelligenz.

Anzeige
Professor Nick Bostrom grübelt gerne vor seinem extra aufgestellten, antidepressiven Licht über apokalyptischen Szenarien.

Eine weitere Frage war, wie lange es ab dem Zeitpunkt dauern würde bis eine übermenschliche Intelligenz [Superintelligenz] existiert. Die Mehrzahl der Experten denken, dass bis dahin dann noch einmal 20 Jahre vergehen werden.

Ok, das klingt alles nach einem recht präzisen Zeitplan. Gründen diese Vorhersagen von Experten auf unserem heutigen Wissen über die Entwicklung von Computern, also wie sich die Effizienz und Geschwindigkeit von Rechner entwickelt, etwa nach Moore's Gesetz, oder ist es mehr ein Bauchgefühl?

Die Experten haben alle möglichen persönlichen Vorstellungen und Tendenzen. Deshalb halte ich es für wichtig diese Vorhersagen mehr als Teil einer Wahrscheinlichkeitsverteilung zu sehen und nicht als definitive Vorsehungen.

Basieren die Vorhersagen denn auf der Vorstellung, dass wir ganz andere Computersysteme haben werden, also solche die nicht auf traditioneller Transistorlogik beruhen, sondern auf vollkommen neuen Architekturen?

Wir können eine Vielzahl verschiedener Entwicklungen sehen. Eine ist die traditionelle künstliche Intelligenz, inspiriert von der Mathematik. Hardware verbessert sich nach wie vor aber die Art des Fortschritts hat sich geändert. Die Geschwindigkeit von einzelnen seriellen Rechenschritten stagniert aber Multi-Core-Technologie erlaubt uns mehr Rechenschritte parallel auszuführen.

Anzeige

Es gibt Projekte, die versuchen zu lernen wie das einzige parallele System mit genereller Intelligenz, das menschliche Gehirn, funktioniert. Und weil das menschliche Gehirn existiert und es ein endliches System ist, können wir annehmen, dass wir es am Ende auch verstehen werden. Die Erkenntnisse über das Gehirn können wir dann anwenden. Ein extremer Vorschlag ist z.B. die vollständige Emulation eines Gehirns in all seinen Details.

Wenn sie Ihre eigene Vorhersage über die Entwicklung künstlicher Intelligenz machen müssten für die nächsten 100 Jahre, wie sähe ihre Prognose aus?

Was den genauen Zeitrahmen für das Erreichen menschenähnlicher Intelligenz angeht bin ich agnostischer als andere. Ich halte es jedoch für wahrscheinlich, dass wir in den den nächsten 100 Jahren eine Superintelligenz erleben werden, und dass das der Moment sein wird an dem sich entscheidet, ob wir es mit einer existentiellen Katastrophe zu tun bekommen.

Falls wir den Übergang zur Superintelligenz überleben könnte die Zukunft mit der Hilfe dieser Maschine für Millionen von Jahren wundervoll werden. Das ist nicht einfach nur eine weitere Geschichte wie andere Entwicklungen, die wir schon kennen wie Kriege, geopolitische Verschiebungen und Ideologiewechsel. Ich denke es wird die letzte Erfindung sein die Menschen jemals machen werden. Alles hängt davon ab, ob wir diese Transformation richtig hinkriegen.

Wäre eine Superintelligenz deswegen gefährlich, weil sie rational, kalt und emotionslos arbeitet, oder denken sie eher an eine Software, die Emotionen besitzt und den Willen hat nach selbstverliebten Emotionen zu handeln?

Anzeige

Ich glaube, dass diese beiden Möglichkeiten zusammenfallen. Das fundamentale Problem ist es menschliche Werte in Software zu übersetzen, um dann künstliche Intelligenz auf Basis dieser Werte zu trainieren. Auch wenn wir das Problem der Intelligenz gelöst haben, wissen wir noch nicht wie wir sicherstellen können, dass ein solches System seine Intelligenz auch so einsetzt, dass sie menschliche Werte wahrt und fördert.

Das fundamentale Problem ist es menschliche Werte in Software zu übersetzen.

Denken sie, dass eine Superintelligenz, auch dann, wenn ihr nur simple Aufgaben gestellt werden, gefährlich werden kann?

Ja, sie können es sich so vorstellen: wenn sie eine Superintelligenz sind und ihre Aufgabe darin besteht, so viele Nachkommastellen der Kreiszahl Pi wie möglich zu berechnen, dann würden sie unter anderem mehr Computer bauen wollen, um die Aufgabe besser zu erledigen. Also würden sie, wenn sie könnten, erst die Erde und dann andere Himmelskörper vollständig in Computerprozessoren verwandeln. Menschen würden Ihnen in die Quere kommen wollen und versuchen sie abzuschalten. Also würden sie versuchen die Menschen loszuwerden. Und wenn sie darüber nachdenken, welche Fähigkeiten sie als Superintelligenz hätten, dann könnten sie das auch erfolgreich tun.

An diesem Punkt höre ich die Star Trek Melodie in meinen Ohren.

Was schlagen sie vor, um dieses Szenario abzuwenden?

Ich mache mir keine Sorgen über unsere heutigen Computersysteme. Am wichtigsten ist es deshalb jetzt unsere Fähigkeit auszubauen und diese Szenarien später zu verhindern. Wir müssen in der Ingenieurswissenschaft klarere Ziele dazu setzen und ein tieferes mathematisches Verständnis von Superintelligenz und von selbstbewussten Systemen entwickeln.

Anzeige

Vielen Dank Professor Bostrom!

Nick Bostrom: Nichts zu danken.

Heute wissen wir noch sehr wenig darüber wie das menschliche Gehirn funktioniert und was Intelligenz, Bewusstsein und Wille auf einer physikalischen Ebene eigentlich sind. Es ist einfach nicht so, dass es eine Entwicklung gäbe an der sich ablesen liesse, ob und wann es superintelligente küstliche Intelligenz geben wird.

Prognosen und Bauchgefühle von Experten sind etwas anderes als Wettervorhersagen und sogar die reichen nur bis zur nächsten Woche. Aber auch wenn die Vorhersagen von Bostrom und Co zutreffen bleibt eine Frage unbeantwortet: warum sollte eine Superintelligenz weniger ethisch sein als wir Menschen, wenn sie beginnt uns zu verstehen? Warum nicht ethischer, superethisch? Der Spekulation sind keine Grenzen gesetzt.

Im Star Trek freundet sich Kirk schließlich auch mit V'Ger an und überzeugt sie sich mit einem Crewmitglied zu verschmelzen anstatt mit der Erde. Das versetzt die neue Lebensform in eine andere Dimension—und die Menschheit ist gerettet. Wünschen wir also Professor Bostrom viel Glück dabei schon heute ein gutes Verhältnis aufzubauen zu den Maschinen aus der Zukunft.

Nick Bostrom ist Autor mehrerer Bücher über existentielle Risiken. Sein neues Buch „Superintelligence: Paths, Dangers, Strategies“ erscheint im Herbst bei Oxford University Press.