FYI.

This story is over 5 years old.

Tech

Hawking: Deshalb wird unsere Dummheit uns schon bald zerstören

Umwelt, autonome Waffen und Singularität: Der weltberühmte Astrophysiker bringt mal wieder auf den Punkt, wie sich die Menschheit in ihr eigenes Verderben reitet.
Screenshot: ora.tv

Stephen Hawking scheut sich nicht, die großen Probleme der Menschheit beim Namen zu nennen. Damit hat sich der weltberühmte Astrophysiker mittlerweile eine fast ebenso große Reputation als Mahner vor zukünftigen Gefahren geschaffen wie mit seiner Forschung über Schwarze Löcher. Hawking äußert sich regelmäßig zu den großen Bedrohungen für unser Überleben, welche er vor allem auf das Voranschreiten Künstlicher Intelligenz und die Auswirkungen unseres unbedachten Verhaltens zurückführt. So auch am vergangenen Samstag, als der amerikanische Moderator Larry King ein exklusives Interview mit Stephen Hawking führte, in dem der Visionär mal wieder besorgt in die Zukunft blickte.

Anzeige

Larry King hatte die lebende Physiklegende bereits vor sechs Jahren getroffen und mit ihm über den Untergang der menschlichen Spezies philosophiert. Damals fasste Hawking das Problem mit den Worten zusammen, dass sich „die Menschheit aufgrund ihrer bekümmernden Dummheit in Gefahr" befände. Natürlich schloss King in der Konferenzschaltung auf die Kanaren, wo Hawking gerade die Veranstaltung „Beyond The Horizon—A Tribute To Stephen Hawking" besucht, an das Gespräch aus dem Jahr 2010 an. Seine erste Frage lautete somit logischerweise: „Haben sich die Dinge verbessert oder verschlechtert?"

Wer nun mit einer optimistischen Feelgood-Botschaft gerechnet hätte, kennt den Realisten Hawking schlecht. Seine Antwort lautet: „Wir sind nicht weniger gierig oder dumm geworden. Vor sechs Jahren war ich wegen der Umweltverschmutzung und der Überbevökerung besorgt. Seit unserem letzten Treffen ist die Bevölkerung jedoch noch einmal um eine halbe Milliarde angestiegen und ein Ende ist nicht in Sicht. Im Jahr 2100 werden es elf Milliarden sein."

Im bezug auf unserem unbedachten Umgang mit der Umwelt sieht Hawking keine Entwicklung zum Besseren. In den letzten fünf Jahren habe sich die Luftqualität, besonders in den Städten, zu einem bedenklichen Grad verschlechtert: „Mehr als 80 Prozent der Bewohner urbaner Regionen sind einem gefährlichen Grad der Luftverschmutzung ausgesetzt". Dieser gefährliche Anstieg in der Verdreckung unserer Luft, befeuert durch den vermehrten Ausstoß von Kohlendioxid und einen besorgniserregenden Anstieg der Erderwärmung, identifiziert Hawking als das größte aller Risiken, welche ein erfolgreiches Weiterbestehen unserer Spezies gefährden.

In einem Gespräch mit Hawking darf natürlich auch die Frage nach Künstlicher Intelligenz nicht fehlen, deren Antwort sich übrigens wunderbar in die weiteren Desillusionen einreiht. Auch hier zählt Hawking noch einmal prägnant Gefahren auf, in welche wir uns aufgrund unseres gierigen und dummen Verhaltens selbst begeben würden. Besonders kritisiert er den politischen Umgang mit der Zukunftstechnologie KI und die Reaktion der Regierungen, die mit der Entwicklung smarter und autonomer Waffentechnologie beschäftigt seien. „Die Arbeit an Technologien auf medizinischer Ebene, welche das Leben der Menschen verbessern könnten, scheinen [dagegen] eine geringere Priorität zu haben."

Zum Schluss nimmt Hawking noch einmal Stellung zur Theorie der Singularität des berühmten Transhumanisten und Futuristen Ray Kurzweil. Doch auch in der von ihm erhofften Kooperation von Mensch und Maschine zu einer Art Cyborg-Individuum sieht Hawking die Chancen für eine fortschrittliche Entwicklung mit Bedenken. „Künstliche Intelligenzen haben das Potential, sich schneller zu entwickeln als die menschliche Rasse selbst." Es wäre, so der Astrophysiker, durchaus möglich, dass wir mit den Maschinen koexistieren und von ihnen sogar profitieren könnten, doch wir bräuchen eine Sicherheit, dass wir die Kontrolle über die weitere Genese der KIs zu behalten.

Er würde das Thema also nicht unbedingt optimistisch und unkritisch angehen—denn irgendwann, so Hawking, würden die Maschinen fähig sein, sich selbst weiterzuentwickeln und eigene Gedanken zu generieren, gibt der Wissenschaftler zu bedenken. „Wir können nicht vorhersehen, ob sie dann die gleichen Ziele haben werden wie wir."