FYI.

This story is over 5 years old.

Tech

Wie autonome Autos ein gigantisches ethisches Dilemma der Moderne überwinden

Ganz so einfach wie die Lösung des zweijährigen Sohnes eines Psychologieprofessors ist es nicht—doch selbstfahrende Autos sind den Menschen einen Schritt voraus, was das Trolley-Problem angeht.

Screenshot: Youtube

Eine Straßenbahn ist außer Kontrolle geraten und lässt sich nicht mehr stoppen. Sie rast auf eine Gruppe von fünf Menschen zu, die ans Gleis gefesselt sind. Der einzige Weg, das zu verhindern, ist das Umstellen der Weiche: Dann würde die Bahn einen anderen Weg nehmen, aber eine unbeteiligte Person überrollen. Würdest du die Weiche umstellen?

Die geschilderte Situation ist eines der bekanntesten Gedankenexperimente der modernen Philosophie und als Trolley-Problem (vom englischen Begriff für Straßenbahn) oder im Deutschen auch als Weichenstellerfall bekannt.

Anzeige

Vergangene Woche machte ein YouTube-Video des zweijährigen Sohns eines Psychologie-Dozenten von der kalifornischen Wake Forest University in den sozialen Netzwerken die Runde: Zwischen Holzschienen und Spielfiguren löste das Kleinkind das ethische Dilemma, entweder durch Handeln fünf Menschen retten, aber einen Menschen aktiv töten oder durch Passivität einen Menschen verschonen, dafür aber fünf Menschen sterben lassen zu müssen, auf …nun ja… kindlich-gerechte Art und Weise:

Und während der Vater des Kindes das Video anschließend mit in seinen „Moralpsychologie"-Kurs nahm, um den Studierenden die Unterschiede zwischen der zweckorientierten Ethik des Utilitarismus (Weiche umstellen) und der Pflichtethik der Deontologie (Weiche nicht umstellen) zu erläutern, wird der Mensch wohl auf ewig in den ethischen Abgründen des Trolley-Problems gefangen bleiben. Wie sieht es allerdings aus, wenn wir eine Maschine mit der Aufgabe der Weichenstellung betrauen?

An plagenden Gewissensbissen wird sie wohl nicht verzweifeln. Obwohl Künstliche Intelligenzen mittlerweile besser Go spielen als der Mensch, hatte AlphaGo wohl kaum Mitleid mit seinem unterlegenen menschlichen Gegner Lee Sedol. Auch wird euch eine KI ohne Gewissensbisse ins Gesicht sagen, ob ihr hübsch seid oder nicht.

Künstliche neuronale Netze werden schon bald die Hirne unseres Straßenverkehrs sein und selbstfahrende Autos und andere autonome Fahrzeuge steuern. Ihnen wird so das Trolley-Problem nicht nur als Gedankenexperiment, sondern als reale Situation begegnen. Und die Maschinen werden eine einprogramierte Entscheidung treffen müssen—eine Tatsache, die schon lange vor der Auslieferung des ersten Tesla 3 für aufgeregte Debatten sorgt. Denn das Problem ist, dass sich neuronale Netzwerke nur bis zu einem gewissen Grad verstehen und steuern lassen. Wie ihnen ein Gewissen eincodiert werden kann—und welche Art von Gewissen das sein müsste—weiß noch niemand. Und bisher geben sich die Hersteller autonomer Fahrzeuge auch noch recht bedeckt ob ihrer Position dazu, denn die moralische Frage wird schnell zu einer rechtlichen: Wer wird zur Rechenschaft gezogen, wenn ein autonomes Auto einen Menschen tötet?

Anzeige

„Der Weg, den wir eingeschlagen haben, führt darauf hin, dass Technologie uneingeschränkt Entscheidungen treffen wird. Und ich bin nicht sicher, ob das das Beste ist", so Computerwissenschaftler Oren Etzioni gegenüber Wired. Wie könnte es allerdings konkret aussehen, wenn ein Auto selbst entscheiden muss, ob es die linke Spur benutzt und einen Menschen tötet oder auf der rechten bleibt und fünf Menschen überfährt?

Eine für derartige Fälle in den Algorithmus eines autonomen Fahrzeugs vorprogrammierte Entscheidung des Autos wäre letztlich auch nur eine auf die menschlichen Entwickler von autonomen Fahrzeugen abgewälzte Entscheidung. Doch dank der verschiedenen Verfahren des maschinellen Lernens können autonome Fahrzeuge selbst Entscheidungskompetenz entwickeln.

Wer ist verantwortlich für den ersten Tod in einem Tesla?

Schon AlphaGo hatte durch das Analysieren menschlicher Spielzüge so schnell dazugelernt, dass selbst die Entwickler und ausgewiesene menschliche Go-Experten der Spielstrategie des Computerprogramms von Google DeepMind irgendwann nicht mehr problemlos folgen konnten.

Dass auch autonome Autos früher oder später sicherer fahren werden als menschliche Fahrer, gilt trotz des ersten Todesfalls in einem Tesla Model S als sicher. Selbstfahrende Autos stecken voller Sensoren, richten ihre Aufmerksamkeit in einem Winkel von 360 Grad aus, schätzen Distanzen zumeist korrekt ein und lassen sich auch nicht ablenken. Sie lernen bei jeder Fahrt dazu und teilen ihr Wissen in Form gewaltiger Datenmengen automatisch mit allen anderen Fahrzeugen ihrer Flotte. Vorausgesetzt, der Mensch begleitet sie bis zu dieser Produktreife aufmerksam als Begleiter und Richter in letzter Sekunde.

Ist es einmal soweit, kann ein neuronales Netzwerk in einer potentiell lebensbedrohlichen Situationen im Straßenverkehr aus einem viel größerem Erfahrungsschatz heraus agieren, als es der Mensch je können wird. Nicht nur in dieser Hinsicht unterscheiden sich autonome Fahrzeuge fundamental von menschlichen Fahrern. Denn letztere können in den meisten lebensbedrohlichen Situationen aufgrund der gegebenen Schnelligkeit nur intuitiv reagieren. Es bleibt schlicht keine Zeit, um den Kontext der Situation zu erfassen, dessen Kenntnis für die moralische Bewertung einer Entscheidung aber notwendig ist.

Autonome Autos könnten also nicht nur in der Lage sein, im entscheidenden Moment einen größtmöglichen Datensatz an Erfahrungswerten bemühen, um eine Entscheidung zu treffen, sondern werden aufgrund ihres Lernverhaltens wohl auch weitgehend die einzige ethisch vertretbare Strategie des so komplexen Trolley-Problems herbeiführen: Sie werden derartige Situationen vermeiden, so oft es nur geht.

Johannes ist auf Twitter.