Tech

Tödlicher Unfall mit selbstfahrendem Auto: Polizei veröffentlicht Video

Update, 23.03.18, 10:05: Die Polizei von Tempe hat Videoaufnahmen des Unfalls veröffentlicht. Die Aufnahme ist nicht drastisch, könnte aber einige Zuschauer verstören. Das Video zeigt, wie die Fahrradfahrerin Elaine Herzberg aus dem Schatten auf die Fahrbahn tritt. “Die Aufnahme zeigt, dass es sehr schwer gewesen wäre, diesen Aufprall zu vermeiden, egal ob eine KI oder ein Mensch am Steuer sitzt”, sagte Polizeichefin Sylvia Moir den Reportern des San Francisco Chronicle. Doch ein Video aus dem Inneren des Volvo zeigen auch, dass der Fahrer immer wieder von der Straße weggeschaut hat.

Am Sonntagabend schob Elaine Herzberg ihr Fahrrad über die Curry Road in der Stadt Tempe im US-Bundesstaat Arizona, als sie von einem Volvo umgefahren wurde. Das Auto war mit knapp 65 Stundenkilometern unterwegs – etwa 10 schneller als erlaubt – und hatte vor dem Aufprall nicht gebremst.

Videos by VICE

In den USA sterben jeden Tag mehr als Hundert Menschen im Straßenverkehr, aber dieser Unfall war besonders: Die 49-jährige Elaine Herzberg war laut einem Bericht der New York Times das erste Opfer, das von einem selbstfahrenden Auto totgefahren wurde.

Es ist kein Zufall, dass das Unglück in Arizona passierte: Der Bundesstaat grenzt an Kalifornien, wo die Firmen sitzen, die an der Zukunft der Mobilität forschen: Tesla, Waymo und Uber. Um diese Unternehmen anzulocken, hat Arizona seine Straßen für Versuchsfahrten freigegeben – sie dürfen dort auch ohne Kontrollperson fahren.

Der Volvo war ein Testwagen von Uber. Nach ersten Erkenntnissen der Polizei war eine Kontrollperson an Bord, die bei Fehlern der Software eingreifen sollte. Offenbar tat sie das jedoch nicht. Der Grund dafür ist noch unklar.

Beim letzten tödlichen Unfall guckte der Fahrer Harry Potter

Firmen und Politiker in den USA sind nach dem tödlichen Unfall alarmiert. Uber kündigte an, vorerst auf autonome Testfahrten zu verzichten. Kalifornien hatte laut Times geplant, im April Testfahrten ohne Mensch an Bord freizugeben. Nun will der Staat diese Entscheidung überdenken.

Die Schuldfrage: Sollte es zu einem Prozess kommen, könnte das Ergebnis richtungsweisend für autonomes Fahren sein

Der Todesfall in Arizona ist nicht der erste Vorfall mit selbstfahrenden Autos. In Florida war 2016 ein Testfahrer in einem Tesla gestorben, weil das Auto in einen weißen LKW gerast war, den der Sensor des Autos vor bewölktem Himmel nicht als Hindernis erkannt hatte. Anschließend verlor die Tesla-Aktie zwei Prozent.

Ein Diskussion über Ethik, Recht und Schuld beim autonomen Fahren begann: Wer ist verantwortlich für den Unfall? Der Hersteller? Die Kontrollperson im Auto?

Letztlich kam die Verkehrsbehörde National Transportation Safety Board zu dem Schluss, dass Tesla keinen Fehler gemacht habe. Der Fahrer habe offenbar die Hände nicht am Lenkrad gehabt und einen Harry-Potter-Film geguckt – obwohl er sich verpflichtet hatte, auf die Straße zu blicken und steuerbereit zu sein. Die Aktie hatte sich da schon längst erholt.

Durch den Unfall in Arizona poppen wieder Diskussionen über Schuld und Verantwortung auf. Nach ersten Berichten sei der Unfall unvermeidbar gewesen, weil Herzberg angeblich unvermittelt aus dem Schatten auf die Straße getreten sein soll. Noch müssen die US-Behörden den Unfall genau untersuchen, bevor sich Aussagen über die konkrete Verantwortung beantworten lassen. Sollte es zu einem Prozess kommen, könnte das Ergebnis richtungsweisend sein: In den USA funktioniert das Rechtssystem auf dem Prinzip des Case Law – es leitet Entscheidungen nicht von abstrakten Grundsätzen, sondern von Präzedenzfällen ab.

Nach welchen Grundsätzen soll die Software entscheiden, wer stirbt?

Experten sind sich grundsätzlich einig, dass selbstfahrende Autos auf die Dauer sicherer als menschengesteuerte sind: Menschen neigen dazu, abgelenkt zu werden – Sensoren nicht.

Doch die Software könnte mit ethischen Fragen konfrontiert werden, an denen sich Philosophen und Psychologen in ähnlicher Form seit mindestens hundert Jahren abarbeiten. Nehmen wir etwa den Fall, dass von links ein Fußgänger und von rechts fünf Fußgänger auf die Straße rennen und das Auto keine Chance erkennt, allen Fußgängern auszuweichen oder rechtzeitig zu bremsen. In diesem Szenario sind Schwerverletzte unvermeidlich – die Frage ist nur, wen es trifft. Menschliche Fahrer können in solchen Situationen kaum reflektiert entscheiden, weil zu wenig Zeit dafür ist.

Weiche umlegen oder nicht? Forscher nutzen das Trolley-Problem seit mehr als hundert Jahren. (Grafik: McGeddon | Wikipedia | CC BY-SA 4.0)

Ein autonomes Fahrzeug könnte die möglichen Folgen in einem Sekundenbruchteil berechnen und reagieren. Wessen Verletzungen, wessen Tod soll es in Kauf nehmen? Soll es in einen Pfeiler fahren und den Fahrer opfern, wenn es das Leben mehrerer Fußgänger retten kann? Soll es den Kurs auf der rechten Straßenseite halten, weil das den Verkehrsregeln entspricht? Oder soll es möglichst viele Fußgänger retten ohne den Fahrer zu gefährden, der schließlich der Kunde des Unternehmens ist?

Dahinter steht die Frage: Wer entscheidet das eigentlich? Die Programmierer? Wenn ja: Nach welchen Kriterien oder ethischen Denkschulen? Sie laden so oder so Schuld auf sich: Für das Dilemma gibt es keinen perfekten Ausweg, sonst wäre es kein Dilemma.