Autonome FahrzeugeAlgorithmus soll über Leben und Tod entscheiden
Wie entscheidet der Autopilot in einer Unfallsituation: Rast er nach links in eine Gruppe von Rentnern rein, nach rechts und rammt einen Kinderwagen oder geradeaus gegen die Wand und opfert die Insassen des Autos?
Das nächste Level in der Automobilindustrie ist die Entwicklung von fahrerlosen Fahrzeugen, die straßentauglich sind. Dann können wir genauso entspannt wie im Zug oder im Flugzeug reisen und dabei individuell unsere Route bestimmen. Arbeiten, essen oder entspannen - alles ist möglich, wenn der Autopilot das Gefährt steuert.
Diese Vision klingt verlockend, wurde jetzt aber von einem Autounfall mit einem selbstfahrenden Tesla getrübt. Der Mann, der mit dem Auto fuhr, hatte auf Autopilot geschaltet, die Kameras des Wagens erkannten die weiße Flanke eines Sattelzugs nicht, weil der Kontrast zum Himmel wohl nicht stark genug war. Es kam zu einer Kollision, bei der der Fahrer des Tesla tödlich verletzt wurde. Über diesen Todesfall hatten wir bereits berichtet.
"What the authors forget to take into account is the larger system of rules we have surrounding driving, road pace and where pedestrians should be."
Moralisches Dilemma: Wer darf den Unfall überleben
Die Frage, wer bei einem Unfall geopfert wird, ob Fußgänger oder Fahrer, soll mithilfe eines Algorithmus entschieden werden. Allerdings zeigen Umfragen zu Studienzwecken, dass solche Entscheidungen sehr subjektiv sein können. Befragte, die in einem Fall den Fahrer des Wagens geopfert hätten, wollten dies nicht tun, wenn es sich dabei um sie selbst oder um einen Verwandten handeln würde. Nur eine klare Gesetzeslage würde das Dilemma lösen können.
"The authors present these problems where suddenly there are five, ten, fifteen people on the street and then making their claim that it is perfectly reasonable to say we should save those ten people and sacrifice even one person in the car."
Entwickler sind schon dabei, Algorithmen zu entwickeln, die in autonomen Fahrzeugen eingesetzt werden sollen. Aber eine allgemeingültige Regelung gibt es noch nicht. Die Firma Nvidia hat ein Steuerungssystem für ein selbstfahrendes Auto entwickelt. Die Geschäftsführer der Firma sehen die Verantwortung für den Algorithmus, der bei einem Unfall zum Tragen kommt, beim Autohersteller. Allerdings ist nicht zu erwarten, dass Autohersteller individuell darüber entscheiden können, wie der Algorithmus eingestellt wird, wahrscheinlicher ist, dass dafür eine rechtliche Grundlage entwickelt wird.
"We are not selling a black box, we are selling a platform for them to build their application on it, and I think different automakers will differentiate themselves based on their software."