Autonomes Fahren

Wie treffen Autos Entscheidungen?

Ein Mann sitzt in einem Tesla Model S auf dem Fahrersitz vor einem Showroom des Autoherstellers.
Das Tesla Model S. © dpa-Bildfunk / Sven Hoppe
Von Piotr Heller  · 11.08.2016
Der Elektroautobauer Tesla hat seit einigen Monaten etwas im Angebot, das der Konzern als "Autopiloten" bezeichnet. Ein System, das das Auto selbstständig fahren lässt. Doch wie Entscheiden die Maschinen überhaupt? Und wie kann man diese Entscheidungen verbessern?
Würden Sie sich ein Auto kaufen, das darauf programmiert ist, Sie umzubringen? Ein Forscherteam hat einigen Testpersonen ungefähr diese Frage gestellt. Sie mag absurd klingen, aber sie zeigt, wie weitreichend die Folgen sein können, wenn man eine Maschine Entscheidungen treffen lässt. Ein autonomes Auto muss ständig Entscheidungen treffen, mehrmals pro Sekunde. Das fängt bei ganz profanen Dingen an.
"Will hier eine dreispurige Autobahn aufmalen, soweit mir das meine künstlerischen Fähigkeiten ermöglichen ... Ich komme hier auf der rechten Spur an. Das ist hier dieser Kasten. Und ich bin mit 120 unterwegs, der Lkw vor mit 80 und ich laufe langsam auf den Lkw auf."
Oliver Folcher vom Autozulieferer Continental bringt Autos das selbstständige Fahren bei. Er malt die Szene an eine Tafel. Das Auto hat den Lkw mit seinen Sensoren erkannt. Nun analysiert es:
"Was ist günstiger für mich? Möchte ich hinter dem Lkw bleiben oder den Fahrstreifen wechseln? Und das hängt davon ab, was man als Ziel gegeben hat. Dann würde das Fahrzeug, wenn die Entscheidung für den Fahrstreifenwechsel fällt, anfangen den zu planen."

Ständig berechnen und auf andere Autos achten

Das ist kompliziert: Mit welchem Manöver kommt das Auto vorbei? Wie stark muss es lenken? Muss es beschleunigen? An welcher Stelle fängt es an zu lenken? Das berechnet das Auto jedes Mal neu. Und es muss auch noch auf die anderen Autos achten. Und vorhersagen, wie die sich verhalten werden.
"Da wird dieses Manöver komplex. Nicht so sehr, weil das Fahren auf den Nachbar Fahrstreifen schwierig ist, sondern weil ich sicher sein muss, ich kein anderes Fahrzeug gefährde. Das ist eine Herausforderung an die Sensorik."
Auf seine Sensoren muss sich das Auto verlassen können. Üblich sind heutzutage Kamera und Radar. Daneben gibt es ein sogenanntes Lidar – ein Gerät, das Abstände mithilfe von Licht misst.
"Im einfachsten Fall kommen alle drei zum gleichen Ergebnis. Dann sieht eine Kamera ein Objekt, das Radar sieht das Objekt, und das Lidar könnte das Gleiche. Das ist der gute Fall. Dann gibt es sogenannte pathologische Fälle."
Erklärt Hermann Winner, der an der TU Darmstadt an autonomen Autos forscht. Die pathologischen Fälle sind ein Problem:
"Ein Beispiel ist die Tunneleinfahrt. In der Tunneleinfahrt begegnet das Radar plötzlich armiertem Beton, da ist viel Stahl versteckt. Wenn jetzt am Tunneleingang ein Auto steht, kann man es vom armierten Beton nicht unterschieden. Dann ist das im Schatten – für eine Kamera kaum zu sehen."
In diesem Fall würde nur das Lidar funktionieren. Hier wird eine weitere Entscheidung des Autos deutlich: Es muss wissen, welchen Sensoren es wann vertraut. Dazu liefern die Sensoren auch Informationen zur Qualität ihrer Messungen. Wie müssen sich die Entscheidungen der autonomen Autos der Zukunft verbessern?
"In der Wahrnehmung muss noch vieles gemacht werden. Als Beispiel: Ein Fußgänger, der auf einer Lkw-Rückseite abgebildet ist: Bildmäßig sieht er nach einem Fußgänger aus, also heißt es da besondere Achtung zu haben. Das muss jetzt verstanden werden, dass diese Fußgänger-Silhouette nicht wirklich ein Fußgänger ist. Dieses Situationsverstehen ist die Hauptarbeit, die wir leisten müssen. Und erst, wenn wir das verstanden haben, kommt die Kognition: Das Verstehen, welche Handlung die richtige wäre."
Bei heutigen automatisierten Autos folgt dieses Verstehen, welche Handlung die richtige wäre, klar definierten Regeln. In klar definierten Umgebungen, wie etwa der Autobahn, reicht das aus. Ein Ansatz in der Zukunft könnte sein, den Autos die Regeln nicht einzuprogrammieren, sondern sie beim Fahren und anhand alter Daten auch selbst lernen zu lassen. Doch noch ist man nicht so weit.
"Das Problem ist, dass Lernalgorithmen zwar sehr leistungsfähig sind, aber nicht nachvollziehbar machen, wie Entscheidungen getroffen werden. Und Roboter mit Eigenleben sind in der Gesellschaft nicht wirklich akzeptiert."

Maschinen werden über Leben und Tod entscheiden

Gesellschaftliche Akzeptanz ist ein wichtiger Punkt bei den Entscheidungen autonomer Autos. Denn die Maschinen werden auch über Leben und Tod entscheiden müssen. Womit wir wieder bei der Frage vom Anfang wären. Jean-François Bonnefon von der Toulouse School of Economics ist einer der Forscher, der sie gestellt hat.
"Ein typisches Beispiel: Ein autonomes Auto befindet sich in einer Situation, in der ein tödlicher Unfall unvermeidlich ist. Es kann nur noch eine Entscheidung über die Anzahl der Opfer treffen."
Konkret könnte das bedeuten, dass ein Kind plötzlich auf die Straße springt. Das Auto könnte das Kind umfahren oder ausweichen und einen Erwachsenen erwischen oder in den Gegenverkehr lenken und damit den Insassen gefährden. Auch wenn diese Situation extrem unwahrscheinlich ist: Irgendwann wird man sich überlegen müssen, wie das Auto in solchen Fällen entscheiden sollte. So wie das Auto Strategien zum Überholen hat, muss es auch eine Strategie für Unfälle haben. Was hat die Befragung ergeben?
"Einerseits haben uns die Leute gesagt, dass das Auto die Anzahl potentieller Opfer minimieren muss – selbst wenn es dafür den Insassen opfert."
Eine bemerkenswerte Antwort. Denn das wäre gerade ein Auto, das – wohlgemerkt in einem sehr unwahrscheinlichen Fall – darauf programmiert ist, seine Insassen zu töten. Doch die Befragten blieben nicht bei ihrer Meinung:
"Wir hatten große Übereinstimmungen und die Leute wollten, dass andere Menschen solche Autos fahren. Doch dann haben wir sie gefragt: Würden Sie so ein Auto, das Sie opfert, um andere zu retten, für sich kaufen? Das wollten die Befragten eher nicht."
Das ist ein soziales Dilemma mit weitreichenden Folgen. Es geht hier nicht um eine kleine Detailfrage. Es geht darum, ob autonome Autos in der Gesellschaft akzeptiert werden. Denn, wenn jeder ein Auto will, das nur ihn schützt und andere nicht, wird das nicht funktionieren.
Die Ingenieure müssen also nicht nur dem Auto beibringen, Entscheidungen zu treffen. Sie müssen diese Entscheidungen auch erklären, und für deren Akzeptanz werben.
Mehr zum Thema