Seit 06:05 Uhr Studio 9
 
  • facebook
  •  
  • twitter
  •  
  • instagram
  •  
  • spotify
 
Seit 06:05 Uhr Studio 9
 
 

Interview / Archiv | Beitrag vom 12.04.2016

Autonome PKWWas Autos noch alles lernen müssen

Oliver Bendel im Gespräch mit Nana Brink

Podcast abonnieren
Das Google Car: ein selbstfahrendes Auto im Test. (picture alliance / dpa / Google Handout)
Das Google Car: ein selbstfahrendes Auto im Test. (picture alliance / dpa / Google Handout)

Das komplett computergesteuerte Auto ist immer noch Zukunftsmusik - auch wenn PKW auf langen, geraden Strecken schon teilweise selbständig navigieren und überholen können. Warum das im Stadtverkehr noch nicht funktioniert, erklärt der Maschinenethiker Oliver Bendel.

Was haben uns die Ingenieure vor einigen Jahren nicht alles versprochen: Der Verkehr der Zukunft ist autonom! Stressfreies Fahren auf der Autobahn, entspanntes Zurücklehnen im dicken Stadtverkehr - denn das Auto wird in allen Situationen vom Computer gesteuert. Leider wird das noch eine Weile auf sich warten lassen. Denn die Ingenieure und Informatiker haben noch einige harte Nüsse zu knacken: Für den Stadtverkehr sind autonome Fahrsysteme bislang nicht geeignet.

Auf Autobahnen funktioniert es

Tatsächlich ist der autonome PKW keine abwegige Science Fiction mehr. Auf langen, geraden Strecken - Autobahn oder Landstraßen beispielsweise - ist das computergesteuerte Fahren schon möglich, auch Überholen können die Systeme, die es schon gibt. Oliver Bendel, Maschinenethiker und Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz, kennt sich damit aus, denn er hat Autos mit Fahrassistenz schon getestet. Deshalb sagt er einschränkend: 

"In Städten verhält es sich komplett anders. Wir haben in Städten in jeder Situation Hunderte, vielleicht Tausende Objekte. Manche sind bewegt. Wir haben Lichtreflexe, wir haben vielleicht Nebel, wir haben Lichtsignale, wir haben vielleicht Handzeichen von Menschen, die über einen Zebrastreifen wollen oder auch nicht wollen."

Wenn PKW in schlechte Gesellschaft geraten

Die Fahrzeugsysteme müssten zunächst eine Fülle von Regeln und Situationen "lernen", um Fahrer und Beifahrer sicher durch den Verkehr zu navigieren - Ampeln und Verkehrsschilder sind dabei wohl nur die Spitze des Eisbergs.

Es bräuchte also eine Art Fahrlehrer. Grundsätzlich sei das "selbstlernende Fahren", bei dem das System sich Situationen "merkt" und abspeichert, kein Problem, sagt Bendel. Allerdings könnten solche Systeme unter Umständen gehackt oder sonstwie manipuliert werden. Schwierig werde es, wenn das Auto in "schlechte Gesellschaft" gerate: Wenn etwa ein Verkehrsrowdy, der immer bei Rot über die Ampel fahre, das Auto falsch "anlerne", werde dessen Verhalten unberechenbar und gefährlich für den Fahrer und andere Verkehrsteilnehmer.

Ähnliches sei mit Chatbots - Sprachassistenten, die zum Beispiel auf Smartphones oder Websites für den Dialog mit Kunden eingesetzt werden - geschehen: Diese seien in falsche Hände geraten und hätten plötzlich wie Rassisten mit den Usern kommuniziert. Keine schöne Vorstellung.


Nana Brink: So ist das, wenn man im pilotierten Modus fährt - wieder ein neues Wort, was wir gelernt haben –, also in einem Auto mit Autopilot. So ganz Zukunftsmusik, wie wir gerade gehört haben, ist das nämlich gar nicht, denn viele Autos der Oberklasse haben schon sogenannte Assistenzsysteme, die beim Spurhalten helfen oder den toten Winkel überblicken. Das Thema Autopilot, überhaupt selbstfahrende Autos, ist ganz großes Thema auf der in Leipzig beginnenden Messe New Mobility. Heute beginnt sie.

Eines von vielen natürlich, aber wir beschäftigen uns jetzt genau damit. Worüber sollten wir eigentlich nachdenken, bevor wir uns in ein Auto setzen, das einfach davon fährt? Oliver Bendel ist Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz, und er nennt sich selbst Maschinenethiker und programmiert Autos unabhängig von der Autoindustrie. Schönen guten Morgen, Herr Bendel!

Oliver Bendel: Guten Morgen, Frau Brink!

Brink: Sie kennen also diesen Thrill, den wir gerade gehört haben. Sie sind selber schon mal im Auto gesessen, das an eine Wand, na, nicht gerast, aber fast gerast ist?

Bendel: Zum Glück nicht auf die Wand gerast. Ich habe neulich einen Autopiloten testen können, und ich war ähnlich begeistert, wie der Beifahrer - muss man ja fast sagen –, den wir gerade gehört haben. Ich glaube, ich habe auch gejuchzt und die Arme hochgehoben und so weiter. Vielleicht das Hochspannende ist nicht nur das Spurhalten, sondern auch das Überholen, das selbstständige. Das Auto beobachtet die Fahrbahn links, und sobald sich eine Lücke ergibt, fährt das Auto sehr, sehr sanft rüber.

Brink: Wie realistisch sind denn diese Szenarien eigentlich, wie weit ist die Forschung?

Bendel: Die Forschung ist sehr, sehr weit. Ich glaube, man sollte unterscheiden zwischen Fahrten, die zwischen Städten stattfinden und zwischen Fahrten, die in Städten stattfinden. Da besteht ein großer Unterschied. Ich halte es für absolut realistisch, dass wir einen weitgehend oder zum Teil autonomen Verkehr haben in wenigen Jahren, vielleicht in fünf, sechs, sieben Jahren, aber ich denke, es ist keine gute Idee, wenn wir die Autos in Städten fahren lassen. Es ist eine gute Idee, denke ich, wenn wir sie zwischen Städten fahren lassen.

Brink: Also auf der Autobahn, wo man dann den Autopiloten einschaltet, der eine bestimmte Geschwindigkeit hat. Das hat man heute alles auch schon. Sie machen jetzt diesen Unterschied zwischen auf der Autobahn fahren oder über Land fahren, in der Stadt fahren - worüber sollten wir denn da nachdenken, wenn wir uns in so ein Auto setzen und in der Stadt dann fahren oder uns fahren lassen?

Bendel: Sie haben Fahrerassistenzsysteme erwähnt, die verbauen wir schon lange in Autos. Wir haben viel Erfahrung mit diesen Fahrerassistenzsystemen, Sie haben Notbremsenassistenten, Bremsassistenten und den Spurhalteautomaten. Nicht alles ist autonom. Manches ist automatisch, so könnte man noch weiter präzisieren. Wir haben sehr viel Erfahrung mit solchen Fahrten, die assistiert sind.

Die Assistenzsysteme funktionieren vor allem sehr, sehr gut, wenn wir ganz normale Strecken fahren, wenn wir lange gerade Strecken fahren. Sie funktionieren sogar noch gut, wenn wir überholen. Überholvorgänge sind kein Problem für das Auto, es sei denn, jemand kommt mit sehr, sehr hoher Geschwindigkeit von hinten angeschossen. Damit hat das Auto Probleme, damit hat aber auch der Mensch ein Problem.

Jetzt unterscheide ich die zwei Situationen, ich glaube, autonomer Verkehr auf Autobahnen oder sogar auf Extraspuren oder sogar mit bestimmten Geschwindigkeiten - es ist kein Problem, ist vielleicht jetzt schon kein Problem. In Städten verhält es sich komplett anders: Wir haben in Städten in jeder Situation hunderte, vielleicht tausende Objekte, manche sind bewegt. Wir haben Lichtreflexe, wir haben vielleicht Nebel, wir haben Lichtsignale, wir haben vielleicht Handzeichen von Menschen, die über einen Zebrastreifen wollen oder auch nicht wollen. Hier besteht zum Beispiel ein Unterschied zwischen Deutschland und Schweiz. Wenn in Deutschland jemand am Zebrastreifen steht und winkt, dann meint er oder sie vielleicht damit fahr' weiter. In der Schweiz haben wir den Schweizer Wink, dort könnte es genau das Gegenteil bedeuten, nämlich halte an.

Brink: Also was bedeutet das - das heißt, wir können eigentlich oder man kann eine Maschine nicht so programmieren in einem Auto, dass es auf solche Situationen eingestellt ist. Also da muss es der Mensch sein.

Bendel: Es ist zumindest sehr, sehr schwierig. Genau, wenn wir starr programmieren …

Brink: Das heißt, wir haben auch nix davon.

Bendel: Wenn wir das Auto starr programmieren, dann müssten wir Millionen von Fällen vorsehen, das ist das eine. Und das andere ist, dass das Auto trotzdem bestimmte Fälle nicht wird beurteilen können. Es kann bestimmte Dinge nicht beurteilen. Noch schlimmer, wir können Autos einerseits hacken, andererseits können wir Autos auch täuschen. Wir können dem Auto vorspiegeln, dort sei etwas oder dort sei etwas nicht, und das ist fatal für die Entscheidung des Autos. Insgesamt würde ich sagen, die Stadt ist einfach im Moment zu komplex, es sei denn, wir fahren wie im Wallis, das wird gerade erprobt mit …

Brink: Also in dem Schweizer Kanton.

Bendel: Genau. Wir fahren dort nur mit 10 bis 20 Kilometer in der Stunde. Das funktioniert schon.

"Da hat dann niemand Spaß dabei"

Brink: Aber in Deutschland wahrscheinlich nicht, würde ich mal vermuten!

Bendel: Da hat dann niemand Spaß dabei, genau! Aber es sind sehr kleine Städtchen und Dörfchen, und bei diesem Shuttle geht es natürlich darum, Leute sicher von A nach B zu bringen über mehrere hundert Meter oder über zwei Kilometer. Das funktioniert schon, aber nochmals: Die Städte sind zu komplex, und das werden sie in den nächsten fünf bis zehn Jahren auch bleiben.

Brink: Das heißt, brauchen wir dann sowas wie einen Fahrlehrer für autonome Autos, also für Städte, muss man daran arbeiten oder wird daran gearbeitet?

Bendel: Das ist eine sehr schöne Idee. Genau. Jetzt wäre die Möglichkeit, das Auto nicht starr zu programmieren, sondern es für offene Welten zu konzipieren, insofern man es als selbstlernendes Auto konzipiert. Das kann man machen. Dann lernt das Auto dazu, es leitet eigene Regeln ab, es beurteilt Situationen und zieht Schlüsse, es bildet vielleicht für seine Datenbank neue Fälle. Nur, und Sie sprechen den Fahrlehrer an, dabei könnte ein neues Problem entstehen: Wir hatten neulich den Fall von Microsoft "Tay" - der Chatbot kam in schlechte Gesellschaft und war am Ende …

Brink: Was ist der Chatbot - müssen wir noch mal kurz erklären.

Bendel: Ein Chatbot ist eine Maschine - in diesem Falle war es in Wirklichkeit etwas zwischen Chatbot und Sprachassistent -, wir kennen Chatbots wie einer von Ikea, die auf der Website beraten über Produkte, oder wir kennen Sprachassistenten wie Siri oder Cortana auf dem Smartphone. Es sind natürlich sprachliche Systeme, die Rede und Antwort stehen, und neulich hat man einen selbstlernenden Chatbot oder einen Sprachassistenten losgelassen auf die Menschen.

Der Chatbot kam in die falsche Gesellschaft und war am Ende des Tages Rassist. Das Gleiche kann für das Auto passieren. Wenn wir selbstständig lernende Autos haben, dann könnte es sein, dass sie in die falsche Gesellschaft geraten, dass sie meinetwegen in Gegenden kommen, wo es halt den Leuten Spaß macht, bei Rot über die Ampel zu fahren. Dann lernt das Auto, denkt sich, ah, hier fahren alle bei Rot über die Ampel, das ist gut, das mach ich auch so. Sie sprechen den Fahrlehrer an: Jetzt käme der Fahrlehrer ins Spiel.

Das kann man machen, man kann Autos so lernen lassen, aber es wäre eine gute Idee, wenn dann jemand dabei wäre, der sagt, schau mal, dort ist jemand bei Rot über die Ampel gefahren, mach das nicht. Also ähnlich wie an der Ampel, wenn jemand über die rote Ampel geht, und die Eltern können ihrem Kind sagen, schau mal, Kind, das ist ein Beispiel und zwar ein schlechtes.

Brink: Also, es ist doch noch ein bisschen Zukunftsmusik. Auf der Autobahn, haben wir gelernt, würde das schneller gehen, alleine auf der Überholspur. In der Stadt ist es etwas komplizierter mit dem Autopiloten. Vielen Dank! Oliver Bendel hat uns Auskunft gegeben, der Maschinenethiker aus der Nordwestschweiz. Danke für das Gespräch!

Bendel: Gerne, tschüss!

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Mehr zum Thema

Wenn das Gaspedal mitdenkt
(Deutschlandradio Kultur, Radiodfeuilleton, 23.09.2012)

Verkehr - Wenn der Computer Auto fährt
(DRadio Wissen, Medien, 22.03.2012)

Wenn der Computer Auto fährt
(Deutschlandradio Kultur, Elektronische Welten, 20.03.2012)

Sichere Frachter der Landstraße
(Deutschlandfunk, Forschung aktuell, 30.09.2008)

Der unsichtbare Beifahrer
(Deutschlandradio Kultur, Elektronische Welten, 10.09.2008)

Viele große Brüder
(Deutschlandfunk, Computer und Kommunikation, 14.10.2006)

Interview

weitere Beiträge

Das könnte sie auch interessieren

Entdecken Sie Deutschlandfunk Kultur