Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden
Suche

Donnerstag, 21. März 2019

Verkehr

„Auf Roboter Rücksicht nehmen“

Von Christiane Schulzki-Haddouti | 26. April 2018 | Ausgabe 17

Der Ulmer Forscher Klaus Dietmayer über Infrastruktur, die mit automatisierten Fahrzeugen kooperiert, um Unfälle mit Menschen zu vermeiden, und den Umgang mit den Roboterautos.

4_5_Meinung (4)
Foto: Heiko Grandel/Uni Ulm

Garagencheck: Ein Ingenieur testet noch einmal vor der Fahrt mit dem automatisierten Fahrzeug die Ausgabe der sensorbasierten Daten auf dem Bildschirm. Kurz danach gehts ab zum Praxistest – zu einer Versuchskreuzung in Ulm, auf der die Universität das Zusammenspiel von Fußgängern, Radfahrern und Auto erprobt.

VDI nachrichten: Werden sich die Fußgänger an die autonomen Fahrzeuge gewöhnen und sie anders behandeln?

Foto: SNV

Dietmayer: Kulturell kann es zu einem Riesenproblem werden, wenn sich Leute an das defensive Fahren der autonomen Fahrzeuge gewöhnen und sie ausbremsen, indem sie bewusst vor das Fahrzeug laufen. Ein solches Verhalten konnte man ja schon beobachten. Entsprechend müssen wir lernen, dass wir auch auf Roboter Rücksicht nehmen, sonst kann das Ganze nicht funktionieren.

Klaus Dietmayer

Wie kann ein automatisiertes System Fußgänger und Radfahrer erkennen?

Die semantische Bedeutung eines erkannten Objekts, also die Frage, ob es sich um eine Person handelt, kann man nur mit Kameradaten festmachen. Die Erkennungsleistung ist in den letzten Jahren mit maschinellen Lernverfahren unter Nutzung tiefer neuronaler Netze dramatisch gewachsen. Inzwischen kann man damit allen Bildpunkten eines Kamerabildes automatisiert Klassenzugehörigkeiten von zurzeit typisch zehn bis 15 unterschiedlichen Elementen zuordnen, zum Beispiel, ob sie zu einer Person, einem Fahrzeug, einem Baum oder Schild gehören oder beispielsweise zur Straße.

Wie gut funktioniert die Erkennung inzwischen?

Das funktioniert inzwischen relativ zuverlässig, aber natürlich nicht zu 100 %. Diese Methoden helfen natürlich einer Fahrzeugautomatisierung, die Welt zu „verstehen“. Wir diskutieren im Moment aber auch, ob ein sich bewegendes Objekt überhaupt so genau beispielsweise als Kind, Radfahrer oder Fußgänger klassifiziert werden muss oder ob es genügt zu wissen, dass irgendeine Person querkommt.

Inwieweit kann es wichtig sein, zu wissen, um welches Objekt es sich handelt?

Gemäß Rechtsprechung kann sich beispielsweise eine Teilschuld ergeben, wenn man für ein Kleintier eine Vollbremsung macht und dadurch Auffahrunfälle entstehen. Bei einem Menschen ist das natürlich anders. Hinsichtlich automatisierter Fahrzeuge wird ja auch häufig diskutiert, ob und wie solche Fahrzeuge automatisch in Gefahrensituationen Entscheidungen treffen dürfen.

An was orientieren Sie sich bei der Programmierung?

Die Fahrzeuge müssen so programmiert werden, dass sie sich regelkonform verhalten, um nicht in Dilemmasituationen zu kommen. Dennoch können durch Fehlverhalten anderer Verkehrsteilnehmer gefährliche Situationen entstehen. Aber für mich ist klar, dass ein automatisiertes Fahrzeug seine Insassen nicht gefährden darf. Das Fahrzeug muss beispielsweise nicht den Abhang herunterfahren, um nicht in eine Personengruppe zu fahren. Auch müssen diejenigen, die sich wie das automatisierte Fahrzeug regelkonform verhalten, gegenüber denen, die sich nicht regelkonform verhalten, geschützt werden. Das Fahrzeug darf beispielsweise nicht auf den Gehsteig fahren, um Personen auszuweichen, die unvermittelt auf die Straße gelaufen sind.

Wie gut ist die Erkennung inzwischen, wenn sie alle verfügbaren Kameras und Sensoren kombinieren?

Wir kommen inzwischen mit Kameras auf Erkennungsleistungen deutlich über 95 %. Dies hängt aber stark von den Witterungsbedingungen, Beleuchtungsverhältnissen wie Tag oder Nacht und auch von der Objektentfernung ab. Diese Erkennungsleistung genügt für Sicherheitssysteme noch nicht, weshalb man sich allein darauf noch nicht verlassen kann. Man verwendet daher zusätzlich Radar- und Lasersensorik, auch um Entfernung und Geschwindigkeit exakter bestimmen und verifizieren zu können. Dann kommen wir auf nahezu 100 %.

Bei den tödlichen Unfällen von Uber, aber auch bei Tesla gab es einen unaufmerksamen Fahrer. Entsteht die Unfallgefahr nicht auch dadurch, dass sich der Fahrer zwangsläufig an ein relativ perfekt arbeitendes Erkennungssystem gewöhnt und dann im richtigen Moment nicht mehr präsent ist?

Es ist für den Testfahrer sicher eine schwierige Situation, wenn das System zu nahezu 100 % funktioniert und die Person zugleich zum Aufpassen gezwungen ist. Die heutigen Seriensysteme verlangen deshalb, dass man regelmäßig das Lenkrad anfasst oder etwas tut, damit das System ein Feedback bekommt. Unterbleibt dies trotz Warnung des Fahrzeugs, lösen es einige Hersteller so, dass das Fahrzeug auf der Straße ausrollt und mit eingeschalteter Warnblinkanlage stehen bleibt.

Was halten Sie von dem Ansatz, Fußgänger mit aktiven Transpondern oder per Smartphone-Apps zu lokalisieren, um deren Standorte in das Navigationssystem des Fahrzeugs einzuspeisen und so Unfälle zu vermeiden?

Diesen Ansatz halte ich nicht für zielführend. Es hört sich zunächst großartig an, doch was passiert, wenn man sich darauf verlässt, der Transponder oder das Handy aber zufällig nicht dabei ist, gerade ausgeschaltet ist oder Sie für einen Moment keine Funkverbindung haben? Und was ist mit den Kindern, die das nicht haben?

Sie bevorzugen nicht das Sich-zu-erkennen-Geben, sondern das Erkennen?

Ich halte mehr davon, wenn man sich auf die Personenerkennung konzentriert. Alle funkbasierten Systeme sind für Sicherheitsfunktionen nicht geeignet, weil sie einfacher von außen störbar sind, sei es mutwillig oder zufällig. Sicherheitsrelevante Funktionen können nicht auf Funkkanälen aufbauen, da deren Funktionieren nicht 100 %ig sichergestellt werden kann. Solche Systeme sind also gut als Ergänzung, aber am Ende muss eine Basisfunktionalität gegeben sein, die nicht auf Mobil- oder Funkkommunikation basiert.

Wie lokal können und müssen Sensordaten bei Car-to-X verarbeitet werden? Müssen sie in die Cloud?

Die Cloud ist für viele Funktionen zu langsam. Im Moment erleben wir einen Trend zu Mobile Edge Computing, sogenannte MEC-Server. Die Idee ist, dass Rechner in derselben Funkzelle wie die Basisstationen die Fahrzeuge bedienen, womit man Infrastrukturdaten ohne große Latenzzeiten verarbeitet und wieder an die Fahrzeuge zurückverteilt. In unserem Forschungsprojekt MEC-View werden komplexe Kreuzungen mit zusätzlichen Infrastrukturdaten ausgestattet, um den Verkehr zu erkennen und die aktuellste Verkehrslage inklusive der Fußgänger und Radfahrer an herannahende Fahrzeuge zu senden. Damit können natürlich auch zunächst aus Fahrersicht verdeckte Personen erkannt werden.

Wie testen Sie das?

Wir unterhalten in Ulm dazu seit über einem Jahr eine Versuchskreuzung, gerade etablieren wir da die Datenverarbeitung mit Objekterkennung. Wir testen mit automatisierten Fahrzeugen etwa das Einfädeln in eine Lücke. Die Erkennung geht hier nur über Infrastruktursensorik wie Kameras oder Lasersensorik, die an der Kreuzung z. B. in Straßenlaternen eingebaut sind.