Autonomes Fahren realistischer simulieren

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Autonomes Fahren realistischer simulieren

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Eine realistischere Simulation soll die Sicherheit von selbstfahrenden Autos vor den Test auf der Straße verbessern. Das datenbasierte Verfahren kombiniert Fotos, Videos, tatsächliche Bewegungsabläufe und Verhaltensdaten.

umd_196638_web

Eine realistischere Simulation soll die Sicherheit von selbstfahrenden Autos vor den Test auf der Straße verbessern. Das datenbasierte Verfahren kombiniert Fotos, Videos, tatsächliche Bewegungsabläufe und Verhaltensdaten.

Wissenschaftler der University of Maryland, von Baidu Research und der University of Hong Kong haben ein datenbasiertes Simulationsverfahren vorgestellt, das Fotos, Videos, tatsächliche Bewegungsabläufe und Verhaltensdaten in einer skalierbaren, realistischen Form aufbereitet.

Dinesh Manocha von der University of Maryland hat gemeinsam mit Forschern von Baidu Research und der University of Hong Kong eine fotorealistisches Simulationssystem für das Training und die Validierung autonomer Fahrzeuge entwickelt. Das Verfahren verspricht eine vielseitigere, authentischere Simulation als die derzeit eingesetzten Lösungen, die mit Game-Engines oder leistungsfähiger Computergrafik und mathematisch gerenderten Verkehrsmustern arbeiten.

Das Verfahren namens Augmented Autonomous Driving Simulation (AADS) soll es einfacher machen, selbstfahrende Systeme im Labor zu evaluieren und dabei die Sicherheit verlässlicher zu gewährleisten, bevor die teuren Straßentests beginnen. Die Wissenschaftler beschreiben das Verfahren in einem am 27. März im Journal Science Robotics erschienenen Beitrag.

Manocha, einer der Autoren und Professor am University of Maryland Institute for Advanced Computer Studies, konkretisiert: „Diese Arbeit steht für ein neues Simulationsparadigma, mit dem wir die Zuverlässigkeit und Sicherheit von Technologien für das autonome Fahren testen können, bevor wir entsprechende Lösungen an echten Fahrzeugen einsetzen und sie auf Land- oder Stadtstraßen ausprobieren.

Simulation statt Millionen Testkilometer

Mehr Sicherheit ist ein möglicher Vorteil selbstfahrender Autos gegenüber den von Menschen gesteuerten. Denn Unkonzentriertheit, Müdigkeit und emotionale Entscheidungen führen zu Fehlern. Aber autonome Fahrzeuge müssen ebenfalls die Verkehrssituation korrekt einschätzen und entsprechend darauf reagieren. Bei den unzähligen möglichen Situationen auf der Straße braucht es dafür Millionen gefahrene Testkilometer unter schwierigen Bedingungen, um die Sicherheit zu demonstrieren.

Das kann Jahre dauern, während vorläufige Einschätzungen schnell, effizient und sicherer in der Computersimulation möglich sind. Die Simulation stellt die reale Welt präzise nach und modelliert das Verhalten der umgebenden Objekte. Aktuelle Systeme für diesen Zweck bilden fotorealistische Umgebungen aber nur unzulänglich ab und geraten auch beim Darstellen des tatsächlichen Verkehrsflusses oder des Verhaltens anderer Fahrer nicht selten ins Schlingern, so die Wissenschaftler.

AADS ist dagegen eine datengetriebene Lösungen, die den vom selbstfahrenden Auto auf der Straße gewonnenen Input genauer widerspiegelt. Die Automatisierung beruht auf einem Wahrnehmungsmodul, das Informationen über die reale Welt empfängt und interpretiert, und einem Navigationsmodul, das basierend auf der Wahrnehmung Entscheidungen trifft, etwa beim Lenken, Bremsen und Beschleunigen.

Die Sinnesorgane selbstfahrender Autos sind dabei die Kameras und LiDAR-Sensoren, die mit Lichtpulsen die Entfernungen in der Umgebung vermessen. In den heute gebräuchlichen Simulationslösungen wird das Wahrnehmungsmodul mit computergenerierten Bildern und mathematisch modellierten Bewegungsmustern von Fußgängern, Fahrrädern und weiteren Fahrzeugen gefüttert. Es entsteht ein ziemlich grobes Bild der realen Welt, das sich zumal nur sehr kostspielig und aufwändig erzeugen lässt.

Das AADS-System kombiniert Fotos, Videos und LiDAR-Punktwolken mit den Wegen von Fußgängern, Fahrrädern und anderen Verkehrsmitteln. Mit diesen Trajektorien lassen sich das Fahrverhalten und die zukünftigen Positionen von anderen Fahrzeugen oder Fußgängern auf der Straße vorhersagen, um die Navigation sicherer zu machen.

„Wir rendern und simulieren die reale Welt visuell mit Videos und Fotos“, sagt Manocha. „Aber wir erfassen auch reales Verhalten und Bewegungsmuster. Wie Menschen fahren, ist durch mathematische Modelle und Gesetze der Physik nicht leicht zu erfassen. Daher haben wir Daten über reale Trajektorien aus dem uns zur  Verfügung stehenden Videomaterial extrahiert, und wir haben das Fahrverhalten mit sozialwissenschaftlichen Methoden modelliert. Das datengetriebene Konzept hat uns einen viel realistischeren und nützlicheren Verkehrssimulator ermöglicht.“

Dabei galt es eine schwierige Aufgabe beim Einsatz des Bildmaterials aus der realen Welt und der LiDAR-Daten zu meistern:  Jede Szene muss auf die Bewegung des selbstfahrenden Autos reagieren, obwohl die vielleicht nicht von der Kamera oder vom LiDAR-Sensor erfasst wurde. Jeder Winkel und Standpunkt, der sich nicht im Foto oder Video wiederfindet, muss mit Vorhersageverfahren gerendert oder simuliert werden. Das ist auch der Grund, warum die Simulationstechnologie so stark auf computergeneriertes Bildmaterial und physikbasierte Vorhersagemethoden verlässt.

Viele fotorealistische Szenarien

Daher haben die Forscher ein Verfahren entwickelt, das verschiedenen Komponenten in einer realen Straßenszene isoliert und sie als individuelle Elemente rendert. Diese Elemente lassen sich dann wieder zusammenfügen, und so entstehen viele fotorealistische Verkehrsszenarien.

AADS ermöglicht es, Fahrzeuge und Fußgänger exakt mit ihren Beleuchtungs- und Bewegungsmustern von einer Umgebung in eine andere zu transportieren. Straßen lassen sich mit unterschiedlichen Verkehrsdichten ausstatten. Zahlreiche Betrachtungsstandpunkte jeder Szene sorgen für realistischere Perspektiven bei Spurwechseln und Wendemanövern. Zusätzlich gelingen durch eine verbesserte Bildverarbeitung sanftere Übergänge und Bilder mit weniger Verzerrungen als mit anderen videobasierten Simulationsverfahren. Die entsprechenden Technologien kommen darüber hinaus zum Einsatz, um Trajektorien zu extrahieren und damit das Verhalten der Fahrer zu modellieren.

„Weil wir Videos und Bewegungen aus der echten Welt verwenden, verfügt unser Wahrnehmungsmodul über genauere Informationen als andere Verfahren“, sagt Manocha. „Und weil der Simulator so realistisch ist, können wir Navigationsstrategien eines autonom fahrenden Systems besser prüfen.“ Manocha hofft, dass einige der Technologieanbieter auf dem Gebiet des autonomen Fahren denselben datengetriebenen Ansatz einbauen, um ihre eigenen Simulatoren für Tests und Evaluierungen zu verbessern.

Literatur: „AADS: Augmented autonomous driving simulation using data-driven algorithms,“ W. Li, C. W. Pan, R. Zhang, J. P. Ren, Y. X. Ma, J. Fang, F. L. Yan, Q. C. Geng, X. Y. Huang, H. J. Gong, W. W. Xu, G. P. Wang, D. Manocha, R. G. Yang, publiziert im Journal Science Robotics, 27. März 2019.

Die Arbeit wurde unterstützt von der National Natural Science Foundation of China (Award No. 61732016).

 

Video zum Augmented Autonomous Driving Simulation (AADS): https://www.youtube.com/watch?v=OfxqXhcMH5g&feature=youtu.be

Bild: Augmented Autonomous Driving Simulation (AADS) kombiniert Fotos, Videos und LiDAR-Punktwolken für ein realistisches Rendering mit Bewegungsdaten aus der realen Welt, die für die Vorhersage des Verhaltens und der zukünftigen Position genutzt werden können. Credit: Li et. Al, 2019

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Bauwerke werden immer komplexer. Die Anforderungen an sie steigen. Eine digitale Planung wie das Building Information Modeling (BIM) hilft, alles im Griff zu behalten. Möglich wird dies durch ein koordiniertes, interdisziplinäres Teamwork aller Beteiligten an einem digitalen Modell ("Zwilling") des jeweiligen Gebäudes.

Planungs- und Bauprozesse von Immobilien werden aufgrund ihrer Komplexität, aber auch aufgrund steigender Ansprüche hinsichtlich Nachhaltigkeit, Termin- und Kostendruck immer umfangreicher. Für die Realisierung ist ein interdisziplinäres Team notwendig. Doch wenn viele Menschen an einem Projekt arbeiten, kommt es auch bei größter angewandter Sorgfalt zwangsläufig zu Fehlern und Missverständnissen. Doch das lässt sich ändern.

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: Neue Konzepte für Brückeninspektionen Mehr Sicherheit mit Drohne und digitalem Zwilling

Neue Konzepte für Brückeninspektionen

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.