Supercomputer trainiert neuronale Netze für das autonome Fahren

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Supercomputer trainiert neuronale Netze für das autonome Fahren

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Training von neuronalen Netzen: Automobilzulieferer Continental nimmt eigenen Supercomputer für die Entwicklung des autonomen Fahrens in Betrieb.
Supercomputer trainiert KI-Systeme

Quelle: Continental

  • Continental und Nvidia bauen einen auf dem Nvidia DGX KI-System basierenden Hochleistungs-Computercluster auf, der die Entwicklungsleistung im Bereich des autonomen Fahrens steigert.
  • Der neue Cluster reduziert die Entwicklungszeit von Wochen auf Stunden.
  • Hauptanwendungsfälle sind Deep Learning, Simulation und virtuelle Datenerzeugung.
  • Der Supercomputer ist laut Top 500-Liste der leistungsfähigste Rechner der Automobilindustrie.

Die Automobilindustrie ist im Wandel, und die Entwicklungszyklen werden kürzer. Um neue Technologien noch effizienter und schneller zu entwickeln, hat Continental in einen eigenen Nvidia InfiniBand-verbundenen Supercomputer für künstliche Intelligenz (KI) investiert. Dieser wird seit Anfang 2020 in einem Rechenzentrum in Frankfurt am Main betrieben und stellt Entwicklern an Standorten weltweit sowohl Rechenleistung als auch Speicherplatz zur Verfügung. KI verbessert Fahrerassistenzsysteme, macht Mobilität intelligenter sowie sicherer und beschleunigt die Entwicklung von Systemen zum autonomen Fahren.

„Der Supercomputer ist eine Investition in unsere Zukunft”, sagt Christian Schumacher, Leiter Program Management Systems in der Geschäftseinheit Fahrerassistenzsysteme bei Continental. „Das hochmoderne System reduziert die Zeit für das Training neuronaler Netze, da mindestens 14-mal mehr Experimente gleichzeitig durchgeführt werden können.”

Zusammenarbeit mit Nvidia

„Bei der Suche nach einem Partner achten wir auf zwei Dinge: Qualität und Schnelligkeit”, so Schumacher. „Das Projekt wurde mit einem ehrgeizigen Zeitplan aufgestellt und innerhalb von weniger als einem Jahr realisiert. Nach intensiven Tests und der Suche nach geeigneten Unternehmen haben wir uns für Nvidia entschieden, die viele der schnellsten Supercomputer der Welt ausrüsten.”

„Nvidia DGX-Systeme bieten Innovatoren wie Continental KI-Supercomputing in einer kosteneffizienten, unternehmensweiten Lösung, die einfach zu implementieren ist”, so Manuvir Das, Leiter des Bereichs Enterprise Computing bei Nvidia. „Durch den Einsatz des mit InfiniBand-verbundenen Nvidia DGX POD für das Training von autonomen Fahrzeugen entwickelt Continental die intelligentesten Fahrzeuge von morgen sowie der IT-Infrastruktur, die für deren Konzeption verwendet wird.”

Supercomputer: Ausgefeilte IT-Infrastrukturtechnik für KI-basierte Lösungen

Der Supercomputer von Continental besteht aus mehr als 50 Nvidia-DGX-Systemen, die mit dem Nvidia Mellanox InfiniBand-Netzwerk verbunden sind und nimmt, nach der aktuellen Liste der Top 500-Supercomputer der Welt, den Spitzenplatz in der Automobilindustrie ein. Außerdem wurde ein hybrider Ansatz gewählt, um bei Bedarf Kapazität und Speicherplatz durch Cloud-Lösungen erweitern zu können. „Der Supercomputer ist ein Meisterwerk der IT-Infrastrukturtechnik”, sagt Schumacher. „Jedes Detail wurde vom Team genau geplant – um heute die volle Leistung und Funktionalität zu gewährleisten, mit Skalierbarkeit für zukünftige Erweiterungen.”

Mit dem Nvidia-DGX-Clusters sind Deep Learning,
Simulation und virtuelle Datenerzeugung viel schneller
möglich. Bildquelle: Continental

Fortschrittliche Fahrerassistenzsysteme nutzen KI, um Entscheidungen zu treffen, den Fahrer zu unterstützen und letztlich autonom zu operieren. Umfeldsensoren wie Radar und Kamera liefern Rohdaten. Diese Rohdaten werden in Echtzeit von intelligenten Systemen verarbeitet, um ein umfassendes Modell der Fahrzeugumgebung zu erstellen und eine Strategie für die Interaktion mit der Umgebung zu entwickeln. Schließlich muss das Fahrzeug so gesteuert werden, dass es sich wie geplant verhält. Da die Systeme jedoch immer komplexer werden, stoßen die traditionellen Methoden der Softwareentwicklung und des maschinellen Lernens an ihre Grenzen. Deep Learning und Simulationen sind zu grundlegenden Methoden bei der Entwicklung von KI-basierten Lösungen geworden.

Hauptanwendungsfälle: Deep Learning, Simulation und virtuelle Datenerzeugung

Beim Deep Learning ermöglicht ein künstliches, neuronales Netz der Maschine, durch Erfahrung zu lernen und neue Informationen mit vorhandenem Wissen zu verbinden. Dabei wird im Wesentlichen der Lernprozess des menschlichen Gehirns nachgeahmt. Doch während ein Kind in der Lage ist, ein Auto zu erkennen, nachdem ihm ein paar Dutzend Bilder von verschiedenen Autotypen gezeigt wurden, sind mehrere tausend Stunden Training mit Millionen von Bildern und damit enorme Datenmengen notwendig, um ein neuronales Netz zu trainieren, das später einem Fahrer assistieren oder sogar ein Fahrzeug autonom steuern kann. Der Nvidia DGX POD verkürzt die Zeit, die für diesen komplexen Prozess benötigt wird und auch die Zeit bis zur Markteinführung neuer Technologien.

„Wir gehen davon aus, dass sich die Zeit, die für das vollständige Training eines neuronalen Netzes benötigt wird, von Wochen auf Stunden verkürzen wird”, sagt Balázs Lóránd, Leiter des KI-Kompetenzzentrum von Continental in Budapest, Ungarn, der zusammen mit seinen Teams an der Entwicklung der Infrastruktur für KI-basierte Innovationen arbeitet. „Unser Entwicklungsteam ist in den letzten Jahren zahlenmäßig gewachsen und hat an Erfahrung gewonnen. Mit dem Supercomputer sind wir jetzt in der Lage, die Rechenleistung noch besser nach unseren Bedürfnissen zu skalieren und das volle Potenzial unserer Entwickler auszuschöpfen.”

Simulation: Mit dem Supercomputer Daten synthetisch erzeugen

Bis heute stammen die Daten, die für das Training dieser neuronalen Netze verwendet werden, hauptsächlich aus der Flotte von Versuchsfahrzeugen bei Continental. Derzeit fahren sie täglich rund 15’000 Testkilometer und sammeln dabei rund 100 Terabyte an Daten – das entspricht 50’000 Stunden an Filmen. Bereits jetzt können die aufgezeichneten Daten für das Training neuer Systeme genutzt werden, indem sie abgespielt und damit physikalische Testfahrten simuliert werden. Mit dem Supercomputer können die Daten jetzt synthetisch erzeugt werden. Das ist ein rechenintensiver Anwendungsfall, bei dem Systeme durch virtuelles Durchfahren einer simulierten Umgebung lernen können.

Dies kann mehrere Vorteile für den Entwicklungsprozess haben: Erstens könnte Simulation auf lange Sicht die Aufzeichnung, Speicherung und Auswertung der von der physischen Flotte generierten Daten überflüssig machen, da notwendigen Trainingsszenarien sofort auf dem System selbst erstellt werden können. Zweitens wird die Geschwindigkeit erhöht, da virtuelle Fahrzeuge in wenigen Stunden die gleiche Anzahl von Testkilometern zurücklegen können, für die ein reales Auto mehrere Wochen benötigen würde. Drittens ermöglicht die synthetische Generierung von Daten die Verarbeitung und Reaktion von Systemen auf sich verändernde und unvorhersehbare Situationen. Fahrzeuge können so letztlich sicher durch wechselnde und extreme Wetterbedingungen navigieren oder sichere Prognosen über Fußgängerbewegungen erstellen – und damit den Weg zu einem höheren Automatisierungsgrad ebnen.

Die Skalierbarkeit war einer der Hauptgründe für die Konzeption des Nvidia DGX POD. Durch die Technologie können Maschinen schneller, besser und umfassender lernen als durch jede vom Menschen gesteuerte Methode, wobei die potenzielle Leistung mit jedem Evolutionsschritt exponentiell wächst.

Der Supercomputer befindet sich in einem Rechenzentrum in Frankfurt, das aufgrund seiner Nähe zu Cloud-Anbietern und vor allem aufgrund seiner KI-fähigen Umgebung ausgewählt wurde. Diese erfüllt spezifische Anforderungen hinsichtlich Kühlsystemen, Konnektivität und Stromversorgung. Der Supercomputer wird mit zertifiziertem grünem Strom betrieben, wobei GPU-Cluster (GPU = Graphics Processing Unit) vom Design her viel energieeffizienter sind als Cluster auf Basis von zentralen Verarbeitungseinheiten (CPU = Central Processing Unit).

Bild oben: Die Bewältigung komplexer Fahrszenarien ist eine der größten Herausforderungen auf dem Weg zur autonomen Mobilität. Bildquelle: Continental

Weitere Informationen: https://www.continental.com/de

Erfahren Sie hier mehr darüber, wie selbstfahrende Autos Szenarien mit Deep Learning besser verstehen.

Lesen Sie auch: „Positioniercontroller: Als Komplettpaket in den Schaltschrank“

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Die in Dresden beheimatete Gläserne Manufaktur von Volkswagen und das Dresdner Startup Wandelbots haben im März 2018 ein neuartiges Gemeinschaftsprojekt zur Mensch-Roboter-Kollaboration (MRK) vereinbart. Ziel dieser Kooperation ist es, mit der Einrichtung und dem Betrieb einer innovativen Erprobungsstation in der Gläsernen Manufaktur neue MRK-Anwendungen in der Fahrzeug-Endmontage zu testen und zur Serienreife zu bringen. Von Tino M. Böhler

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Oft gelesen

Aktuelle Ausgabe

Topthema: Antriebskomponenten optimal berechnen und simulieren

Berechnungsprogramm KISSsoft 2020

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

* Jederzeit kündbar

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.