Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 3: Kartenmaterial, 5G, Digital Twin und Datenökonomie

In Teil 1 unseres Blogbeitrags standen vor allem die Sensoren im Fahrzeug im Fokus, in Teil 2 wurde das Thema V2X vorgestellt. Im Folgenden wird das Thema autonomes Fahren aus dem Blickwinkel Kartenmaterial, Konnektivität und Vernetzung der Fahrzeuge betrachtet.

Kartenmaterial Over-the-Air: Orientierung für das autonome Fahrzeug

2016 kauften Audi, BMW und Daimler den Kartendienst „Here“ vom finnischen Nokia-Konzern. Das zeigt die Relevanz von Kartenmaterial. Die drei Autobauer haben sich zusammengetan, um zu verhindern, dass die Schlüsseltechnologie für Navigation, Assistenzsysteme und autonomes Fahren in die Hand von Google oder einem anderen Internetkonzern gerät.

Doch warum ist Kartenmaterial so wichtig? Nicht nur zur Navigation, sondern auch um Umweltinformationen zu validieren, die von anderer Sensorik aufgenommen werden. Die Software im Fahrzeug nimmt dann von Sensoren generierte Karten, kombiniert sie mit den schon vorhandenen hochauflösenden Landkarten und leitet daraus wichtige Schlüsse ab.

Autonome Fahrzeuge haben durch die Kombination von 3-D-Karten, Radarsensoren und Live-Kamerabildern ein exaktes Bild ihrer Umgebung. Sind beispielsweise bei Schnee Fahrbahnmarkierungen nicht mehr verfügbar, kann sich das Fahrzeug an der Umgebung orientieren. Tesla nutzt dafür die eigene Flotte der verkauften Fahrzeuge und eine clevere „Schwarmfunktion“ ihrer Software: Zum Beispiel sammeln alle Tesla Model S, die derzeit auf den Straßen unterwegs sind, unentwegt Daten und stellen diese in der Cloud zur Verfügung. Diese Informationen werden in Echtzeit hochgeladen und allen anderen Fahrzeugen zur Verfügung gestellt, die auch auf dieser Strecke oder in dieser Gegend unterwegs sind. So wird z.B. über plötzlichen Regen oder Schneefall, eine Baustelle, Panne oder Unfall informiert.[1] Hier wird das Thema Datenökonomie relevant, auf das im Abschluss eingegangen wird.

5G: Konnektivität und Software Update Over-the-Air

Die Zeit schreibt: „Das selbstfahrende Auto braucht 5G“. Und Vodafone-Sprecher Markus Teubner beschreibt die Leistungsfähigkeit der nächsten Mobilfunkgeneration so: „5G ermöglicht die Datenübertragung in Echtzeit mit einer Verzögerungszeit von nur einer Millisekunde. Das ist kürzer als ein menschlicher Wimpernschlag.“ Die Übertragungstechnik von morgen müsse sich an den Anforderungen des menschlichen Auges und der Berührungssinne orientieren, erklärten die Experten mit Blick auf das selbstfahrende Auto, das in kritischen Situationen ebenso reflexartig reagieren muss wie ein menschlicher Fahrer.[2]

Dass Fahrzeugfunktionen bereits „Over-the-Air“ (OTA) verbessert werden können, hat Tesla an zwei Beispielen gezeigt: „Wegen zu schwacher Bremsen hatte das einflussreiche US-Verbrauchermagazin „Consumer Reports“ dem Tesla Model 3 zunächst die Auszeichnung mit seinem Qualitätssiegel „Kaufempfehlung“ verweigert. Nachdem der Hersteller per Software-Update nachbesserte, gibt es das begehrte Siegel nun doch. Dem Magazin zufolge konnte der Bremsweg durch die online durchgeführte Aktualisierung deutlich verkürzt werden.[3]

Auch die Beschleunigungswerte konnten ohne Besuch der Werkstatt verbessert werden. Demnach beschleunigte das Model S 100D in 3,3 statt 4,3 Sekunden von 0 auf 100 km/h. Beim Model X 100D wurden 4,5 statt 4,9 Sekunden für den Sprint auf 100 km/h angegeben.[4]

Wenn man bedenkt, dass sich der Fokus beim autonomen Fahren immer mehr in Richtung Software verschiebt und diese immer komplexer wird, sind OTA-Updates für die Fahrzeugflotte eine Schlüsseltechnologie – gerade beim Wechsel der Verantwortung von Fahrzeugführer zum Fahrzeug. Hier könnte eine fehlerhafte Softwareversion fatale Folgen haben und Fehler müssen so schnell wie möglich behoben werden können.

Digital Twin und Daten-Ökonomie

Für die Analysten von Gartner ist das Thema Digital Twin einer der zehn Top-Technologietrends (Stand 2017). So treiben derzeit alle deutschen Automobilhersteller das Thema mit Nachdruck voran. Über das digitale Abbild lässt sich einfach und schnell nachprüfen, ob und wie ein Teil nachgerüstet werden kann und ob es kompatibel zum Rest des Fahrzeuges ist. Der Nutzen fängt in der Produktentwicklung an, geht über die Produktion und endet im Aftersales, etwa bei der Planung von Rückrufaktionen.[5]

Bei Digital Twin erhalten reale Objekte und Prozesse ein virtuelles Software-Spiegelbild in der digitalen Welt. Digital Twins können helfen reale Fahrzeuge während ihres Lebenszyklus zu managen. Gerade bei der Transition der Verantwortung von Mensch zum Fahrzeug ist die Möglichkeit eines lückenlosen Nachweises wichtig, um möglichen Fehlern vorzubeugen und sicherheitsrelevante Trends über die gesamte Flotte zu erkennen.

Die gesammelten Daten des Digital Twins sind im Kontext des autonomen Fahrens natürlich auch für Anwendungsfälle von Dritten interessant. Dafür hat BMW bereits vor längerer Zeit die Telematik-Datenplattform BMW CarData ins Leben gerufen mit dem Ziel, Telematik-Daten, die vom Fahrzeug erfasst werden, zur Verfügung zu stellen. Kunden haben damit – wie auch von der EU DSGVO gefordert – die volle Transparenz, was ihre eigenen Daten angeht. Und Partnerfirmen können damit zusätzliche nutzenbringende Services für die Kunden entwickeln. Natürlich soll eine Datenweitergabe an die Partnerfirmen nur stattfinden, wenn der Kunde dem explizit zugestimmt hat.

War es bisher für Fahrzeughersteller wie BMW und andere üblich, materielle Güter zu verkaufen, investieren sie immer häufiger in digitale Geschäftsmodelle. Die hierfür notwendigen IT Systeme müssen entwickelt und nahtlos in die bestehende Infrastruktur integriert werden. Auch das Thema „Subscription Management“ bzw. „Billing und Payment“ zur Abrechnung der Services werden in diesem Kontext häufig diskutiert.

Beim Thema autonomes Fahren ist entscheidend, dass Dritte wie Versicherer oder Service-Partner auf Fahrzeugdaten zugreifen können und durch die Bereitstellung der Daten schlanke Prozesse ermöglicht werden, um ein optimales Kundenerlebnis zu ermöglichen. Somit lässt sich zum Beispiel das Einbinden von Service-Partnern, die sich um die Wartung von autonomen Fahrzeugen kümmern, einfach gestalten.

Fazit

Die Vernetzung des Fahrzeugs und die Möglichkeit, zügig Updates von Kartenmaterial oder Steuergerätesoftware über 5G im Fahrzeug vorzunehmen, ist ein entscheidender Baustein hin zum autonomen Fahren. So lassen sich Schwachstellen beispielsweise in Assistenzsystemen schnell und ohne kostspielige Rückrufaktionen ausbessern. Das digitale Spiegelbild des Fahrzeugs ermöglicht eine Einschätzung des Fahrzeugzustands in Echtzeit. Diese Daten sollen aber nicht nur von OEMs genutzt werden, sie ermöglichen auch Dritten, neue Services anzubieten.

Es bleibt spannend zu beobachten, wie sich die Technologien weiterentwickeln und wie schnell sich das autonome Fahren etablieren wird. Noch sind jedoch viele Herausforderungen zu meistern und Erfahrungswerte zu sammeln.

Für uns als IT Dienstleister bietet das Themenfeld „autonomes Fahren“ viele spannende Herausforderungen. Das gilt für die Projekte, in denen wir im Anforderungsmanagement und in der Software Entwicklung aktiv sind. Das gilt aber auch für die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung der benötigten Backend Systeme und der benötigten Infrastruktur.


zu Teil 1 Kerntechnologien automomes Fahren: Sensorik und Sensorfusion

zu Teil 2 Kerntechnologien automomes Fahren: V2X


Weitere Informationen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] http://www.auto-nomous.com/meinung/kartendienste-als-schluesseltechnologie-fuer-das-autonome-fahren/

[2] https://www.zeit.de/mobilitaet/2016-04/autonomes-fahren-mobilfunk-5g-echtzeitdaten/seite-2

[3] https://www.kfz-betrieb.vogel.de/bremsprobleme-des-tesla-3-mit-update-over-the-air-behoben-a-720627/

[4] https://teslamag.de/news/sekunden-update-beschleunigungswerte-model-s100d-16834

[5] https://www.computerwoche.de/a/wie-unternehmen-von-einem-digitalen-zwilling-profitieren,3544454

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 2: Vehicle-to-everything (V2X)

In Teil 1 unseres Blogbeitrags standen vor allem die Sensorik im Fahrzeug und virtuelle Testumgebungen im Fokus. Im Folgenden geht es um die Interaktion des Fahrzeugs mit seiner Umwelt, das Testen von autonomen Fahrfunktionen und die damit verbunden Herausforderungen. Mittels V2X-Kommunikation können Autos außer „fühlen“ und „sehen“ nun auch „hören“. Fahrzeuge und Verkehrsinfrastruktur werden über Funktechnologie vernetzt. Damit können Informationen zwischen Fahrzeugen untereinander und zwischen Fahrzeugen und der Verkehrsinfrastruktur (zum Beispiel Wechselverkehrszeichen und Lichtsignalanlagen) ausgetauscht und in Verkehrsmanagementsysteme integriert werden. Im V2X Kontext wird je nach Hersteller auch von C-V2X (Cellular-Vehicle-to-Everything) gesprochen, da die Verbindung auf Mobilfunk (Cellular) basiert.[1]

Die folgenden Grafiken von Qualcomm stellen die einzelnen V2X Elemente gut dar.[2]

V2X Elemente

Unter anderem sollen folgende Anwendungsfälle, ebenfalls von Qualcomm dargestellt, ermöglicht werden:

Anwendungsfälle von Qualcomm

Neben den Sicherheitsaspekten hat V2X auch einen ökologischen Aspekt. „Bei vollständiger Durchdringung mit auf V2X-Kommunikation basierenden Funktionen könnte ein jährlicher volkswirtschaftlicher Nutzen bis zu 6,5 Mrd. Euro durch vermiedene Straßenverkehrsunfälle und 4,9 Mrd. Euro durch die Vermeidung von Umweltbelastungen erzielt werden,“ schreibt der Verband der Automobilindustrie VDA.[3]

V2I – Kommunikation zwischen Fahrzeugen und Infrastruktur

Doch wie sieht der Status Quo bei den einzelnen Automobilherstellern aus?

Bei Volkswagen wird die Technologie Car2X genannt und soll in Kürze eingeführt werden. Erstes Ziel ist es, den Fahrer zum Beispiel über „grüne Wellen“ zu informieren und so unnötige Brems- und Beschleunigungsvorgänge zu vermeiden. Hierzu sollen zwei Wolfsburger Straßenkreuzungen mit entsprechender Sensorik ausgestattet werden, um Fußgänger und Radfahrer zu erfassen. An komplexen Kreuzungen und Unfallschwerpunkten sollen so Informationen bereitgestellt werden, die die Fahrzeuge selbst nicht erfassen können. Diese „kooperativen Sicherheitsfunktionen“ sollen in Situationen eingreifen, in denen der Fahrer oder das Fahrzeug die umgebenden Verkehrsteilnehmer mit eigener Sensorik nicht oder erst sehr spät erkennen können.[4]

Auch beim Stuttgarter Autobauer Daimler ermöglicht Car-to-X einen völlig neuartigen Austausch von Informationen. Die Intention ist die Gleiche: Das vernetzte Auto schaut damit um die Ecke und durch Wände. Es warnt Nachkommende vor Gefahren und verhindert Unfälle. Kurz: Es sorgt für mehr Sicherheit und Komfort. Die Fahrerassistenzsysteme stellen dem Fahrer weitere Sicherheits- und Komfortfunktionen zur Verfügung, womit ein weiteres Etappenziel auf dem Weg zum autonomen Fahren erreicht wird.[5] [6]

Audi hat im Mai 2019 angekündigt, dass nun auch in Deutschland eine Technik installiert werden soll, die seit zweieinhalb Jahren bereits in den USA für entspanntes und effizienteres Fahren sorgt. So will der Autohersteller neue Modelle mit den Ampeln in Ingolstadt vernetzen; weitere europäische Städte sollen ab 2020 folgen. Die Audi-Fahrer sollen im Cockpit sehen können, mit welcher gefahrenen Geschwindigkeit sie die nächste Ampel bei Grün erreichen. Das System wird „Green Light Optimized Speed Advisory“ (GLOSA) genannt. „In Zukunft können die anonymisierten Daten unserer Autos dabei helfen, Ampeln in Städten besser zu schalten und den Verkehrsfluss zu optimieren“, erläutert Andre Hainzlmaier, Leiter Entwicklung Apps, Connected Services und Smart City bei Audi.[7]

V2V – Kommunikation zwischen den Fahrzeugen

Auch die V2V (Vehicle-to-Vehicle) Kommunikation und die Vernetzung von Assistenzsystemen für die Automatisierung wird bereits getestet. Die Unternehmen Bosch, Vodafone und Huawei haben sich vor gut einem Jahr zusammengeschlossen, um Tests für die Nutzung des Mobilfunkstandards für das autonome Fahren durchzuführen. Diese Tests fanden bereits in China, Japan und den USA statt. Sie basieren auf 4G, aber künftig wird 5G kommen, das AT&T in den USA bereits einführt und mit dem der C-V2X Standard kompatibel ist. Vorbereitungstests wurden bereits auf dem digitalen Testfeld auf der A 9 in Bayern durchgeführt.

Bisher testete man mit dem Kommunikationsstandard Warnungen in Echtzeit in Sachen Bremsung und Spurwechsel. Als Nächstes will man die ACC (Automatic Cruise Control) in der Steuerung testen. Dieses System warnt nicht nur, sondern greift aktiv ein und bremst das Fahrzeug beispielsweise ab. Künftig sollen die Fahrzeuge darüber miteinander kommunizieren können und damit auch das autonome Fahren ermöglichen. So können die Sensordaten nicht nur einem Fahrzeug nutzen, sondern allen, die sich in der jeweiligen Verkehrssituation befinden. Diese Informationsübertragung soll in Quasi-Echtzeit geschehen, sodass die Systeme rechtzeitig eingreifen können.

Fazit

Die V2X Technologie ist ein wichtiger Schritt hin zum autonom fahrenden Fahrzeug. Die Kommunikation mit der Umwelt wie auch mit anderen Verkehrsteilnehmern ist ein essentieller Part, um Risiken zu reduzieren. Erkennt beispielsweise ein Sensor die Verkehrssituation nicht korrekt, kann V2V einen drohenden Unfall verhindern. V2X kann das Fahrzeug in kniffligen Situationen wie beispielsweise Baustellen oder einer geänderten Verkehrsführung in Echtzeit unterstützen.

doubleSlash ist aktuell in verschiedenen V2X Projekten im Anforderungsmanagement und in der Software-Entwicklung aktiv. Hierbei ist die Herausforderung, dem Fahrzeug aggregierte Daten aus verschiedenen Quellen (zum Beispiel verschiedene Verkehrsinformationsstellen) in hoher Geschwindigkeit bereitzustellen. Das Fahrzeug muss zu jedem Zeitpunkt die richtigen Informationen erhalten und auch die Daten speichern und verarbeiten, die per Rückkanal vom Fahrzeug kommen. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur –  zum Beispiel AWS – sind die größten Herausforderungen bei einer solchen Infrastruktur.

In Teil 1 beleuchten wir Sensorik und Sensorfusion

In Teil 3 unserer Serie wird auf das Thema Kartenmaterial, 5G sowie Digital Twin und Datenökonomie eingegangen.

Weitere Leistungen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[2] https://www.qualcomm.com/media/documents/files/cellular-vehicle-to-everything-c-v2x-technologies.pdf

[3] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[4] https://www.heise.de/newsticker/meldung/Volkswagen-und-Siemens-testen-Funk-fuer-Ampeln-4183853.html

[5] https://www.daimler.com/innovation/case/connectivity/car-to-x.html

[6] https://www.auto-motor-und-sport.de/verkehr/vehicle-2-x-datenuebertragung-globaler-streit/

[7] https://www.heise.de/newsticker/meldung/Audi-vernetzt-seine-Autos-nun-auch-in-Deutschland-mit-Ampeln-4421702.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 1: Sensorik und Sensorfusion

In unserer Blogserie wird auf die entscheidenden Kerntechnologien auf dem Weg zum selbst fahrenden Fahrzeug eingegangen. Beim autonomen Fahren gibt es aktuell viele Player: Etablierte Autobauer, den amerikanischen Autobauer Tesla, Branchenzulieferer, Technologiekonzerne wie Alphabet und Apple sowie Mobilitätsdienstleister wie Uber oder Dixi. Zwischen diesen Akteuren ist ein Wettlauf um die Neugestaltung des Fahrzeugmarktes entbrannt (siehe auch: „Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar“).

Aus Kundensicht ist der Gedanke des autonomen Fahrzeugs reizvoll: Morgens einsteigen, Nachrichten lesen, E-Mails beantworten oder nochmal kurz einen Power-Nap machen, während man sanft durch den dichten Berufsverkehr ins Büro gefahren wird. Geht es nach den Mobilitätsdienstleistern, werden wir in Zukunft keine Autos mehr besitzen, sondern uns Kilometer als Beförderungsleistung kaufen. Die Vision: Das Auto fährt vor und transportiert uns an das gewünschte Ziel.

In modernen Fahrzeugen stecken bereits heute zahlreiche Assistenzsysteme, die alle inneren und äußeren Vorgänge überwachen und dem Fahrer damit viele Aufgaben abnehmen: Brems- und Spurhalteassistent, Abstandsmesser oder Geschwindigkeitsregler. Doch trotz der Technik liegt im Moment noch die Entscheidungshoheit beim Fahrzeugführer, also beim Menschen.

Genau das soll sich in naher Zukunft ändern: „Wir sind schon nahe dran, denn IT- und Automobilhersteller führen gemeinsam mit Zulieferern bereits erste Tests durch. Und zwar nicht etwa auf Sonderstrecken, sondern sogar auf regulären Autobahnen wie auf der A9 zwischen Ingolstadt und Nürnberg – und mitten im Berufsverkehr“ sagt Rahman Jamal von National Instruments. Aktuell ist das autonome Fahren mit dem sogenannten Staupiloten bereits für mehrere Minuten möglich.[1]

Dieser Beitrag gibt einen Überblick über verschiedene Kerntechnologien, die das autonome Fahren reif für den Einsatz auf unseren Straßen machen sollen – im Berufsverkehr, aber auch in wesentlich komplexeren Umgebungen wie auf der Landstraße oder in der Stadt. Dazu gehören:

  • Sensorik (Teil 1)
  • Sensorfusion (Teil 1)
  • Virtuelle Testzentren (Teil 1)
  • Vehicle-to-everything – V2X (Teil 2)
  • Kartenmaterial (Teil 3)
  • Konnektivität und 5G (Teil 3)
  • Digital Twin und Daten-Ökonomie (Teil 3)

Sensorik – Die Sinnesorgane für das autonome Fahrzeug

Für ein autonom agierendes Fahrzeug sind Laser- und radargestützte Sensoren und Kameras mit 360° Rundblick, die alles in der näheren Umgebung, aber auch auf Entfernung analysieren, zwingend notwendig. Denn es muss eine Vielzahl an Parametern und Einflüssen aller Art berücksichtigen. Vereinfacht gesagt: Alles, was der Mensch über seine Sinnesorgane wahrnimmt. Je nach Konfiguration für das autonome Fahren reden wir über 15 benötigte Sensoren. Ihre Zahl steigt mit wachsender Komplexität der Anforderungen. Ein Radar etwa detektiert nicht mehr nur, dass etwas da ist und sich bewegt, sondern spezifiziert auch, um welches Objekt es sich handelt. „Erst wenn die Sensorik sehr genau ist, kann man die Verantwortung reduzieren und vom Fahrer an das System abgeben“, betont ein Experte von Audi.“[2]

Die Mehrheit der Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen ein weiterer unabhängiger Sensortyp, der Lidar, benötigt wird.

Lidarsysteme sind für vollautonomes Fahren ab Level 3 eine wichtige Voraussetzung. Mehrfach redundante Kamera- oder Radarsysteme erhöhen zwar die Zuverlässigkeit, doch Objekte, die das erste Radar/Kamerasystem womöglich systembedingt nicht erfasst, erfasst auch das zweite nicht. Hier braucht es einen weiteren Sensor – und das ist Lidar. Primär soll das System Entfernungen zu ruhenden und bewegten Objekten messen, aber auch durch besondere Verfahren dreidimensionale Bilder der erkannten Objekte liefern.[3]

Der Lidar empfängt die mit Laser ausgesendeten Signale mittels Multispektralkameras, die das Licht in mehreren Wellenlängen aufnehmen können. Das zurückfallende Licht des Lasers von der Oberfläche des Objekts lässt Rückschlüsse auf dessen Geschwindigkeit und Position zu. Mit diesen Daten kann man beispielsweise einen möglichen Kollisionskurs identifizieren und dem entgegnen.[4]

Bei den teils bereits verwendeten Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 und 250 Metern. Diese Kameras benutzen unter anderem Machine Learning Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und ihre Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Erkennung von Verkehrszeichen und Signalen verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.[5]

Radarsysteme sind schon länger in Fahrzeugen verfügbar und übernehmen unter anderem bereits heute folgende Aufgaben:

  • Blindspot Detection (Totwinkel-Überwachung)
  • Spurhalte- und Spurwechselassistent
  • Rückschauendes Radar zur Kollisionswarnung beziehungsweise Kollisionsvermeidung
  • Parkassistent
  • Querverkehr-Überwachung
  • Bremsassistent
  • Notbremsung
  • Automatische Abstandsregulierung

 

Sensorfusion – Zusammenspiel der Sensoren fürs autonome Fahren

Zum Erkennen der Vorgänge auf der Straße müssen die Daten von Kamera, Radar, Ultraschall, Laser usw. abgeglichen werden – Stichwort „Sensorfusion“. Viele Sensoren müssen zusammenspielen, um zu wissen, wo sich das Fahrzeug befindet und was vor und hinter dem Fahrzeug ist, um eine Risikoabschätzung vorzunehmen. Mithilfe von Sensorfusionen lassen sich nicht nur Schwächen einzelner Sensorsysteme ausgleichen, sondern auch eine höhere Ausfallssicherheit (Robustheit) mittels Redundanz gewährleisten. Ziele der Sensorfusion sind außerdem:

  • Verbessern der Genauigkeit
  • Verbessern der Objektklassifikation
  • Verfügbarkeit
  • Vergrößern des Gesamterfassungsbereichs
  • Detailreiche Objektbeschreibung

Darüber hinaus sollten Sensoren in der Lage sein, selbstständig per Algorithmen zu erkennen, wenn sie durch Temperatur, Sonneneinstrahlung, Dunkelheit, Regen oder Schnee außer Gefecht gesetzt werden. Ebenso müssen Marktspezifika wie etwa unterschiedliche Straßenschilder, Meilen statt Kilometer oder Sandverwehungen berücksichtigt werden.

Im folgenden Video lässt sich gut nachvollziehen, wie das Fahrzeug die Straße sieht und warum eine Sensorfusion benötigt wird:

Nicht zu vernachlässigen ist übrigens, dass der Abstimmungsaufwand, also die erforderliche Rechenleistung, um zu sachgerechten Entscheidungen zu kommen, komplexer wird, je mehr Sensorik eingebunden ist.

Virtuelle Testsimulation – Der Weg zu Millionen von Testkilometern

Die gesammelten Daten der Sensorik sind elementar, um virtuelle Testszenarien zu kreieren. Immer mehr OEMs und Automobilzulieferer setzen hier auf die Möglichkeit von Simulationen. Die virtuelle Welt der Simulation ist in Bezug auf Assistenzsysteme von zweifacher Bedeutung. Erstens: Die Tests können über Tage bis hin zu Wochen in allen denkbaren Situationen durchgeführt werden, unabhängig von Testfahrzeugen. Das kann die Entwicklungszeit enorm beschleunigen. Zweitens: die Sicherheit. Das selbstfahrende Auto muss sämtliche Verkehrssituationen bewerten können, sollten sie auch noch so unwahrscheinlich sein. So können zum Beispiel alle Wettereinflüsse simuliert werden. Solche Szenarien lassen sich allein aus Sicherheitsgründen nicht auf öffentlichen Straßen testen, wenn beispielsweise viele Teilnehmer im komplexen Innenstadtverkehr involviert sind.[6]

Mithilfe von Simulationen kann man statt 10.000 Kilometer pro Monat virtuell 8.000 Kilometer pro Stunde zurücklegen. Das spart nicht nur Zeit und Geld, sondern schont auch die Umwelt. Außerdem lassen sich Situationen exakt reproduzieren und beispielsweise neue Versionen eines Algorithmus unter den identischen Bedingungen erneut testen. Fehler werden somit reproduzierbar – und Lösungen schneller gefunden.[7]

Doch wie viele Testkilometer sind notwendig, um ein Auto zum eigenständigen Fahren zu befähigen? BMW etwa beziffert den Testaufwand auf 230 Millionen Kilometer. „Rund 95 Prozent der Testkilometer werden per Simulation absolviert“, schätzt Martin Peller, Leiter der Fahrsimulation bei BMW.[8]

Fazit

Schon heute gibt es verschiedenste Assistenzsysteme, die den Autofahrer unterstützen. Für das autonome Fahren werden jedoch ganz neue, wesentlich komplexere Anforderungen an die Sensorik gestellt. Während der Fahrer heute ein Fehlverhalten der Sensorik erkennt und entsprechend handelt, muss dies künftig durch die Sensorfusion erkannt werden. Um dies zu perfektionieren, ist die Simulation eine kostengünstige Möglichkeit.

Für uns als IT Dienstleister stecken im Thema autonomes Fahren insbesondere bei der Konzeption und Entwicklung von Backend Systemen in der Cloud spannende Herausforderungen. Die gesamte Sensorik generiert terabyteweise Daten, die gespeichert, klassifiziert und zu Trainingszwecken wie in der angesprochenen Simulationsumgebung in unterschiedlichsten Szenarien wieder verwendet werden können. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur etwa von AWS sind die größten Herausforderungen bei einer solchen Infrastruktur.

Zu Teil 2 mit dem Thema: V2X – Vehicle-to-everything

 

Weitere Informationen rund um das autonome Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[2] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[3] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[4] https://www.autonomes-fahren.de/lidar-licht-radar/

[5] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[6] https://www.autonomes-fahren.de/vw-simulation-fuer-assistenzsysteme/

[7] https://www.autonomes-fahren.de/continental-kooperiert-mit-aai-fuer-autonomes-fahren/

[8] https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

 

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch – Teil 2

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten sammeln und gängige Situationen des autonomen Fahrens in der Praxis erprobt werden können.Mehr

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke für autonomes Fahren ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten aus gängigen Verkehrssituationen sammeln.Mehr

Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar

Letzte Woche war es soweit: BMW und Daimler vollzogen wie angekündigt die Fusion ihrer Mobilitätsdienste. Mit über einer Milliarde Euro wollen sie die bereits bestehenden Services weiter ausbauen, verbessern, vernetzen und nahtlos aus einer Hand anbieten. Dabei können sie nach der Fusion von 14 Marken auf eine Basis von über 60 Millionen Kunden aufsetzen. Es entstehen nicht ein großes, sondern fünf kleine Joint Ventures: “Reach Now”, “Charge Now”, “Free Now”, “Park Now” und “Share Now”. Jede Firma hat einen eigenen Geschäftsführer, der in den kommenden drei bis vier Monaten einen Businessplan vorlegen und Vorschläge für eventuelle Kooperationen mit weiteren Firmen ausarbeiten soll. Ein Börsengang, um weitere Investoren zu gewinnen und damit mit Uber und Co. auf Augenhöhe agieren zu können, ist derzeit nicht geplant. Das Headquarter liegt in der Startup Metropole Berlin [1].Mehr

Augmented Reality (AR): Was ist hier der aktuelle Status Quo?

In den letzten Jahren ist immer wieder das Thema Augmented Reality (AR) in den Medien aufgetaucht und die Technologie als absoluter Hype vermarket worden. Besonders Pokémon Go und Snapchat Filter machten das Thema rund um AR populär. In letzter Zeit war jedoch wieder weniger von AR zu hören. Es stellt sich die Frage, welches Potential diese Technologie um die erweiterte Realität bietet. Da auch bei doubleSlash Augmented Reality und Virtual Reality (RA) Applikationen für IoT Programme entwickelt werden, haben wir das Thema ständig im Blick.1

Mehr