Hochautomatisiertes Fahren findet auch in der Cloud statt

Vollautonomes Fahren ist in aller Munde. Die einen erwarten mehr Sicherheit im Straßenverkehr. Die anderen haben Angst vor der Autonomie künstlicher Intelligenzen und den ethischen Konsequenzen. Tatsächlich ist das vollautonome Fahren (Stufe 5 des autonomen Fahrens1 ) auf unseren Autobahnen noch Zukunftsmusik. Längst real hingegen sind die immer ausgereifteren Fahrerassistenzsysteme in modernen Fahrzeugen, die das Leben des Fahrers erleichtern und die Sicherheit verbessern sollen. Diese Assistenzsysteme nehmen aktuell die Hürde zur Stufe 3, dem hochautomatisierten Fahren (HAF). Und das findet nicht nur im Fahrzeug statt, sondern auch in der Cloud. Warum das so ist und was das für die Softwareentwicklung bedeutet, lest ihr hier.

Fahrzeugsensordaten reichen für hochautonomes Fahren nicht aus

Heutige Fahrerassistenzfunktionen basieren meist auf der Auswertung der Daten unterschiedlicher Sensoren und Systeme eines Fahrzeugs wie Kamera, Ultraschall, Lidar oder Radar. Diese erkennen jeweils Teilausschnitte der Umgebung und werden zu einem einheitlichen Umfeldmodell zusammengefügt. Dieses Umfeldmodell stellt verschiedenste Informationen zu bewegten Objekten, statischen Hindernissen, Straßenverläufen und mehr bereit. Das „Sichtfeld“ des Fahrzeugs ist auf dieses Umfeld eingeschränkt.

Das allerdings reicht nicht aus, um den Weg zum hochautomatisierten Fahren konsequent weiterzugehen. Vielmehr muss das bisherige Umfeldmodell zur Berechnung und Kontrolle des Fahrwegs deutlich erweitert werden. Dies geschieht mit Informationen, die von außerhalb der Sensorreichweite kommen. Mit ihnen lassen sich die Fahrfunktionen dynamisch verbessern und sogar ganz neue Fahrfunktionen entwickeln. Damit werden IT-Systeme, die sich außerhalb des Fahrzeugs befinden, erstmals Teil fahrdynamischer Fahrzeugfunktionen.

IT-Systeme außerhalb des Fahrzeugs werden Teil der Fahrerassistenzsysteme

Mit den neuen Fahrzeugvarianten vieler Hersteller kommen weitere Fahrzeugfunktionen auf die Straße, die durch IT-Systeme in der Cloud unterstützt und erweitert werden. Das Backend in der Cloud hält zum Beispiel das Kartenmaterial aktuell und liefert dynamische Informationen. Diese Informationen basieren sowohl auf externen Informationsquellen als auch aus aggregierten Sensordaten vieler Fahrzeuge. IT-Systeme im Hintergrund sammeln diese Daten aus unterschiedlichen Quellen, bereiten sie auf und liefern sie wieder an die Fahrzeuge aus.

Ein solches HAF-IT-System ermittelt zunächst, ob die jeweilige Information für ein Fahrzeug relevant ist. Der Standort des Fahrzeugs dient dabei als Basis, und alle im Umkreis dieses Standorts auftretenden Events sind potenziell für ein Fahrzeug relevant. Der Umkreis wird dabei abhängig von der Art des Events festgelegt. Da sich der Standort eines Fahrzeugs bei der Fahrt ständig ändert, ist es essentiell, dass nur die jeweils veränderte Information an das Fahrzeug übertragen wird.

Fahrzeug und HAF-System sind in ständigem Austausch

Das IT System stellt unterschiedliche Informationen über Umfeldbedingungen wie etwa Geschwindigkeitsbegrenzungen, Baustellen oder Ampelphasen zur Verfügung. Diese können als sogenannte Events an die Fahrzeuge übertragen werden. Die Fahrzeuge können sich für eine oder mehrere Eventarten anmelden, so dass sie Benachrichtigungen zu den jeweiligen Events erhalten.

Dabei kann es ganz unterschiedliche Arten von Events geben, an denen die Fahrzeuge beziehungsweise ihre Fahrer interessiert sein können, zum Beispiel Informationen zu variablen, elektronischen Geschwindigkeitsbegrenzungen. Diese können aufgrund von Verkehrsbedingungen, Baustellen oder anderen Gegebenheiten unterschiedliche Werte anzeigen. Eine weitere Eventart sind Warnungen vor gefährlichen Fahrbedingungen wie Glatteis. Solche frühzeitigen Warnungen sollen helfen Unfälle zu vermeiden.

Über Streckenfreigabe-Events kann dem Fahrzeug außerdem mitgeteilt werden, welche Teilabschnitte für autonomes Fahren geeignet sind. Außerdem sind RTTI-Informationen zur aktuellen Verkehrslage möglich sowie Events, die Daten zur Dauer von Ampelphasen übertragen. Mit letzteren ist es prinzipiell möglich, die Geschwindigkeit entsprechend zu ermitteln, um bei der nächsten Ampel bei grün anzukommen.

Ein IT-System für HAF bildet die die Grundlage für eine übergreifende Plattform, die weitere digitale Services in den Bereichen Gefahrenwarnung, Navigation, Verkehrsinformationen und Parken ermöglicht. Dabei gilt auch hier, dass die Automobilhersteller erst einen Teil dieser Eventarten umgesetzt haben und vieles noch Zukunftsmusik ist.

Ein agiler cloudbasierter Ansatz ist Erfolgsfaktor für HAF-Systeme

Damit das hochautomatisierte Fahren mit Unterstützung eines IT-Systems im Hintergrund zuverlässig funktioniert und auch in Zukunft erweitert werden kann, sind die Anforderungen an die entwickelte Backend-Software hoch. Ausfallsicherheit und Performanz sind genauso sicherzustellen, wie die Skalierbarkeit für zukünftige Erweiterungen.

Zusammen mit Kunden und Partnern entwickelt doubleSlash HAF-Backendsysteme, die Informationen sammeln, auswerten und die daraus berechneten dynamischen Informationen an die Fahrzeugflotte verteilen. Bei der Entwicklung haben unsere Experten folgende Erfolgsfaktoren identifiziert:

Cloudbasierter Ansatz und Microservice Architektur

Das technologische Fundament einer HAF-Anwendung stellt die Kunden-Cloud dar. Die cloudbasierte Anwendung dient dazu, die Hochverfügbarkeit des Systems in allen Regionen zu garantieren und eine stetig wachsende Fahrzeugflotte bedienen zu können.

Das IT-System basiert auf einer flexiblen Microservice-Architektur mit fachlich getrennten, unabhängigen Services. Für Monitoring und Logging werden aktuelle Cloud-Technologien eingesetzt.

SAFe – agile Zusammenarbeit im großen Stil

Ein agiles Vorgehensmodell macht flexible Reaktionen auf Veränderungen möglich. Da das Projekt in einem größeren Gesamtkontext mit verschiedenen IT-Systemen im Bereich automatisiertes Fahren zu sehen ist, bietet sich hier das Modell SAFe („Scaled Agile Framework“) an.

Das agile Manifest ist die Grundlage für SAFe, daraus werden – wie für Scrum – die SAFe Prinzipien abgeleitet. SAFe geht jedoch noch einen Schritt weiter, denn das Rahmenwerk ist zur Koordination mehrerer agiler Teams und Projekte gedacht. Diese Scrum Teams arbeiten auf ein gemeinsames Ziel hin, ihre Projekte sind Teil eines größeren Produkts. Durch den Zusammenschluss der einzelnen Teams lassen sich Abhängigkeiten identifizieren und Redundanzen vermeiden. Ihre Sprints haben einen gemeinsamen Takt, und die Ergebnisse der einzelnen Teams werden durch eine übergreifende Planung auf der Program Increment Ebene aufeinander abgestimmt.2

 

Fazit

Für hochautomatisiertes Fahren (HAF) werden zahlreiche Informationen außerhalb der Sensorreichweite eines Fahrzeuges benötigt, damit das Fahrerassistenzsystem lernen kann. Dafür liefern IT-Systeme außerhalb des Fahrzeuges aufbereitete dynamische Informationen auf Basis unterschiedlichster Informationsquellen. Für solche Systeme gelten besonders hohe Anforderungen an Themen wie Performanz, Ausfallsicherheit und Skalierbarkeit. Um dies zu gewährleisten, setzen wir auf aktuelle Cloud-Technologien und ein agiles, aber skalierbares Vorgehensmodell. Mit letzterem lässt sich schnell und flexibel auf Veränderungen reagieren – ohne jedoch Abhängigkeiten zu anderen Projekten im Gesamtkontext außer Acht zu lassen.

 

Beispiel: Technolgy Stack auf Basis Amazon Webservices
Amazon Web Services (AWS)

  • Amazon Elastic Compute Cloud (EC2)
  • Amazon Elastic Kubernetes Service (EKS)
  • Amazon Relational Database Service (RDS)
  • Amazon Virtual Private Cloud (VPC)
  • AWS Security Groups
  • Amazon CloudWatch
  • Amazon Route 53
  • AWS Lambda
Kubernetes
Docker
Terraform
Grafana
Kibana
Agile Toolchain
Atlassian Confluence, Jira, Bitbucket
Gitlab
Mehr zum Technology Stack erfährst du hier

 

Mehr zum Thema autonomes Fahren:

Von Driver-Only bis Roboter-Taxi – die Herausforderungen beim automatisierten Fahren


Quellen:

1 https://www.adac.de/rund-ums-fahrzeug/ausstattung-technik-zubehoer/assistenzsysteme/fahrerassistenzsysteme/

2 https://www.scaledagileframework.com/

Industrialisierte Absicherung: Wie autonome Fahrfunktionen reif für den „Führerschein“ werden

„Erste autonome Fahrzeuge unterwegs. Seit Anfang 2020 gibt es in Friedrichshafen auf einer speziell ausgestatteten Strecke Testfahrten für vollständig autonome Fahrzeuge.“ So könnten Überschrift und Aufmacher in der Zeitung lauten. Wenn denn autonome Fahrzeuge in Deutschland bereits eine Zulassung – quasi einen Führerschein – hätten. Die Teststrecke wird tatsächlich bereits seit Herbst 2018 befahren1 – allerdings mit Fahrzeugen, die allesamt eine Zulassung nach heute gültigen Verkehrsstandards haben und einen menschlichen Fahrer an Bord.

Primäres Ziel ist in diesem ersten Schritt das Sammeln von Daten. Was passiert mit diesen Daten? Und wie können wir sicher sein, dass die vollautonomen Fahrzeuge irgendwann ihre „Führerscheinprüfung“ bestehen? Das Erfolgsrezept heißt „industrialisierte Absicherung“. Was das ist, schauen wir uns im Folgenden genauer an.

Sicher die richtige Entscheidung treffen

Wir als Menschen lernen in 20 bis 30 Stunden die Verkehrsregeln, das Fahrzeug zu bedienen und uns regelkonform im Straßenverkehr zu bewegen. Bis zur Führerscheinprüfung erleben wir eine überschaubare Anzahl von realen Situationen, die wir bewerten müssen, um dann korrekt zu entscheiden.

Davor haben wir aber in der Regel rund 18 Jahre unseres Lebens in der realen Welt verbracht, bis der Gesetzgeber uns die „Führerscheinreife“ bescheinigt, wir also überhaupt die Prüfung machen dürfen. Viele Situationen haben wir aus unterschiedlichen Blickwinkeln als Fußgänger, Radfahrer, Beifahrer selbst erlebt oder bei anderen beobachtet. Unser Erfahrungsschatz ist also deutlich größer als er in 20 bis 30 Fahrstunden erworben werden kann. Und er wächst mit jeder Minute, die wir am Straßenverkehr teilnehmen.

Eine autonome Fahrfunktion kann auch nur richtig entscheiden, wenn sie sich in ausreichend vielen Szenarien bewährt hat. Das alles in der realen Welt zu überprüfen dauert lange – und kann bei Fehlentscheidungen schmerzhaft sein. Deswegen braucht jede autonome Fahrfunktion (Lenken, Bremsen, Beschleunigen etc.) unzählige simulierte Szenarien, um zu lernen und die „Führerscheinreife“ zu bekommen. Erst dann darf der „künstliche Fahrer“ mit dem Fahrzeug auf die Straße – für weitere „Fahrstunden“ und zur Erlangung des „Führerscheins“.

Warum die Welt für autonome Fahrfunktionen so kompliziert ist

Nun ist eine autonome Fahrfunktion kein Mensch, sondern ein Stück Software, das aus einer Vielzahl von Algorithmen besteht, die richtig zusammenspielen müssen. Das Prinzip ist immer das Gleiche: Ein Sensor bekommt Informationen aus der realen Welt. Ein Algorithmus bewertet die Information und trifft eine Entscheidung. Ein Aktor führt die Entscheidung aus. Was muss beachtet werden?

  • Der Auslöser der Verkehrssituation: z.B. Ball rollt auf die Straße
  • Die zeitliche Verkettung, z.B. Ball rollt auf die Straße, dann rennt Kind hinterher
  • Mehrere Ereignisse gleichzeitig: z.B. nasse Straße, Fußgänger kreuzt und Auto möchte ausparken
  • Umgang mit Unschärfen: z.B. schlechte Lichtverhältnisse erschweren Identifizierung von Objekten2

Mehr zu Sensorfunktionen, Sensorik und den entscheidenden Kerntechnologien im autonomen Fahren lesen Sie hier.

Absicherungsplattform für autonome Fahrfunktionen

Bevor es auf die Straße geht, werden die Algorithmen für autonome Fahrfunktionen deshalb mit einer Vielzahl von Verkehrsszenarien trainiert. Dabei wird die Software gegen bestimmte Szenarien entwickelt und muss sich anschließend in der Verkettung Ende-zu-Ende bewähren.

Eine Absicherungsplattform bietet dem Entwickler die Möglichkeit, auf eine Datenbank mit virtuellen und realen Verkehrsszenarien zuzugreifen. In diese Datenbank könnten auch die gesammelten Daten aus der eingangs erwähnten Teststrecke in Friedrichshafen einfließen. Virtuelle Verkehrsszenarien sind immer dann wichtig, wenn bestimmte Ereignisse wie Schneefall oder Nebel einfach nicht eintreten wollen oder sehr aufwändig zu erfassen sind. Simulationsingenieure können dann aus verschiedenen Szenarien neue zusammenstellen.

So funktioniert eine Absicherungsplattform für autonome Fahrfunktionen
Abbildung: So funktioniert eine Absicherungsplattform für autonome Fahrfunktionen

In solchen Fällen werden die fertig programmierten Algorithmen mit diesen künstlich erzeugten Szenarien ausgeführt. So wird zum Beispiel das Bild vom rollenden Ball bei der Ausführung des entsprechenden Algorithmus eingespielt. Der Algorithmus verarbeitet die Information und führt die Aktion aus – ohne in einem Fahrzeug verbaut zu sein und ohne reale Situation. Auf diese Weise lassen sich Szenarien vieltausendfach parallel innerhalb wesentlich kürzerer Zeit durchspielen, als es in Realzeit möglich wäre. Anhand des Feedback können die Entwickler dann die Software immer weiter verbessern.

Wenn die Algorithmen alleine mit vielen Szenarien zurechtkommen, haben sie einen ersten Reifegrad erreicht. Im nächsten Schritt wird die Absicherung ausgeweitet: Auf jedes Verkehrsszenario folgt ein weiteres, und es wird nicht nur ein Aktor angesteuert, sondern verschiedene. Auch für diese Absicherung gibt es Feedback an die Entwickler.

Irgendwann sind alle Fahrfunktionen eines vollautonomen Fahrzeugs anhand unzähliger Szenarien trainiert. Die Ergebnisse sind dokumentiert und wiederholbar. Erst jetzt beginnt die Integration in die Hardware – das Auto. Und es folgt die nächste Stufe der Absicherung. Wenn jetzt die Aktoren richtig angesteuert werden und reagieren, haben die Fahrfunktionen die Führerscheinreife erreicht. Diesen Reifegrad kann man über eine Reporting-Komponente messen.

Damit ist unser Fahrzeug aber erst bereit für Fahrstunden auf der Teststrecke. Zusammen mit einem Fahrer – quasi dem Fahrlehrer.

Die ganze Absicherung der Software geschieht auf einer eigenen Softwareplattform. Damit werden Qualität, Wiederholbarkeit und weitestgehende Automatisierung von Softwareentwicklung und -tests sicherstellt.

Erfolgsfaktoren und Herausforderungen für eine Absicherungsplattform

Der Aufbau einer Absicherungsplattform für autonome Fahrfunktionen ist eine Herausforderung für die Softwarearchitektur und -entwicklung. Wiederholbarkeit und Skalierbarkeit sind essenziell, um die programmierten Funktionen vertrauenswürdig zu machen. Die Entwicklung von Fahrfunktionen muss genauso sorgfältig und industrialisiert ablaufen wie die Entwicklung des physischen Fahrzeugs.

Die fünf wichtigsten Erfolgsfaktoren für eine industrialisierte Absicherung sind aus unserer Sicht:

  • Hochskalierbare Plattform und Infrastruktur durch Nutzung von Container-Technologien. Dabei wird die Simulationssoftware und alle zu testenden Algorithmen in Container verpackt und kann dadurch theoretisch beliebig oft parallel aufgerufen werden.
  • Benutzerfreundliche Datenmanagement-Lösung, um das Auffinden der benötigten Szenarien zu ermöglichen. Sie werden damit für die unterschiedlichen Anforderungen von Entwicklern der KI-Komponenten sowie von Simulations- und Testingenieuren gleichermaßen nutzbar.
  • Automatisierte Berechnung von Key Performance Indikatoren nach jeder Änderung des Algorithmus inklusive Versionshistorie. Solche KPIs messen die Veränderungen der Güte des Algorithmus im Laufe der Zeit. Damit wird der Grad des Vertrauens in die Fahrfunktionen messbar.
  • Absicherung in einer möglichst Hardware nahen Umgebung, damit die Absicherungsergebnisse aussagekräftig sind.
  • Agile Zusammenarbeitsmodelle unter Einbeziehung aller Nutzergruppen und aller Partner. Nur wenn alle am Projekt beteiligten Menschen eng und nutzenorientiert zusammenarbeiten und ausreichend Möglichkeiten zur Synchronisierung haben, kann ein solches Vorhaben gelingen.

 

Fazit

Wenn voll autonome Fahrzeuge überhaupt möglich werden und im Idealfall die Sicherheit im Straßenverkehr erhöhen sollen, müssen sie besser entscheiden und reagieren als ein Mensch. Die Fahrfunktionen müssen in sehr kurzer Zeit das lernen, was ein Mensch über Jahrzehnte lernt – und noch mehr. Erst dann werden wir der Fahrfunktion vertrauen können. Eine industrialisierte Absicherungsplattform für autonome Fahrfunktionen unterstützt diesen Lernprozess bis zur Führscheinreife. Wiederholbarkeit und Skalierbarkeit sind dabei die wichtigsten Anforderungen an die Plattform.

 

Das könnte Sie auch interessieren: Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt


Quellen:

1 https://www.suedkurier.de/region/bodenseekreis/friedrichshafen/Alle-Fakten-zur-Teststrecke-fuer-autonomes-Fahren-in-Friedrichshafen;art372474,9824810

2 https://blog.doubleslash.de/der-bias-effekt-im-machine-learning/

Welcher Fahrzeugantrieb wird das Rennen um die Zukunft gewinnen?

Die Automobilbranche rund um den klassischen Verbrennungsmotor befindet sich mehr denn je im Wandel und die Unsicherheit über DEN Fahrzeugantrieb der Zukunft ist groß.

Dieselfahrverbote in deutschen Innenstädten, politische Einschränkungen und der sich immer stärker bemerkbar machende Klimawandel bringen die großen Automobilkonzerne in immer größer werdende Bedrängnis. Tatsächlich scheinen die Tage der konventionellen Verbrennungsmotoren allmählich gezählt und alternative Energiekonzepte für Fahrzeuge rücken immer mehr in den Fokus der Debatte über die Mobilität der Zukunft. Das Elektrofahrzeug genießt derzeit eine immer breiter werdende Bekanntschaft und Etablierung. Doch sind rein elektrische Fahrzeuge das endgültige Nonplusultra? Ein Vergleich soll zeigen, welche weiteren Alternativen zur Verfügung stehen und worin deren Vor- und Nachteile liegen.

Rein elektrische Fahrzeuge

Der zentrale Bestandteil eines Elektrofahrzeuges ist der Elektromotor. Vereinfacht ausgedrückt, wandelt der Motor elektrische Energie (Strom) mittels eines Elektromotors in mechanische Energie um.

Fahrzeugantrieb Elekto. Wandelt elektrische Energie in mechanische Energie um.
Abbildung 1: Das rein elektrische Fahrzeug – Eigene Darstellung

Positiv:

  • Elektrofahrzeuge sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Äußerst günstige Ladevorgänge
  • Strom kann direkt genutzt werden, daher ergibt sich ein hoher Wirkungsgrad
  • Batterie-Ladevorgänge können sowohl öffentlich wie auch im eigenen Haushalt vorgenommen werden
  • Die öffentliche Ladeinfrastruktur gewinnt derzeit stetigen Zuwachs – und das nicht nur deutschlandweit, sondern in ganz Europa

 

Negativ:

  • Ladevorgänge gestalten sich als äußerst zeitraubend – so benötigt ein vollständiger Ladevorgang mittels eines herkömmlichen Haushaltssteckers zwischen 8 und 12 Stunden. An sogenannten Schnellladesäulen kann die Ladedauer auf 45 Minuten reduziert werden
  • Selbst hochpreisige Elektrofahrzeuge haben „nur“ eine Reichweite von ca. 400 km1
  • Je mehr Elektrofahrzeuge, desto höher die Belastung des Stromnetzes
  • Zwar stoßen Elektrofahrzeuge während der Nutzungsdauer keinerlei Schadstoffe aus, indirekt – während der Herstellung – jedoch schon2
  • Elektrobatterien besitzen eine hohe Abhängigkeit von Lithium– und Kobalt-Ressourcen3
  • Die Lebensdauer der Elektrobatterie variiert je nach Hersteller aktuell zwischen 100.000 und 200.000 km4

 

Wasserstoffautos

Die Funktionsweise eines mit Wasserstoff betriebenen Fahrzeugs ähnelt dem eines Elektrofahrzeugs. Der entscheidende Unterschied besteht jedoch in der vorgeschalteten Brennstoffzelle. Mittels Elektrolyse wird innerhalb dieser Brennstoffzelle Wasserstoff in elektrischen Strom umgewandelt und ausgehend davon in einen Elektromotor eingespeist.

Fahrzeugantrieb Wasserstoffauto.
Abbildung 2: Ein mit Wasserstoff betriebenes Fahrzeug – Eigene Darstellung

Positiv:

  • Wasserstofffahrzeuge sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Der Tankvorgang von Wasserstoff ist schnell (ca. 3 Minuten) und unkompliziert
  • Ein vollständig aufgetanktes Wasserstofffahrzeug erreicht eine Reichweite von 500 km
  • Die Kosten für die Wasserstoffbetankung sind vergleichbar mit dem eines konventionellen Benzin betriebenen Fahrzeugs. Die meisten Wasserstofffahrzeuge fassen circa vier bis fünf Kilogramm Wasserstoff; der Preis pro Kilogramm beträgt 9,50 €5
  • Brennstoffzellen sind sehr effiziente Energiewandler
  • Im Gegensatz zu Strom, kann Wasserstoff gespeichert und transportiert werden

 

Negativ:

  • Preislich liegen Wasserstofffahrzeuge noch weit über den Elektrofahrzeugen6
  • Deutschlandweit gibt es aktuell nur knapp 100 Wasserstoff Tankstellen7
  • Wasserstoff muss durch energieaufwändige Verfahren hergestellt werden, daher ergibt sich ein hoher Wirkungsverlust

Mehr zu den Chancen und Risiken von Wasserstoff gibt’s hier

eFuel

Sogenannte eFuels sind synthetische Kraftstoffe, die aus Wasserstoff und Kohlenstoff hergestellt werden. Ausgangsbasis ist hierbei der sogenannte Power-to-Fuel-Prozess. Mittels – überschüssigem – Strom aus erneuerbaren Energien (daher das „e“ in eFuel), wird durch Elektrolyse Wasserstoff hergestellt. Der Wasserstoff wiederum reagiert mit aus der Luft gewaschenem CO² zu Methan, woraus in weiteren Verfahrensschritten nahezu jeder Kraftstoff hergestellt werden kann. Von E-Diesel, E-Benzin bis hin zu E-Kerosin.8

Fahrzeugantrieb eFuel
Abbildung 3: eFuels sind synthetische Kraftstoffe, die aus Wasserstoff und Kohlenstoff hergestellt werden – Eigene Darstellung

Positiv:

  • eFuel betriebene Fahrzeuge sind CO² neutral, d.h. der Treibstoff verbrennt lediglich so viel CO², wie zuvor bei der Herstellung im Treibstoff gebunden wurde
  • Der eFuel-Treibstoff ist beimischbar und kann in nahezu allen modernen Verbrennungsmotoren eingesetzt werden
  • Die bestehende Tankstellen Infrastruktur kann für eFuel-Fahrzeuge beibehalten werden
  • Wie schon beim Wasserstoff thematisiert, eignet sich auch eFuel als ideales Speichermedium von überschüssig erzeugtem Strom

 

Negativ:

  • Das Problem der CO²-Emissionen ist durch eFuel-betriebene Fahrzeuge nicht gelöst
  • Die Herstellung von eFuel ist äußerst aufwendig, daher ergibt sich auch hier ein sehr geringer Wirkungsgrad
  • eFuel ist derzeit noch viel zu teuer; der Preis pro einem Liter Diesel-Äquivalent beläuft sich auf schätzungsweise 4,50 €9

 

Hybride Lösungen

Neben den reinen Elektro- bzw. Wasserstofffahrzeugen sind natürlich auch Mischformen eine Alternative. So genannte „Hybride“ gibt es bereits seit vielen Jahren, prominentestes Beispiel ist hierbei sicherlich der Toyota Prius. Dieser wird bereits seit 1997 in Serie gebaut und erreicht durch die Kombination aus einem benzinbetriebenen Verbrennungsmotor und zweier Elektromotoren niedrigste Verbrauchswerte. Doch es bestehen mittlerweile nicht mehr nur Hybrid-Kombination aus Elektromotor und Verbrennungsmotor, sondern auch Hybridfahrzeuge mit Elektromotor und Brennstoffzelle. Ein Beispiel hierzu ist der Mercedes-Benz GLC F-Cell. Dieser verspricht eine kombinierte Reichweite von 478 Kilometer, die sich in knapp 430 Kilometer wasserstoffbasiert und circa 50 Kilometer reinelektrisch aufteilen.10

Positiv:

  • Hybride aus Brennstoffzelle und Batterie Antrieb sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Plug-In-Hybride vereinen die Vorteile von rein elektrisch betriebenen Fahrzeugen und Wasserstofffahrzeugen
  • Insbesondere die gut ausgebaute urbane Elektroladesäuleninfrastruktur, kann durch den integrierten Elektromotor ausgenutzt werden, sodass kurze städtische Fahrten ohne Probleme rein elektrisch gefahren werden können

 

Negativ:

  • Hybride Fahrzeuge liegen preislich deutlich über den Elektrofahrzeugen
  • Die Problematik der schlecht ausgebauten Wasserstoff Tankstellen spielt selbstverständlich auch bei den Hybrid Fahrzeugen eine übergeordnete Rolle11
  • Die Produktion von Wasserstoff ist äußerst aufwendig, daher ergibt sich auch hier ein sehr geringer Wirkungsgrad

 

Alternative Fahrzeugantriebe und digitale Services

Neben den gegenübergestellten mechanischen und energetischen Aspekten alternativer Antriebstechnologien, spielt die Kundenakzeptanz eine entscheidende Rolle. Ein Weg, alternative Mobilität für möglichst viele potenzielle Abnehmer attraktiv und smart zu gestalten, ist die Unterstützung durch digitale Services.

Ein Beispiel im Bereich der Elektromobilität ist hierbei der digitale Service ChargeNow, der es Elektromobilitätskunden erlaubt, Elektroladestationen schnellstmöglich aufzufinden, sich sorglos mittels einer bereitgestellten RFID-Karte an nahezu jeder Ladesäule innerhalb Europas autorisieren zu können und sich durch den Service automatisiert und sicher abrechnen zu lassen.

Die doubleSlash Net-Business GmbH ist hier bereits seit 2012 aktiv und unterstützt weiterhin in der Weiterentwicklung des ChargeNow Services.

Mehr zu dem Thema Data Driven Services gibt es hier

 

Fazit

Aktuell deutet vieles darauf hin, dass die rein elektrischen Fahrzeuge den Automobilmarkt dominieren werden. Diese Etablierung ist vor allem auf die Bekanntheit und den Status in der Gesellschaft, den immer weiter voranschreitenden Ladenetzausbau und das, gegenüber anderen nachhaltigen Technologien, bessere Preis-Leistungsverhältnis zu erklären. Nichtsdestotrotz bleibt die Frage des zukünftigen Antriebs spannend, denn der Umstieg von konventionellen auf alternative Antriebstechnologien wird nicht von heute auf morgen stattfinden. Dieser Prozess bedarf Zeit – Zeit, die es wiederum Wasserstoff und eFuel erlauben werden, durch Innovation und Weiterentwicklung den Vorsprung des Elektroautos zu verringern. Nicht zu vergessen bleibt hierbei als wichtigster Treiber aller alternativer Antriebstechnologien, der Ausbau der erneuerbaren Energien.

Für die Weiterentwicklung der einzelnen Teilbereiche alternativer Mobilitätsantriebe sollten zudem folgende Fragen gestellt werden:

  • Wie können Batterien verbessert werden? (Speicherkapazität, Rohstoffauswahl, Sicherheit und Lebensdauer)
  • Wie kann der Netzausbau noch besser vorangetrieben werden?
  • Wie kann im urbanen Raum genügend Platz für öffentliche Ladesäulen geschaffen werden?
  • Was passiert mit den bisherigen konventionellen Verbrennerfahrzeugen?
  • Wie kann eine Infrastruktur für Wasserstoff Tankstellen aufgebaut werden?
  • Wie könnten synthetische Kraftstoffe als Treibstoff etabliert werden?

 

Co-Autor Marc Friedrich

 


 

1 https://www.adac.de/rund-ums-fahrzeug/tests/elektromobilitaet/stromverbrauch-elektroautos-adac-test/

2 https://vm.baden-wuerttemberg.de/de/politik-zukunft/elektromobilitaet/faq-elektroauto/

3 https://vm.baden-wuerttemberg.de/de/politik-zukunft/elektromobilitaet/faq-elektroauto/

4 https://www.adac.de/rund-ums-fahrzeug/elektromobilitaet/fahrbericht-test/dauertest-elektroauto-leaf-i3-ampera-2018/

5 https://www.shell.de/energie-und-innovation/mobilitaet/wasserstoff.html

6 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu/

7 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu

8 https://www.handelsblatt.com/unternehmen/energie/e-fuels-synthetische-kraftstoffe-wann-kommt-die-rettung-fuer-verbrennungsmotoren-/24402814.html?ticket=ST-535417-aTiE94Pi2m7XC7u4NxJ7-ap6

9 https://www.handelsblatt.com/auto/nachrichten/synthetische-kraftstoffe-autos-ohne-co2-warum-die-industrie-an-e-fuels-glaubt/24523640.html?ticket=ST-36630152-ddBwn6402h3YoTOeGDee-ap4

10 https://www.mercedes-benz.de/passengercars/mercedes-benz-cars/models/glc/glc-f-cell/der-neue-glc-f-cell/stage.module.html

11 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu

Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift

Autonome Fahrfunktionen werden immer komplexer und auch die Zahl der Servicefunktionen im Fahrzeug wächst. Da ist es gerade in der Entwicklung wichtig, diese Herausforderungen zu meistern. Für diesen Fall bieten sich sogenannte Microservices an, die eine massive Parallelisierung von Diensten erlauben. Doch warum macht der Einsatz von Microservices hier Sinn und wie kann man da den Überblick behalten?

Autonome Fahrfunktionen

Da autonome Fahrfunktionen und alles was dazu gehört, sehr komplex sind, braucht es von Beginn an eine Architektur, die diesen Herausforderungen gewachsen ist. Microservices modularisieren Software und liefern damit genau das, was benötigt wird, um Software erweiterbar und wartbar zu gestalten. Die einzelnen, unabhängig voneinander entwickelten und deployten Microservices lassen sich einfacher tauschen, updaten oder erweitern. All das sind Dinge, die eine Skalierbarkeit schaffen, die bei großen Projekten, wie im Bereich autonomem Fahren, wichtig sind.

Ähnlich wie ein Microservice, kann an dieser Stelle auch ein Function as a Service (FaaS) eingesetzt werden. Dieser hat den Vorteil, dass er nicht wie der Microservice durchgehend läuft, sondern nur gestartet wird, wenn die Funktion aufgerufen wird. Bezahlt wird dann auch nur die tatsächliche Rechenzeit, die von der Funktion in Anspruch genommen wird.

Setzt man diese Microservices oder FaaS nun in einzelne Container (z.B. OpenShift), kann jeder dieser Services in einer anderen Programmiersprache auf einer anderen Plattform implementiert sein und trotzdem über eine REST Schnittstelle mit den anderen kommunizieren. Ebenso kann jeder Service einzeln skaliert werden.

Microservices Aufbau v2 eigene Darstellung
Abbildung 1: Microservices Aufbau v2 eigene Darstellung

Warum sollte man Microservices überwachen?

Aus demselben Grund wieso man Systeme im generellen überwacht – weil alle Systeme Fehler aufweisen können. Ein System ist nicht immer „Up“ oder „Down“, es kann auch in einem herabgesetzten Zustand sein, was beispielsweise Performance Einbußen mit sich bringt. Ein Monitoring zeigt solche Zustände auf und kann dadurch eventuell auch einen Ausfall verhindern.

Dienstleistungen, die intern oder für externe Kunden erbracht werden, werden oft im Rahmen eines Service Level Agreement (SLA) festgehalten. Ohne Monitoring ist es unmöglich zu wissen, ob das SLA eingehalten oder verletzt wird.

Überwachungssysteme produzieren zudem im Laufe der Zeit wertvolle Daten, die zur Verbesserung der Leistung genutzt werden können. Fehler- und Leistungsdaten können analysiert werden, um nach Mustern bei Systemausfällen oder Performance Einbrüchen zu suchen, die mit Ereignissen korreliert werden können.

Monitoring ist für die Aufrechterhaltung belastbarer und verfügbarer Systeme unerlässlich. Gerade in der Entwicklung autonomer Fahrfunktionen wird mit großen Datenmengen in sehr komplexen Algorithmen gearbeitet. Da ist es wichtig, dass das System zuverlässig und performant läuft.

Monitoring von Microservices in OpenShift

Monitoring ist ein Prozess der Berichterstattung, Sammlung und Speicherung von Daten. Es gibt einige gängige Kennzahlen im Monitoring für Microservices in Openshift, die man aufzeichnen kann. Dazu gehören:

  • Anwendungskennzahlen
    Zeichnet Kennzahlen auf, die innerhalb der Anwendung messbar sind. Das könnte beispielsweise Nutzer Registrierungen sein oder wie viele Fahrzeug Simulationen an einem Tag gemacht werden, um ein Beispiel aus den autonomen Fahrfunktionen aufzuzeigen.
  • Plattformkennzahlen
    Hier werden Kennzahlen der Infrastruktur gemessen, wie zum Beispiel die Ausführungszeit bestimmter Funktionen oder die Auslastung einer GPU für die Fahrzeug Simulation. Das sind auch Kennzahlen, bei denen Performance Probleme sichtbar gemacht werden können.
  • System Events
    Hier geht es grundlegend um betriebliche Änderungen oder Code-Bereitstellungen. Diese führen häufig auch zu Systemfehlern oder Ausfällen. Solche Änderungen können dann mit dem Systemverhalten korreliert werden, um zu sehen, ob es da Zusammenhänge gibt.

Doch wie sieht so eine Monitoring Lösung nun konkret aus. Im Folgenden wird exemplarisch die Monitoring Lösung Dynatrace aufgezeigt:

Microservice Dynatrace Monitoring eigene Darstellung
Abbildung 2: Microservice Dynatrace Monitoring eigene Darstellung

Der Dynatrace OneAgent Operator wird als Container auf der OpenShift Node ausgeführt. Dieser OneAgent „setzt“ sich in alle anderen Container und überwacht diese anschließend. Damit kann sehr schnell eine komplette OpenShift Node und die darin liegenden Microservices, überwacht werden.

Fazit

Der Einsatz von Microservices bringt enorme Vorteile, bei der Umsetzung großer Softwareprojekte, wie die Entwicklung autonomer Fahrfunktionen. Doch um ein solch großes Projekt dauerhaft stabil und performant zu betreiben, ist es wichtig, dass diese Services und Funktionen durch den Einsatz einer Monitoring Lösung wie z.B. Dynatrace überwacht werden. Danach kann das System möglichst performant betrieben und deutlich einfacher skaliert werden.


Hier geht es zu Teil 1 und 2 der Blogserie:

Teil 1: Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Teil 2: Codequalität für autonome Fahralgorithmen gewährleisten


Weitere Artikel zu diesem Thema:

DevOps, Microservices & Big Data: Drei Top IT-Themen, die Automobilhersteller künftig beschäftigen werden

Skalierbare Microservices mit Docker und HAProxy

Wussten Sie schon, was Microservices sind?


Quellen:

https://www.all-electronics.de/evolutionaere-fahrzeug-architektur-devops/

https://thenewstack.io/the-hows-whys-and-whats-of-monitoring-microservices/

Dynatrace Logo:

https://dt-cdn.net/wp-content/uploads/2016/12/dynatrace_logo.png

OpenShift Logo:

https://upload.wikimedia.org/wikipedia/commons/thumb/3/3a/OpenShift-LogoType.svg/1200px-OpenShift-LogoType.svg.png

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 3: Kartenmaterial, 5G, Digital Twin und Datenökonomie

In Teil 1 unseres Blogbeitrags standen vor allem die Sensoren im Fahrzeug im Fokus, in Teil 2 wurde das Thema V2X vorgestellt. Im Folgenden wird das Thema autonomes Fahren aus dem Blickwinkel Kartenmaterial, Konnektivität und Vernetzung der Fahrzeuge betrachtet.

Kartenmaterial Over-the-Air: Orientierung für das autonome Fahrzeug

2016 kauften Audi, BMW und Daimler den Kartendienst „Here“ vom finnischen Nokia-Konzern. Das zeigt die Relevanz von Kartenmaterial. Die drei Autobauer haben sich zusammengetan, um zu verhindern, dass die Schlüsseltechnologie für Navigation, Assistenzsysteme und autonomes Fahren in die Hand von Google oder einem anderen Internetkonzern gerät.

Doch warum ist Kartenmaterial so wichtig? Nicht nur zur Navigation, sondern auch um Umweltinformationen zu validieren, die von anderer Sensorik aufgenommen werden. Die Software im Fahrzeug nimmt dann von Sensoren generierte Karten, kombiniert sie mit den schon vorhandenen hochauflösenden Landkarten und leitet daraus wichtige Schlüsse ab.

Autonome Fahrzeuge haben durch die Kombination von 3-D-Karten, Radarsensoren und Live-Kamerabildern ein exaktes Bild ihrer Umgebung. Sind beispielsweise bei Schnee Fahrbahnmarkierungen nicht mehr verfügbar, kann sich das Fahrzeug an der Umgebung orientieren. Tesla nutzt dafür die eigene Flotte der verkauften Fahrzeuge und eine clevere „Schwarmfunktion“ ihrer Software: Zum Beispiel sammeln alle Tesla Model S, die derzeit auf den Straßen unterwegs sind, unentwegt Daten und stellen diese in der Cloud zur Verfügung. Diese Informationen werden in Echtzeit hochgeladen und allen anderen Fahrzeugen zur Verfügung gestellt, die auch auf dieser Strecke oder in dieser Gegend unterwegs sind. So wird z.B. über plötzlichen Regen oder Schneefall, eine Baustelle, Panne oder Unfall informiert.[1] Hier wird das Thema Datenökonomie relevant, auf das im Abschluss eingegangen wird.

5G: Konnektivität und Software Update Over-the-Air

Die Zeit schreibt: „Das selbstfahrende Auto braucht 5G“. Und Vodafone-Sprecher Markus Teubner beschreibt die Leistungsfähigkeit der nächsten Mobilfunkgeneration so: „5G ermöglicht die Datenübertragung in Echtzeit mit einer Verzögerungszeit von nur einer Millisekunde. Das ist kürzer als ein menschlicher Wimpernschlag.“ Die Übertragungstechnik von morgen müsse sich an den Anforderungen des menschlichen Auges und der Berührungssinne orientieren, erklärten die Experten mit Blick auf das selbstfahrende Auto, das in kritischen Situationen ebenso reflexartig reagieren muss wie ein menschlicher Fahrer.[2]

Dass Fahrzeugfunktionen bereits „Over-the-Air“ (OTA) verbessert werden können, hat Tesla an zwei Beispielen gezeigt: „Wegen zu schwacher Bremsen hatte das einflussreiche US-Verbrauchermagazin “Consumer Reports” dem Tesla Model 3 zunächst die Auszeichnung mit seinem Qualitätssiegel “Kaufempfehlung” verweigert. Nachdem der Hersteller per Software-Update nachbesserte, gibt es das begehrte Siegel nun doch. Dem Magazin zufolge konnte der Bremsweg durch die online durchgeführte Aktualisierung deutlich verkürzt werden.[3]

Auch die Beschleunigungswerte konnten ohne Besuch der Werkstatt verbessert werden. Demnach beschleunigte das Model S 100D in 3,3 statt 4,3 Sekunden von 0 auf 100 km/h. Beim Model X 100D wurden 4,5 statt 4,9 Sekunden für den Sprint auf 100 km/h angegeben.[4]

Wenn man bedenkt, dass sich der Fokus beim autonomen Fahren immer mehr in Richtung Software verschiebt und diese immer komplexer wird, sind OTA-Updates für die Fahrzeugflotte eine Schlüsseltechnologie – gerade beim Wechsel der Verantwortung von Fahrzeugführer zum Fahrzeug. Hier könnte eine fehlerhafte Softwareversion fatale Folgen haben und Fehler müssen so schnell wie möglich behoben werden können.

Digital Twin und Daten-Ökonomie

Für die Analysten von Gartner ist das Thema Digital Twin einer der zehn Top-Technologietrends (Stand 2017). So treiben derzeit alle deutschen Automobilhersteller das Thema mit Nachdruck voran. Über das digitale Abbild lässt sich einfach und schnell nachprüfen, ob und wie ein Teil nachgerüstet werden kann und ob es kompatibel zum Rest des Fahrzeuges ist. Der Nutzen fängt in der Produktentwicklung an, geht über die Produktion und endet im Aftersales, etwa bei der Planung von Rückrufaktionen.[5]

Bei Digital Twin erhalten reale Objekte und Prozesse ein virtuelles Software-Spiegelbild in der digitalen Welt. Digital Twins können helfen reale Fahrzeuge während ihres Lebenszyklus zu managen. Gerade bei der Transition der Verantwortung von Mensch zum Fahrzeug ist die Möglichkeit eines lückenlosen Nachweises wichtig, um möglichen Fehlern vorzubeugen und sicherheitsrelevante Trends über die gesamte Flotte zu erkennen.

Die gesammelten Daten des Digital Twins sind im Kontext des autonomen Fahrens natürlich auch für Anwendungsfälle von Dritten interessant. Dafür hat BMW bereits vor längerer Zeit die Telematik-Datenplattform BMW CarData ins Leben gerufen mit dem Ziel, Telematik-Daten, die vom Fahrzeug erfasst werden, zur Verfügung zu stellen. Kunden haben damit – wie auch von der EU DSGVO gefordert – die volle Transparenz, was ihre eigenen Daten angeht. Und Partnerfirmen können damit zusätzliche nutzenbringende Services für die Kunden entwickeln. Natürlich soll eine Datenweitergabe an die Partnerfirmen nur stattfinden, wenn der Kunde dem explizit zugestimmt hat.

War es bisher für Fahrzeughersteller wie BMW und andere üblich, materielle Güter zu verkaufen, investieren sie immer häufiger in digitale Geschäftsmodelle. Die hierfür notwendigen IT Systeme müssen entwickelt und nahtlos in die bestehende Infrastruktur integriert werden. Auch das Thema „Subscription Management“ bzw. „Billing und Payment“ zur Abrechnung der Services werden in diesem Kontext häufig diskutiert.

Beim Thema autonomes Fahren ist entscheidend, dass Dritte wie Versicherer oder Service-Partner auf Fahrzeugdaten zugreifen können und durch die Bereitstellung der Daten schlanke Prozesse ermöglicht werden, um ein optimales Kundenerlebnis zu ermöglichen. Somit lässt sich zum Beispiel das Einbinden von Service-Partnern, die sich um die Wartung von autonomen Fahrzeugen kümmern, einfach gestalten.

Fazit

Die Vernetzung des Fahrzeugs und die Möglichkeit, zügig Updates von Kartenmaterial oder Steuergerätesoftware über 5G im Fahrzeug vorzunehmen, ist ein entscheidender Baustein hin zum autonomen Fahren. So lassen sich Schwachstellen beispielsweise in Assistenzsystemen schnell und ohne kostspielige Rückrufaktionen ausbessern. Das digitale Spiegelbild des Fahrzeugs ermöglicht eine Einschätzung des Fahrzeugzustands in Echtzeit. Diese Daten sollen aber nicht nur von OEMs genutzt werden, sie ermöglichen auch Dritten, neue Services anzubieten.

Es bleibt spannend zu beobachten, wie sich die Technologien weiterentwickeln und wie schnell sich das autonome Fahren etablieren wird. Noch sind jedoch viele Herausforderungen zu meistern und Erfahrungswerte zu sammeln.

Für uns als IT Dienstleister bietet das Themenfeld „autonomes Fahren“ viele spannende Herausforderungen. Das gilt für die Projekte, in denen wir im Anforderungsmanagement und in der Software Entwicklung aktiv sind. Das gilt aber auch für die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung der benötigten Backend Systeme und der benötigten Infrastruktur.


zu Teil 1 Kerntechnologien automomes Fahren: Sensorik und Sensorfusion

zu Teil 2 Kerntechnologien automomes Fahren: V2X


Weitere Informationen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] http://www.auto-nomous.com/meinung/kartendienste-als-schluesseltechnologie-fuer-das-autonome-fahren/

[2] https://www.zeit.de/mobilitaet/2016-04/autonomes-fahren-mobilfunk-5g-echtzeitdaten/seite-2

[3] https://www.kfz-betrieb.vogel.de/bremsprobleme-des-tesla-3-mit-update-over-the-air-behoben-a-720627/

[4] https://teslamag.de/news/sekunden-update-beschleunigungswerte-model-s100d-16834

[5] https://www.computerwoche.de/a/wie-unternehmen-von-einem-digitalen-zwilling-profitieren,3544454

Codequalität für autonome Fahralgorithmen gewährleisten

Die Entwicklung autonomer Fahrzeuge ist ein Wettrennen, daher müssen schnellstmöglich stabile Algorithmen für das autonome Fahren entwickelt werden. Dafür müssen Bug Fixes und neue Features so schnell wie möglich implementiert werden, aber ohne die Qualität aus den Augen zu verlieren. Wie kann das gerade in solch großen und komplexen Projekten gewährleistet werden? Die Antwort findet sich in einer skalierbaren „Continuous Integration“ und Continuous Delivery“ Pipeline. Hier erfahren Sie wie der Aufbau einer skalierfähigen Continuous Integration und Continuous Delivery Pipeline in OpenShift funktionieren kann.

Continuous Integration und Delivery – was ist das?

Continuous Integration oder kurz CI sorgt dafür, dass neu entwickelter Code zusammengeführt, getestet und dann in die Gesamtcodebasis eingefügt wird. CI soll die Zusammenarbeit der Entwickler vereinfachen und dabei helfen Fehler frühzeitig zu erkennen.

continous integration

Abbildung 1: So funktioniert Continuous Integration [1]

Mehrere Entwickler arbeiten an neuen Features oder Bug Fixes. Sobald einer von ihnen sein Arbeitspaket fertiggestellt hat, wird der Code committet und genau hier setzt CI dann ein. Sobald der Code gepusht wird, überprüft CI ob der neue Code sich nahtlos in die schon vorhandene Codebasis einfügen lässt. Anschließend startet ein automatischer Build, der dann aufzeigt ob der Code fehlerfrei gebaut werden kann oder ob es fehlschlägt. Schlägt der Build fehl, muss der Entwickler den Bug finden und beheben und den Prozess erneut starten. War der Build fehlerfrei, wird getestet und das entsprechende Ergebnis reportet.

Continuous Delivery oder kurz CD sorgt dafür, dass eine aktuelle Version der Software verfügbar gemacht wird. CD erweitert das CI Vorgehen um den Punkt „Release“ (Continuous Integration + Release = Continuous Delivery). Dabei wird die neue Codebasis auf eine Produktivumgebung implementiert, sodass die neuen Features dort getestet werden können.

Umsetzung mit OpenShift

CI/CD ist einer der beliebtesten Anwendungsfälle für die OpenShift Container Plattform. OpenShift stellt Container für den Bau von Continuous Delivery-Pipelines zur Verfügung. Dies ermöglicht es unter anderem Jenkins, viele Aufträge parallel auszuführen und beseitigt die Wartezeit für die Ausführung von Builds in großen Projekten. OpenShift bietet eine End-to-End-Lösung für den Aufbau kompletter Bereitstellungspipelines und ermöglicht die notwendige Automatisierung, die für die Verwaltung von Code- und Konfigurationsänderungen über die Pipeline erforderlich ist.

Dieses Beispiel zeigt eine CI/CD-Infrastruktur auf OpenShift:

Beispielhafter Aufbau einer CI oder CD-Infrastruktur auf OpenShift

Abbildung 2: Beispielhafter Aufbau einer CI/CD-Infrastruktur auf OpenShift (eigene Darstellung)

Einsatz in der Fahralgorithmen Entwicklung

Wenn ein neues Feature für den Algorithmus entwickelt wird, beispielsweise eine Erkennung von Ampeln, dann wird dieses Feature in einzelne Module aufgeteilt. Dies wird gemacht, da ein solches Feature meist zu groß ist, um es mit nur einem Team zu entwickeln oder es zu zeitintensiv ist, um es in einem Sprint fertigzustellen. Jedes dieser Module wird daher getrennt (pro Team/Sprint) entwickelt und jedes durchläuft einen CI Prozess. Dadurch durchläuft jede Teilentwicklung Unit- und Integrationstests, wodurch die Codequalität jedes Moduls und dadurch auch jedes Features steigt.

CI oder CD Prozess anhand der Entwicklung eines neuen Fahralgorithmen Features

Abbildung 3: CI/CD Prozess anhand der Entwicklung eines neuen Fahralgorithmen Features (eigene Darstellung)

Ein CD erfolgt meist zu einem Sprint Ende oder pro Feature. Zum Sprint Ende werden dann mehrere neu entwickelte Features auf die E2E Umgebung und schlussendlich auf PROD deployed (siehe Abbildung 4). Bei der zweiten Herangehensweise wird ein Feature, sobald es fertig ist, deployed (siehe Abbildung 3).

Continous Delivery bei der Entwicklung autonomer Fahrfunktionen
Abbildung 4: Continous Delivery bei der Entwicklung autonomer Fahrfunktionen (eigene Darstellung)

Fazit: Was bringen CI und CD, auch im Umfeld autonomes Fahren?

Die Umsetzung einer CI und CD bringt einige Vorteile mit sich:

  • Da neue Features und Bug Fixes schneller auf der E2E beziehungsweise auf Produktivumgebung sind, kann früher mit Testfahrzeugen unter realen Bedingungen getestet und das Feedback der Kunden eingeholt werden.
  • Die gesamte Entwicklungs- und Testzeit neuer Features ist schneller, was eine übergreifend schnellere Entwicklung des Fahralgorithmus bedeutet. Das wiederrum kann einen Wettbewerbsvorteil in der Automobilbranche bringen.
  • Bugs werden früher erkannt und können besser identifiziert werden, da man nach jedem Commit weiß ob der Build geklappt hat oder nicht.
  • Daraus folgt eine übergreifend höhere Code- und Softwarequalität, was gerade für autonome Fahrfunktionen besonders wichtig ist.

Hier geht es zu Teil 1 und 3 der Blogserie:

Teil 1: Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Teil 3: Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift


Quellen:

[1] https://cloud.google.com/solutions/continuous-integration/images/hero-banner.png

https://blog.openshift.com/cicd-with-openshift/

Git Logo: https://git-scm.com/images/logos/2color-lightbg@2x.png

Jenkins Logo: https://miro.medium.com/max/2100/1*LOFbTP2SxXcFpM_qTsUSuw.png

SonarQube Logo: https://www.sonarqube.org/images/logos/sonarqube-dark.png

OpenShift Logo: https://upload.wikimedia.org/wikipedia/commons/thumb/3/3a/OpenShift-LogoType.svg/1200px-OpenShift-LogoType.svg.png

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 2: Vehicle-to-everything (V2X)

In Teil 1 unseres Blogbeitrags standen vor allem die Sensorik im Fahrzeug und virtuelle Testumgebungen im Fokus. Im Folgenden geht es um die Interaktion des Fahrzeugs mit seiner Umwelt, das Testen von autonomen Fahrfunktionen und die damit verbunden Herausforderungen. Mittels V2X-Kommunikation können Autos außer „fühlen“ und „sehen“ nun auch „hören“. Fahrzeuge und Verkehrsinfrastruktur werden über Funktechnologie vernetzt. Damit können Informationen zwischen Fahrzeugen untereinander und zwischen Fahrzeugen und der Verkehrsinfrastruktur (zum Beispiel Wechselverkehrszeichen und Lichtsignalanlagen) ausgetauscht und in Verkehrsmanagementsysteme integriert werden. Im V2X Kontext wird je nach Hersteller auch von C-V2X (Cellular-Vehicle-to-Everything) gesprochen, da die Verbindung auf Mobilfunk (Cellular) basiert.[1]

Die folgenden Grafiken von Qualcomm stellen die einzelnen V2X Elemente gut dar.[2]

V2X Elemente

Unter anderem sollen folgende Anwendungsfälle, ebenfalls von Qualcomm dargestellt, ermöglicht werden:

Anwendungsfälle von Qualcomm

Neben den Sicherheitsaspekten hat V2X auch einen ökologischen Aspekt. „Bei vollständiger Durchdringung mit auf V2X-Kommunikation basierenden Funktionen könnte ein jährlicher volkswirtschaftlicher Nutzen bis zu 6,5 Mrd. Euro durch vermiedene Straßenverkehrsunfälle und 4,9 Mrd. Euro durch die Vermeidung von Umweltbelastungen erzielt werden,“ schreibt der Verband der Automobilindustrie VDA.[3]

V2I – Kommunikation zwischen Fahrzeugen und Infrastruktur

Doch wie sieht der Status Quo bei den einzelnen Automobilherstellern aus?

Bei Volkswagen wird die Technologie Car2X genannt und soll in Kürze eingeführt werden. Erstes Ziel ist es, den Fahrer zum Beispiel über „grüne Wellen“ zu informieren und so unnötige Brems- und Beschleunigungsvorgänge zu vermeiden. Hierzu sollen zwei Wolfsburger Straßenkreuzungen mit entsprechender Sensorik ausgestattet werden, um Fußgänger und Radfahrer zu erfassen. An komplexen Kreuzungen und Unfallschwerpunkten sollen so Informationen bereitgestellt werden, die die Fahrzeuge selbst nicht erfassen können. Diese „kooperativen Sicherheitsfunktionen“ sollen in Situationen eingreifen, in denen der Fahrer oder das Fahrzeug die umgebenden Verkehrsteilnehmer mit eigener Sensorik nicht oder erst sehr spät erkennen können.[4]

Auch beim Stuttgarter Autobauer Daimler ermöglicht Car-to-X einen völlig neuartigen Austausch von Informationen. Die Intention ist die Gleiche: Das vernetzte Auto schaut damit um die Ecke und durch Wände. Es warnt Nachkommende vor Gefahren und verhindert Unfälle. Kurz: Es sorgt für mehr Sicherheit und Komfort. Die Fahrerassistenzsysteme stellen dem Fahrer weitere Sicherheits- und Komfortfunktionen zur Verfügung, womit ein weiteres Etappenziel auf dem Weg zum autonomen Fahren erreicht wird.[5] [6]

Audi hat im Mai 2019 angekündigt, dass nun auch in Deutschland eine Technik installiert werden soll, die seit zweieinhalb Jahren bereits in den USA für entspanntes und effizienteres Fahren sorgt. So will der Autohersteller neue Modelle mit den Ampeln in Ingolstadt vernetzen; weitere europäische Städte sollen ab 2020 folgen. Die Audi-Fahrer sollen im Cockpit sehen können, mit welcher gefahrenen Geschwindigkeit sie die nächste Ampel bei Grün erreichen. Das System wird „Green Light Optimized Speed Advisory“ (GLOSA) genannt. „In Zukunft können die anonymisierten Daten unserer Autos dabei helfen, Ampeln in Städten besser zu schalten und den Verkehrsfluss zu optimieren“, erläutert Andre Hainzlmaier, Leiter Entwicklung Apps, Connected Services und Smart City bei Audi.[7]

V2V – Kommunikation zwischen den Fahrzeugen

Auch die V2V (Vehicle-to-Vehicle) Kommunikation und die Vernetzung von Assistenzsystemen für die Automatisierung wird bereits getestet. Die Unternehmen Bosch, Vodafone und Huawei haben sich vor gut einem Jahr zusammengeschlossen, um Tests für die Nutzung des Mobilfunkstandards für das autonome Fahren durchzuführen. Diese Tests fanden bereits in China, Japan und den USA statt. Sie basieren auf 4G, aber künftig wird 5G kommen, das AT&T in den USA bereits einführt und mit dem der C-V2X Standard kompatibel ist. Vorbereitungstests wurden bereits auf dem digitalen Testfeld auf der A 9 in Bayern durchgeführt.

Bisher testete man mit dem Kommunikationsstandard Warnungen in Echtzeit in Sachen Bremsung und Spurwechsel. Als Nächstes will man die ACC (Automatic Cruise Control) in der Steuerung testen. Dieses System warnt nicht nur, sondern greift aktiv ein und bremst das Fahrzeug beispielsweise ab. Künftig sollen die Fahrzeuge darüber miteinander kommunizieren können und damit auch das autonome Fahren ermöglichen. So können die Sensordaten nicht nur einem Fahrzeug nutzen, sondern allen, die sich in der jeweiligen Verkehrssituation befinden. Diese Informationsübertragung soll in Quasi-Echtzeit geschehen, sodass die Systeme rechtzeitig eingreifen können.

Fazit

Die V2X Technologie ist ein wichtiger Schritt hin zum autonom fahrenden Fahrzeug. Die Kommunikation mit der Umwelt wie auch mit anderen Verkehrsteilnehmern ist ein essentieller Part, um Risiken zu reduzieren. Erkennt beispielsweise ein Sensor die Verkehrssituation nicht korrekt, kann V2V einen drohenden Unfall verhindern. V2X kann das Fahrzeug in kniffligen Situationen wie beispielsweise Baustellen oder einer geänderten Verkehrsführung in Echtzeit unterstützen.

doubleSlash ist aktuell in verschiedenen V2X Projekten im Anforderungsmanagement und in der Software-Entwicklung aktiv. Hierbei ist die Herausforderung, dem Fahrzeug aggregierte Daten aus verschiedenen Quellen (zum Beispiel verschiedene Verkehrsinformationsstellen) in hoher Geschwindigkeit bereitzustellen. Das Fahrzeug muss zu jedem Zeitpunkt die richtigen Informationen erhalten und auch die Daten speichern und verarbeiten, die per Rückkanal vom Fahrzeug kommen. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur –  zum Beispiel AWS – sind die größten Herausforderungen bei einer solchen Infrastruktur.

In Teil 1 beleuchten wir Sensorik und Sensorfusion

In Teil 3 unserer Serie wird auf das Thema Kartenmaterial, 5G sowie Digital Twin und Datenökonomie eingegangen.

Weitere Leistungen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[2] https://www.qualcomm.com/media/documents/files/cellular-vehicle-to-everything-c-v2x-technologies.pdf

[3] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[4] https://www.heise.de/newsticker/meldung/Volkswagen-und-Siemens-testen-Funk-fuer-Ampeln-4183853.html

[5] https://www.daimler.com/innovation/case/connectivity/car-to-x.html

[6] https://www.auto-motor-und-sport.de/verkehr/vehicle-2-x-datenuebertragung-globaler-streit/

[7] https://www.heise.de/newsticker/meldung/Audi-vernetzt-seine-Autos-nun-auch-in-Deutschland-mit-Ampeln-4421702.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 1: Sensorik und Sensorfusion

In unserer Blogserie wird auf die entscheidenden Kerntechnologien auf dem Weg zum selbst fahrenden Fahrzeug eingegangen. Beim autonomen Fahren gibt es aktuell viele Player: Etablierte Autobauer, den amerikanischen Autobauer Tesla, Branchenzulieferer, Technologiekonzerne wie Alphabet und Apple sowie Mobilitätsdienstleister wie Uber oder Dixi. Zwischen diesen Akteuren ist ein Wettlauf um die Neugestaltung des Fahrzeugmarktes entbrannt (siehe auch: “Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar”).

Aus Kundensicht ist der Gedanke des autonomen Fahrzeugs reizvoll: Morgens einsteigen, Nachrichten lesen, E-Mails beantworten oder nochmal kurz einen Power-Nap machen, während man sanft durch den dichten Berufsverkehr ins Büro gefahren wird. Geht es nach den Mobilitätsdienstleistern, werden wir in Zukunft keine Autos mehr besitzen, sondern uns Kilometer als Beförderungsleistung kaufen. Die Vision: Das Auto fährt vor und transportiert uns an das gewünschte Ziel.

In modernen Fahrzeugen stecken bereits heute zahlreiche Assistenzsysteme, die alle inneren und äußeren Vorgänge überwachen und dem Fahrer damit viele Aufgaben abnehmen: Brems- und Spurhalteassistent, Abstandsmesser oder Geschwindigkeitsregler. Doch trotz der Technik liegt im Moment noch die Entscheidungshoheit beim Fahrzeugführer, also beim Menschen.

Genau das soll sich in naher Zukunft ändern: „Wir sind schon nahe dran, denn IT- und Automobilhersteller führen gemeinsam mit Zulieferern bereits erste Tests durch. Und zwar nicht etwa auf Sonderstrecken, sondern sogar auf regulären Autobahnen wie auf der A9 zwischen Ingolstadt und Nürnberg – und mitten im Berufsverkehr“ sagt Rahman Jamal von National Instruments. Aktuell ist das autonome Fahren mit dem sogenannten Staupiloten bereits für mehrere Minuten möglich.[1]

Dieser Beitrag gibt einen Überblick über verschiedene Kerntechnologien, die das autonome Fahren reif für den Einsatz auf unseren Straßen machen sollen – im Berufsverkehr, aber auch in wesentlich komplexeren Umgebungen wie auf der Landstraße oder in der Stadt. Dazu gehören:

  • Sensorik (Teil 1)
  • Sensorfusion (Teil 1)
  • Virtuelle Testzentren (Teil 1)
  • Vehicle-to-everything – V2X (Teil 2)
  • Kartenmaterial (Teil 3)
  • Konnektivität und 5G (Teil 3)
  • Digital Twin und Daten-Ökonomie (Teil 3)

Sensorik – Die Sinnesorgane für das autonome Fahrzeug

Für ein autonom agierendes Fahrzeug sind Laser- und radargestützte Sensoren und Kameras mit 360° Rundblick, die alles in der näheren Umgebung, aber auch auf Entfernung analysieren, zwingend notwendig. Denn es muss eine Vielzahl an Parametern und Einflüssen aller Art berücksichtigen. Vereinfacht gesagt: Alles, was der Mensch über seine Sinnesorgane wahrnimmt. Je nach Konfiguration für das autonome Fahren reden wir über 15 benötigte Sensoren. Ihre Zahl steigt mit wachsender Komplexität der Anforderungen. Ein Radar etwa detektiert nicht mehr nur, dass etwas da ist und sich bewegt, sondern spezifiziert auch, um welches Objekt es sich handelt. „Erst wenn die Sensorik sehr genau ist, kann man die Verantwortung reduzieren und vom Fahrer an das System abgeben“, betont ein Experte von Audi.“[2]

Die Mehrheit der Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen ein weiterer unabhängiger Sensortyp, der Lidar, benötigt wird.

Lidarsysteme sind für vollautonomes Fahren ab Level 3 eine wichtige Voraussetzung. Mehrfach redundante Kamera- oder Radarsysteme erhöhen zwar die Zuverlässigkeit, doch Objekte, die das erste Radar/Kamerasystem womöglich systembedingt nicht erfasst, erfasst auch das zweite nicht. Hier braucht es einen weiteren Sensor – und das ist Lidar. Primär soll das System Entfernungen zu ruhenden und bewegten Objekten messen, aber auch durch besondere Verfahren dreidimensionale Bilder der erkannten Objekte liefern.[3]

Der Lidar empfängt die mit Laser ausgesendeten Signale mittels Multispektralkameras, die das Licht in mehreren Wellenlängen aufnehmen können. Das zurückfallende Licht des Lasers von der Oberfläche des Objekts lässt Rückschlüsse auf dessen Geschwindigkeit und Position zu. Mit diesen Daten kann man beispielsweise einen möglichen Kollisionskurs identifizieren und dem entgegnen.[4]

Bei den teils bereits verwendeten Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 und 250 Metern. Diese Kameras benutzen unter anderem Machine Learning Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und ihre Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Erkennung von Verkehrszeichen und Signalen verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.[5]

Radarsysteme sind schon länger in Fahrzeugen verfügbar und übernehmen unter anderem bereits heute folgende Aufgaben:

  • Blindspot Detection (Totwinkel-Überwachung)
  • Spurhalte- und Spurwechselassistent
  • Rückschauendes Radar zur Kollisionswarnung beziehungsweise Kollisionsvermeidung
  • Parkassistent
  • Querverkehr-Überwachung
  • Bremsassistent
  • Notbremsung
  • Automatische Abstandsregulierung

 

Sensorfusion – Zusammenspiel der Sensoren fürs autonome Fahren

Zum Erkennen der Vorgänge auf der Straße müssen die Daten von Kamera, Radar, Ultraschall, Laser usw. abgeglichen werden – Stichwort „Sensorfusion“. Viele Sensoren müssen zusammenspielen, um zu wissen, wo sich das Fahrzeug befindet und was vor und hinter dem Fahrzeug ist, um eine Risikoabschätzung vorzunehmen. Mithilfe von Sensorfusionen lassen sich nicht nur Schwächen einzelner Sensorsysteme ausgleichen, sondern auch eine höhere Ausfallssicherheit (Robustheit) mittels Redundanz gewährleisten. Ziele der Sensorfusion sind außerdem:

  • Verbessern der Genauigkeit
  • Verbessern der Objektklassifikation
  • Verfügbarkeit
  • Vergrößern des Gesamterfassungsbereichs
  • Detailreiche Objektbeschreibung

Darüber hinaus sollten Sensoren in der Lage sein, selbstständig per Algorithmen zu erkennen, wenn sie durch Temperatur, Sonneneinstrahlung, Dunkelheit, Regen oder Schnee außer Gefecht gesetzt werden. Ebenso müssen Marktspezifika wie etwa unterschiedliche Straßenschilder, Meilen statt Kilometer oder Sandverwehungen berücksichtigt werden.

Im folgenden Video lässt sich gut nachvollziehen, wie das Fahrzeug die Straße sieht und warum eine Sensorfusion benötigt wird:

Nicht zu vernachlässigen ist übrigens, dass der Abstimmungsaufwand, also die erforderliche Rechenleistung, um zu sachgerechten Entscheidungen zu kommen, komplexer wird, je mehr Sensorik eingebunden ist.

Virtuelle Testsimulation – Der Weg zu Millionen von Testkilometern

Die gesammelten Daten der Sensorik sind elementar, um virtuelle Testszenarien zu kreieren. Immer mehr OEMs und Automobilzulieferer setzen hier auf die Möglichkeit von Simulationen. Die virtuelle Welt der Simulation ist in Bezug auf Assistenzsysteme von zweifacher Bedeutung. Erstens: Die Tests können über Tage bis hin zu Wochen in allen denkbaren Situationen durchgeführt werden, unabhängig von Testfahrzeugen. Das kann die Entwicklungszeit enorm beschleunigen. Zweitens: die Sicherheit. Das selbstfahrende Auto muss sämtliche Verkehrssituationen bewerten können, sollten sie auch noch so unwahrscheinlich sein. So können zum Beispiel alle Wettereinflüsse simuliert werden. Solche Szenarien lassen sich allein aus Sicherheitsgründen nicht auf öffentlichen Straßen testen, wenn beispielsweise viele Teilnehmer im komplexen Innenstadtverkehr involviert sind.[6]

Mithilfe von Simulationen kann man statt 10.000 Kilometer pro Monat virtuell 8.000 Kilometer pro Stunde zurücklegen. Das spart nicht nur Zeit und Geld, sondern schont auch die Umwelt. Außerdem lassen sich Situationen exakt reproduzieren und beispielsweise neue Versionen eines Algorithmus unter den identischen Bedingungen erneut testen. Fehler werden somit reproduzierbar – und Lösungen schneller gefunden.[7]

Doch wie viele Testkilometer sind notwendig, um ein Auto zum eigenständigen Fahren zu befähigen? BMW etwa beziffert den Testaufwand auf 230 Millionen Kilometer. „Rund 95 Prozent der Testkilometer werden per Simulation absolviert“, schätzt Martin Peller, Leiter der Fahrsimulation bei BMW.[8]

Fazit

Schon heute gibt es verschiedenste Assistenzsysteme, die den Autofahrer unterstützen. Für das autonome Fahren werden jedoch ganz neue, wesentlich komplexere Anforderungen an die Sensorik gestellt. Während der Fahrer heute ein Fehlverhalten der Sensorik erkennt und entsprechend handelt, muss dies künftig durch die Sensorfusion erkannt werden. Um dies zu perfektionieren, ist die Simulation eine kostengünstige Möglichkeit.

Für uns als IT Dienstleister stecken im Thema autonomes Fahren insbesondere bei der Konzeption und Entwicklung von Backend Systemen in der Cloud spannende Herausforderungen. Die gesamte Sensorik generiert terabyteweise Daten, die gespeichert, klassifiziert und zu Trainingszwecken wie in der angesprochenen Simulationsumgebung in unterschiedlichsten Szenarien wieder verwendet werden können. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur etwa von AWS sind die größten Herausforderungen bei einer solchen Infrastruktur.

Zu Teil 2 mit dem Thema: V2X – Vehicle-to-everything

 

Weitere Informationen rund um das autonome Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[2] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[3] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[4] https://www.autonomes-fahren.de/lidar-licht-radar/

[5] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[6] https://www.autonomes-fahren.de/vw-simulation-fuer-assistenzsysteme/

[7] https://www.autonomes-fahren.de/continental-kooperiert-mit-aai-fuer-autonomes-fahren/

[8] https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

 

Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Jeder spricht darüber und alle großen Automobilhersteller entwickeln es – das autonome Fahrzeug. Doch wie „lernt“ ein Fahrzeug, selbständig zu fahren und mit der Flut an Datenmengen (Szenarien, Sensoren etc.) umzugehen? Wir zeigen Ihnen, warum die Cloud einen großen Teil dazu beiträgt und wie der Nutzen der skalierbaren Cloud für die Verarbeitung großer Datenmengen durch Function as a Service (FaaS) entsteht.

Vorsicht Fahranfänger – Wie Fahrzeuge mit riesigen Datenmengen umgehen lernen?

Genauso wie wir Menschen das Fahren lernen – mit Übung. Je mehr Kilometer wir fahren, desto sicherer werden wir im Straßenverkehr. „Learning by doing“ ist hier das Stichwort. Fahrzeuge tun das mit Hilfe von Sensoren, Rechenkapazität und dem Einsatz künstlicher Intelligenz (KI). Die Sensoren überwachen pausenlos umliegenden Gebäude, Fußgängerwege, Verkehrsteilnehmer und andere Personen. Die Rechner verarbeiten diese gewaltige Datenflut mit Hilfe von Algorithmen. Diese interpretieren dann die Daten und schaffen so ein Bild der Umgebung des Fahrzeugs und reagieren darauf.

Sensoren autonomes Fahren

 

 

 

 

 

 

 

 

 

 

( zu sehen 09:36 How a driverless car sees the road Quelle: YouTube)

Sensoren und KI autonomes Fahren

 

 

 

 

 

 

 

 

 

 

(09:44 How a driverless car sees the road Quelle: YouTube)

Über das maschinelle Lernen tasten sich die Systeme immer mehr an komplizierte Situationen im Straßenverkehr heran. Die Königsdisziplin ist der Arc de Triomphe in Paris – eine Herausforderung für den normalen Autofahrer und eine enorme Herausforderung für ein autonomes Fahrzeug – auch im Hinblick der in dieser Situation zu meisternden Datenmengen.

KI Algorithmen werden mit Hilfe großer Datenmengen trainiert, damit sie Verkehrssituationen richtig interpretieren, vor allem aber korrekt darauf reagieren können. Dafür werden viele Millionen gefahrene Testkilometer benötigt. Aber vor der Quantität steht die Qualität, denn bei perfekten Bedingungen kann jeder fahren. Ein leistungsstarker Algorithmus muss mit Extremsituationen umgehen können, weshalb er gerade diese lernen muss. Doch wie bringt man ein Fahrzeug kontrolliert in teilweise gefährliche Extremsituationen?

Simulieren statt Probieren

Die enorme Anzahl an zu fahrenden Testkilometern und das Testen gefährlicher Extremsituationen, kann während der Entwicklung eines Algorithmus nicht geliefert werden. Denn nach jeder Änderung an diesen Algorithmen müssten diese Testkilometererneut gefahren werden. Um dieses Problem zu lösen, wird ein Großteil der Testkilometer virtuell per Simulation zurückgelegt. BMW spricht davon, dass „rund 95% der Testkilometer per Simulation absolviert werden“, so Martin Peller [1], Leiter der Fahrsimulation bei BMW. Diese Simulationen können nun entweder in der Cloud oder OnPremise betrieben werden.

Hoch performante Cloud-Anwendungen als Basis

Die Cloud bietet eine Vielzahl von Vorteilen gegenüber einer On-Premise (Vor Ort) Lösung:

  • Kein eigenes Rechenzentrum und somit auch einen geringeren Personalaufwand
  • Der Cloud Anbieter liefert meist Support und Wartung Rund um die Uhr
  • Die Rechenleistung ist flexibel skalierbar und lässt sich somit perfekt an den Bedarf anpassen
  • Die räumliche Unabhängigkeit bietet einen Zugriff von jedem beliebigen Ort aus
  • Cloud Anbieter gewährleisten dank Sicherheitskopien und Co eine hohe Datensicherung
  • Keine Investitionskosten für Server-Hardware, was den Einstieg kostengünstiger macht

All diese Punkte sprechen für eine Cloud-Lösung und zeigen auf, warum Cloud-Computing-Anbieter wie AWS (Amazon Web Services) und Microsoft Azure so eine Marktrelevanz haben. Auch wir bei doubleSlash beschäftigen uns mit den Big Playern des Cloud Computing und entwickeln hoch performante Cloud Anwendungen. Speziell eben auch im Bereich der Testfahrten-Simulation für autonome Fahrzeuge. Solch performante Lösungen nennt man „Function as a Service“ oder kurz FaaS.

Fazit: Function as a Service als wichtiger Bestandteil bei der Entwicklung autonomer Fahrzeuge

Anwendungen wie die Simulation von Testfahrten oder der Sprachassistent Alexa sind Beispiele für eine Function as a Service (FaaS) Lösung. Dabei werden dem Anwender einzelne Funktionen zur Verfügung gestellt, die angesprochen werden können und innerhalb kürzester Zeit Ergebnisse liefern. Bei Alexa wäre das beispielsweise eine Anfrage, wie das Wetter morgen wird.

Daher findet der FaaS Ansatz häufig dann seinen Einsatz, wenn Performanz und Skalierbarkeit Kernanforderungen an die Lösung sind. Zudem wird nur die tatsächliche Rechenzeit, die zur Ausführung der Funktionen benötigt wird, in Rechnung gestellt.

FaaS-Lösungen und damit leistungsfähige Cloud Infrastrukturen wie Azure und AWS sind also ein wichtiger Bestandteil der Entwicklung autonomer Fahrzeuge.


Hier geht es zu Teil 2 und 3 der Blogserie:

Teil 2: Codequalität für autonome Fahralgorithmen gewährleisten

Teil 3: Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift


Weitere Artikel rundum das autonome Fahren:

https://blog.doubleslash.de/autonomes-fahren-im-praxistest-zf-teststrecke-im-selbstversuch/

https://blog.doubleslash.de/vision-zero-durch-autonomes-fahren/

https://blog.doubleslash.de/von-driver-only-bis-roboter-taxi-die-herausforderungen-beim-automatisierten-fahren/


Quellen:

https://www.bmw.com/de/innovation/die-entwicklung-selbstfahrender-autos.html

https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

https://www.it-management.today/on-premise-vs-cloud-software-vor-und-nachteile/

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch – Teil 2

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten sammeln und gängige Situationen des autonomen Fahrens in der Praxis erprobt werden können.Mehr