Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift

Autonome Fahrfunktionen werden immer komplexer und auch die Zahl der Servicefunktionen im Fahrzeug wächst. Da ist es gerade in der Entwicklung wichtig, diese Herausforderungen zu meistern. Für diesen Fall bieten sich sogenannte Microservices an, die eine massive Parallelisierung von Diensten erlauben. Doch warum macht der Einsatz von Microservices hier Sinn und wie kann man da den Überblick behalten?

Autonome Fahrfunktionen

Da autonome Fahrfunktionen und alles was dazu gehört, sehr komplex sind, braucht es von Beginn an eine Architektur, die diesen Herausforderungen gewachsen ist. Microservices modularisieren Software und liefern damit genau das, was benötigt wird, um Software erweiterbar und wartbar zu gestalten. Die einzelnen, unabhängig voneinander entwickelten und deployten Microservices lassen sich einfacher tauschen, updaten oder erweitern. All das sind Dinge, die eine Skalierbarkeit schaffen, die bei großen Projekten, wie im Bereich autonomem Fahren, wichtig sind.

Ähnlich wie ein Microservice, kann an dieser Stelle auch ein Function as a Service (FaaS) eingesetzt werden. Dieser hat den Vorteil, dass er nicht wie der Microservice durchgehend läuft, sondern nur gestartet wird, wenn die Funktion aufgerufen wird. Bezahlt wird dann auch nur die tatsächliche Rechenzeit, die von der Funktion in Anspruch genommen wird.

Setzt man diese Microservices oder FaaS nun in einzelne Container (z.B. OpenShift), kann jeder dieser Services in einer anderen Programmiersprache auf einer anderen Plattform implementiert sein und trotzdem über eine REST Schnittstelle mit den anderen kommunizieren. Ebenso kann jeder Service einzeln skaliert werden.

Microservices Aufbau v2 eigene Darstellung
Abbildung 1: Microservices Aufbau v2 eigene Darstellung

Warum sollte man Microservices überwachen?

Aus demselben Grund wieso man Systeme im generellen überwacht – weil alle Systeme Fehler aufweisen können. Ein System ist nicht immer „Up“ oder „Down“, es kann auch in einem herabgesetzten Zustand sein, was beispielsweise Performance Einbußen mit sich bringt. Ein Monitoring zeigt solche Zustände auf und kann dadurch eventuell auch einen Ausfall verhindern.

Dienstleistungen, die intern oder für externe Kunden erbracht werden, werden oft im Rahmen eines Service Level Agreement (SLA) festgehalten. Ohne Monitoring ist es unmöglich zu wissen, ob das SLA eingehalten oder verletzt wird.

Überwachungssysteme produzieren zudem im Laufe der Zeit wertvolle Daten, die zur Verbesserung der Leistung genutzt werden können. Fehler- und Leistungsdaten können analysiert werden, um nach Mustern bei Systemausfällen oder Performance Einbrüchen zu suchen, die mit Ereignissen korreliert werden können.

Monitoring ist für die Aufrechterhaltung belastbarer und verfügbarer Systeme unerlässlich. Gerade in der Entwicklung autonomer Fahrfunktionen wird mit großen Datenmengen in sehr komplexen Algorithmen gearbeitet. Da ist es wichtig, dass das System zuverlässig und performant läuft.

Monitoring von Microservices in OpenShift

Monitoring ist ein Prozess der Berichterstattung, Sammlung und Speicherung von Daten. Es gibt einige gängige Kennzahlen im Monitoring für Microservices in Openshift, die man aufzeichnen kann. Dazu gehören:

  • Anwendungskennzahlen
    Zeichnet Kennzahlen auf, die innerhalb der Anwendung messbar sind. Das könnte beispielsweise Nutzer Registrierungen sein oder wie viele Fahrzeug Simulationen an einem Tag gemacht werden, um ein Beispiel aus den autonomen Fahrfunktionen aufzuzeigen.
  • Plattformkennzahlen
    Hier werden Kennzahlen der Infrastruktur gemessen, wie zum Beispiel die Ausführungszeit bestimmter Funktionen oder die Auslastung einer GPU für die Fahrzeug Simulation. Das sind auch Kennzahlen, bei denen Performance Probleme sichtbar gemacht werden können.
  • System Events
    Hier geht es grundlegend um betriebliche Änderungen oder Code-Bereitstellungen. Diese führen häufig auch zu Systemfehlern oder Ausfällen. Solche Änderungen können dann mit dem Systemverhalten korreliert werden, um zu sehen, ob es da Zusammenhänge gibt.

Doch wie sieht so eine Monitoring Lösung nun konkret aus. Im Folgenden wird exemplarisch die Monitoring Lösung Dynatrace aufgezeigt:

Microservice Dynatrace Monitoring eigene Darstellung
Abbildung 2: Microservice Dynatrace Monitoring eigene Darstellung

Der Dynatrace OneAgent Operator wird als Container auf der OpenShift Node ausgeführt. Dieser OneAgent „setzt“ sich in alle anderen Container und überwacht diese anschließend. Damit kann sehr schnell eine komplette OpenShift Node und die darin liegenden Microservices, überwacht werden.

Fazit

Der Einsatz von Microservices bringt enorme Vorteile, bei der Umsetzung großer Softwareprojekte, wie die Entwicklung autonomer Fahrfunktionen. Doch um ein solch großes Projekt dauerhaft stabil und performant zu betreiben, ist es wichtig, dass diese Services und Funktionen durch den Einsatz einer Monitoring Lösung wie z.B. Dynatrace überwacht werden. Danach kann das System möglichst performant betrieben und deutlich einfacher skaliert werden.


Hier geht es zu Teil 1 und 2 der Blogserie:

Teil 1: Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Teil 2: Codequalität für autonome Fahralgorithmen gewährleisten


Weitere Artikel zu diesem Thema:

DevOps, Microservices & Big Data: Drei Top IT-Themen, die Automobilhersteller künftig beschäftigen werden

Skalierbare Microservices mit Docker und HAProxy

Wussten Sie schon, was Microservices sind?


Quellen:

https://www.all-electronics.de/evolutionaere-fahrzeug-architektur-devops/

https://thenewstack.io/the-hows-whys-and-whats-of-monitoring-microservices/

Dynatrace Logo:

https://dt-cdn.net/wp-content/uploads/2016/12/dynatrace_logo.png

OpenShift Logo:

https://upload.wikimedia.org/wikipedia/commons/thumb/3/3a/OpenShift-LogoType.svg/1200px-OpenShift-LogoType.svg.png

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 3: Kartenmaterial, 5G, Digital Twin und Datenökonomie

In Teil 1 unseres Blogbeitrags standen vor allem die Sensoren im Fahrzeug im Fokus, in Teil 2 wurde das Thema V2X vorgestellt. Im Folgenden wird das Thema autonomes Fahren aus dem Blickwinkel Kartenmaterial, Konnektivität und Vernetzung der Fahrzeuge betrachtet.

Kartenmaterial Over-the-Air: Orientierung für das autonome Fahrzeug

2016 kauften Audi, BMW und Daimler den Kartendienst „Here“ vom finnischen Nokia-Konzern. Das zeigt die Relevanz von Kartenmaterial. Die drei Autobauer haben sich zusammengetan, um zu verhindern, dass die Schlüsseltechnologie für Navigation, Assistenzsysteme und autonomes Fahren in die Hand von Google oder einem anderen Internetkonzern gerät.

Doch warum ist Kartenmaterial so wichtig? Nicht nur zur Navigation, sondern auch um Umweltinformationen zu validieren, die von anderer Sensorik aufgenommen werden. Die Software im Fahrzeug nimmt dann von Sensoren generierte Karten, kombiniert sie mit den schon vorhandenen hochauflösenden Landkarten und leitet daraus wichtige Schlüsse ab.

Autonome Fahrzeuge haben durch die Kombination von 3-D-Karten, Radarsensoren und Live-Kamerabildern ein exaktes Bild ihrer Umgebung. Sind beispielsweise bei Schnee Fahrbahnmarkierungen nicht mehr verfügbar, kann sich das Fahrzeug an der Umgebung orientieren. Tesla nutzt dafür die eigene Flotte der verkauften Fahrzeuge und eine clevere „Schwarmfunktion“ ihrer Software: Zum Beispiel sammeln alle Tesla Model S, die derzeit auf den Straßen unterwegs sind, unentwegt Daten und stellen diese in der Cloud zur Verfügung. Diese Informationen werden in Echtzeit hochgeladen und allen anderen Fahrzeugen zur Verfügung gestellt, die auch auf dieser Strecke oder in dieser Gegend unterwegs sind. So wird z.B. über plötzlichen Regen oder Schneefall, eine Baustelle, Panne oder Unfall informiert.[1] Hier wird das Thema Datenökonomie relevant, auf das im Abschluss eingegangen wird.

5G: Konnektivität und Software Update Over-the-Air

Die Zeit schreibt: „Das selbstfahrende Auto braucht 5G“. Und Vodafone-Sprecher Markus Teubner beschreibt die Leistungsfähigkeit der nächsten Mobilfunkgeneration so: „5G ermöglicht die Datenübertragung in Echtzeit mit einer Verzögerungszeit von nur einer Millisekunde. Das ist kürzer als ein menschlicher Wimpernschlag.“ Die Übertragungstechnik von morgen müsse sich an den Anforderungen des menschlichen Auges und der Berührungssinne orientieren, erklärten die Experten mit Blick auf das selbstfahrende Auto, das in kritischen Situationen ebenso reflexartig reagieren muss wie ein menschlicher Fahrer.[2]

Dass Fahrzeugfunktionen bereits „Over-the-Air“ (OTA) verbessert werden können, hat Tesla an zwei Beispielen gezeigt: „Wegen zu schwacher Bremsen hatte das einflussreiche US-Verbrauchermagazin „Consumer Reports“ dem Tesla Model 3 zunächst die Auszeichnung mit seinem Qualitätssiegel „Kaufempfehlung“ verweigert. Nachdem der Hersteller per Software-Update nachbesserte, gibt es das begehrte Siegel nun doch. Dem Magazin zufolge konnte der Bremsweg durch die online durchgeführte Aktualisierung deutlich verkürzt werden.[3]

Auch die Beschleunigungswerte konnten ohne Besuch der Werkstatt verbessert werden. Demnach beschleunigte das Model S 100D in 3,3 statt 4,3 Sekunden von 0 auf 100 km/h. Beim Model X 100D wurden 4,5 statt 4,9 Sekunden für den Sprint auf 100 km/h angegeben.[4]

Wenn man bedenkt, dass sich der Fokus beim autonomen Fahren immer mehr in Richtung Software verschiebt und diese immer komplexer wird, sind OTA-Updates für die Fahrzeugflotte eine Schlüsseltechnologie – gerade beim Wechsel der Verantwortung von Fahrzeugführer zum Fahrzeug. Hier könnte eine fehlerhafte Softwareversion fatale Folgen haben und Fehler müssen so schnell wie möglich behoben werden können.

Digital Twin und Daten-Ökonomie

Für die Analysten von Gartner ist das Thema Digital Twin einer der zehn Top-Technologietrends (Stand 2017). So treiben derzeit alle deutschen Automobilhersteller das Thema mit Nachdruck voran. Über das digitale Abbild lässt sich einfach und schnell nachprüfen, ob und wie ein Teil nachgerüstet werden kann und ob es kompatibel zum Rest des Fahrzeuges ist. Der Nutzen fängt in der Produktentwicklung an, geht über die Produktion und endet im Aftersales, etwa bei der Planung von Rückrufaktionen.[5]

Bei Digital Twin erhalten reale Objekte und Prozesse ein virtuelles Software-Spiegelbild in der digitalen Welt. Digital Twins können helfen reale Fahrzeuge während ihres Lebenszyklus zu managen. Gerade bei der Transition der Verantwortung von Mensch zum Fahrzeug ist die Möglichkeit eines lückenlosen Nachweises wichtig, um möglichen Fehlern vorzubeugen und sicherheitsrelevante Trends über die gesamte Flotte zu erkennen.

Die gesammelten Daten des Digital Twins sind im Kontext des autonomen Fahrens natürlich auch für Anwendungsfälle von Dritten interessant. Dafür hat BMW bereits vor längerer Zeit die Telematik-Datenplattform BMW CarData ins Leben gerufen mit dem Ziel, Telematik-Daten, die vom Fahrzeug erfasst werden, zur Verfügung zu stellen. Kunden haben damit – wie auch von der EU DSGVO gefordert – die volle Transparenz, was ihre eigenen Daten angeht. Und Partnerfirmen können damit zusätzliche nutzenbringende Services für die Kunden entwickeln. Natürlich soll eine Datenweitergabe an die Partnerfirmen nur stattfinden, wenn der Kunde dem explizit zugestimmt hat.

War es bisher für Fahrzeughersteller wie BMW und andere üblich, materielle Güter zu verkaufen, investieren sie immer häufiger in digitale Geschäftsmodelle. Die hierfür notwendigen IT Systeme müssen entwickelt und nahtlos in die bestehende Infrastruktur integriert werden. Auch das Thema „Subscription Management“ bzw. „Billing und Payment“ zur Abrechnung der Services werden in diesem Kontext häufig diskutiert.

Beim Thema autonomes Fahren ist entscheidend, dass Dritte wie Versicherer oder Service-Partner auf Fahrzeugdaten zugreifen können und durch die Bereitstellung der Daten schlanke Prozesse ermöglicht werden, um ein optimales Kundenerlebnis zu ermöglichen. Somit lässt sich zum Beispiel das Einbinden von Service-Partnern, die sich um die Wartung von autonomen Fahrzeugen kümmern, einfach gestalten.

Fazit

Die Vernetzung des Fahrzeugs und die Möglichkeit, zügig Updates von Kartenmaterial oder Steuergerätesoftware über 5G im Fahrzeug vorzunehmen, ist ein entscheidender Baustein hin zum autonomen Fahren. So lassen sich Schwachstellen beispielsweise in Assistenzsystemen schnell und ohne kostspielige Rückrufaktionen ausbessern. Das digitale Spiegelbild des Fahrzeugs ermöglicht eine Einschätzung des Fahrzeugzustands in Echtzeit. Diese Daten sollen aber nicht nur von OEMs genutzt werden, sie ermöglichen auch Dritten, neue Services anzubieten.

Es bleibt spannend zu beobachten, wie sich die Technologien weiterentwickeln und wie schnell sich das autonome Fahren etablieren wird. Noch sind jedoch viele Herausforderungen zu meistern und Erfahrungswerte zu sammeln.

Für uns als IT Dienstleister bietet das Themenfeld „autonomes Fahren“ viele spannende Herausforderungen. Das gilt für die Projekte, in denen wir im Anforderungsmanagement und in der Software Entwicklung aktiv sind. Das gilt aber auch für die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung der benötigten Backend Systeme und der benötigten Infrastruktur.


zu Teil 1 Kerntechnologien automomes Fahren: Sensorik und Sensorfusion

zu Teil 2 Kerntechnologien automomes Fahren: V2X


Weitere Informationen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] http://www.auto-nomous.com/meinung/kartendienste-als-schluesseltechnologie-fuer-das-autonome-fahren/

[2] https://www.zeit.de/mobilitaet/2016-04/autonomes-fahren-mobilfunk-5g-echtzeitdaten/seite-2

[3] https://www.kfz-betrieb.vogel.de/bremsprobleme-des-tesla-3-mit-update-over-the-air-behoben-a-720627/

[4] https://teslamag.de/news/sekunden-update-beschleunigungswerte-model-s100d-16834

[5] https://www.computerwoche.de/a/wie-unternehmen-von-einem-digitalen-zwilling-profitieren,3544454

Codequalität für autonome Fahralgorithmen gewährleisten

Die Entwicklung autonomer Fahrzeuge ist ein Wettrennen, daher müssen schnellstmöglich stabile Algorithmen für das autonome Fahren entwickelt werden. Dafür müssen Bug Fixes und neue Features so schnell wie möglich implementiert werden, aber ohne die Qualität aus den Augen zu verlieren. Wie kann das gerade in solch großen und komplexen Projekten gewährleistet werden? Die Antwort findet sich in einer skalierbaren „Continuous Integration“ und Continuous Delivery“ Pipeline. Hier erfahren Sie wie der Aufbau einer skalierfähigen Continuous Integration und Continuous Delivery Pipeline in OpenShift funktionieren kann.

Continuous Integration und Delivery – was ist das?

Continuous Integration oder kurz CI sorgt dafür, dass neu entwickelter Code zusammengeführt, getestet und dann in die Gesamtcodebasis eingefügt wird. CI soll die Zusammenarbeit der Entwickler vereinfachen und dabei helfen Fehler frühzeitig zu erkennen.

continous integration

Abbildung 1: So funktioniert Continuous Integration [1]

Mehrere Entwickler arbeiten an neuen Features oder Bug Fixes. Sobald einer von ihnen sein Arbeitspaket fertiggestellt hat, wird der Code committet und genau hier setzt CI dann ein. Sobald der Code gepusht wird, überprüft CI ob der neue Code sich nahtlos in die schon vorhandene Codebasis einfügen lässt. Anschließend startet ein automatischer Build, der dann aufzeigt ob der Code fehlerfrei gebaut werden kann oder ob es fehlschlägt. Schlägt der Build fehl, muss der Entwickler den Bug finden und beheben und den Prozess erneut starten. War der Build fehlerfrei, wird getestet und das entsprechende Ergebnis reportet.

Continuous Delivery oder kurz CD sorgt dafür, dass eine aktuelle Version der Software verfügbar gemacht wird. CD erweitert das CI Vorgehen um den Punkt „Release“ (Continuous Integration + Release = Continuous Delivery). Dabei wird die neue Codebasis auf eine Produktivumgebung implementiert, sodass die neuen Features dort getestet werden können.

Umsetzung mit OpenShift

CI/CD ist einer der beliebtesten Anwendungsfälle für die OpenShift Container Plattform. OpenShift stellt Container für den Bau von Continuous Delivery-Pipelines zur Verfügung. Dies ermöglicht es unter anderem Jenkins, viele Aufträge parallel auszuführen und beseitigt die Wartezeit für die Ausführung von Builds in großen Projekten. OpenShift bietet eine End-to-End-Lösung für den Aufbau kompletter Bereitstellungspipelines und ermöglicht die notwendige Automatisierung, die für die Verwaltung von Code- und Konfigurationsänderungen über die Pipeline erforderlich ist.

Dieses Beispiel zeigt eine CI/CD-Infrastruktur auf OpenShift:

Beispielhafter Aufbau einer CI oder CD-Infrastruktur auf OpenShift

Abbildung 2: Beispielhafter Aufbau einer CI/CD-Infrastruktur auf OpenShift (eigene Darstellung)

Einsatz in der Fahralgorithmen Entwicklung

Wenn ein neues Feature für den Algorithmus entwickelt wird, beispielsweise eine Erkennung von Ampeln, dann wird dieses Feature in einzelne Module aufgeteilt. Dies wird gemacht, da ein solches Feature meist zu groß ist, um es mit nur einem Team zu entwickeln oder es zu zeitintensiv ist, um es in einem Sprint fertigzustellen. Jedes dieser Module wird daher getrennt (pro Team/Sprint) entwickelt und jedes durchläuft einen CI Prozess. Dadurch durchläuft jede Teilentwicklung Unit- und Integrationstests, wodurch die Codequalität jedes Moduls und dadurch auch jedes Features steigt.

CI oder CD Prozess anhand der Entwicklung eines neuen Fahralgorithmen Features

Abbildung 3: CI/CD Prozess anhand der Entwicklung eines neuen Fahralgorithmen Features (eigene Darstellung)

Ein CD erfolgt meist zu einem Sprint Ende oder pro Feature. Zum Sprint Ende werden dann mehrere neu entwickelte Features auf die E2E Umgebung und schlussendlich auf PROD deployed (siehe Abbildung 4). Bei der zweiten Herangehensweise wird ein Feature, sobald es fertig ist, deployed (siehe Abbildung 3).

Continous Delivery bei der Entwicklung autonomer Fahrfunktionen
Abbildung 4: Continous Delivery bei der Entwicklung autonomer Fahrfunktionen (eigene Darstellung)

Fazit: Was bringen CI und CD, auch im Umfeld autonomes Fahren?

Die Umsetzung einer CI und CD bringt einige Vorteile mit sich:

  • Da neue Features und Bug Fixes schneller auf der E2E beziehungsweise auf Produktivumgebung sind, kann früher mit Testfahrzeugen unter realen Bedingungen getestet und das Feedback der Kunden eingeholt werden.
  • Die gesamte Entwicklungs- und Testzeit neuer Features ist schneller, was eine übergreifend schnellere Entwicklung des Fahralgorithmus bedeutet. Das wiederrum kann einen Wettbewerbsvorteil in der Automobilbranche bringen.
  • Bugs werden früher erkannt und können besser identifiziert werden, da man nach jedem Commit weiß ob der Build geklappt hat oder nicht.
  • Daraus folgt eine übergreifend höhere Code- und Softwarequalität, was gerade für autonome Fahrfunktionen besonders wichtig ist.

Hier geht es zu Teil 1 und 3 der Blogserie:

Teil 1: Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Teil 3: Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift


Quellen:

[1] https://cloud.google.com/solutions/continuous-integration/images/hero-banner.png

https://blog.openshift.com/cicd-with-openshift/

Git Logo: https://git-scm.com/images/logos/2color-lightbg@2x.png

Jenkins Logo: https://miro.medium.com/max/2100/1*LOFbTP2SxXcFpM_qTsUSuw.png

SonarQube Logo: https://www.sonarqube.org/images/logos/sonarqube-dark.png

OpenShift Logo: https://upload.wikimedia.org/wikipedia/commons/thumb/3/3a/OpenShift-LogoType.svg/1200px-OpenShift-LogoType.svg.png

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 2: Vehicle-to-everything (V2X)

In Teil 1 unseres Blogbeitrags standen vor allem die Sensorik im Fahrzeug und virtuelle Testumgebungen im Fokus. Im Folgenden geht es um die Interaktion des Fahrzeugs mit seiner Umwelt, das Testen von autonomen Fahrfunktionen und die damit verbunden Herausforderungen. Mittels V2X-Kommunikation können Autos außer „fühlen“ und „sehen“ nun auch „hören“. Fahrzeuge und Verkehrsinfrastruktur werden über Funktechnologie vernetzt. Damit können Informationen zwischen Fahrzeugen untereinander und zwischen Fahrzeugen und der Verkehrsinfrastruktur (zum Beispiel Wechselverkehrszeichen und Lichtsignalanlagen) ausgetauscht und in Verkehrsmanagementsysteme integriert werden. Im V2X Kontext wird je nach Hersteller auch von C-V2X (Cellular-Vehicle-to-Everything) gesprochen, da die Verbindung auf Mobilfunk (Cellular) basiert.[1]

Die folgenden Grafiken von Qualcomm stellen die einzelnen V2X Elemente gut dar.[2]

V2X Elemente

Unter anderem sollen folgende Anwendungsfälle, ebenfalls von Qualcomm dargestellt, ermöglicht werden:

Anwendungsfälle von Qualcomm

Neben den Sicherheitsaspekten hat V2X auch einen ökologischen Aspekt. „Bei vollständiger Durchdringung mit auf V2X-Kommunikation basierenden Funktionen könnte ein jährlicher volkswirtschaftlicher Nutzen bis zu 6,5 Mrd. Euro durch vermiedene Straßenverkehrsunfälle und 4,9 Mrd. Euro durch die Vermeidung von Umweltbelastungen erzielt werden,“ schreibt der Verband der Automobilindustrie VDA.[3]

V2I – Kommunikation zwischen Fahrzeugen und Infrastruktur

Doch wie sieht der Status Quo bei den einzelnen Automobilherstellern aus?

Bei Volkswagen wird die Technologie Car2X genannt und soll in Kürze eingeführt werden. Erstes Ziel ist es, den Fahrer zum Beispiel über „grüne Wellen“ zu informieren und so unnötige Brems- und Beschleunigungsvorgänge zu vermeiden. Hierzu sollen zwei Wolfsburger Straßenkreuzungen mit entsprechender Sensorik ausgestattet werden, um Fußgänger und Radfahrer zu erfassen. An komplexen Kreuzungen und Unfallschwerpunkten sollen so Informationen bereitgestellt werden, die die Fahrzeuge selbst nicht erfassen können. Diese „kooperativen Sicherheitsfunktionen“ sollen in Situationen eingreifen, in denen der Fahrer oder das Fahrzeug die umgebenden Verkehrsteilnehmer mit eigener Sensorik nicht oder erst sehr spät erkennen können.[4]

Auch beim Stuttgarter Autobauer Daimler ermöglicht Car-to-X einen völlig neuartigen Austausch von Informationen. Die Intention ist die Gleiche: Das vernetzte Auto schaut damit um die Ecke und durch Wände. Es warnt Nachkommende vor Gefahren und verhindert Unfälle. Kurz: Es sorgt für mehr Sicherheit und Komfort. Die Fahrerassistenzsysteme stellen dem Fahrer weitere Sicherheits- und Komfortfunktionen zur Verfügung, womit ein weiteres Etappenziel auf dem Weg zum autonomen Fahren erreicht wird.[5] [6]

Audi hat im Mai 2019 angekündigt, dass nun auch in Deutschland eine Technik installiert werden soll, die seit zweieinhalb Jahren bereits in den USA für entspanntes und effizienteres Fahren sorgt. So will der Autohersteller neue Modelle mit den Ampeln in Ingolstadt vernetzen; weitere europäische Städte sollen ab 2020 folgen. Die Audi-Fahrer sollen im Cockpit sehen können, mit welcher gefahrenen Geschwindigkeit sie die nächste Ampel bei Grün erreichen. Das System wird „Green Light Optimized Speed Advisory“ (GLOSA) genannt. „In Zukunft können die anonymisierten Daten unserer Autos dabei helfen, Ampeln in Städten besser zu schalten und den Verkehrsfluss zu optimieren“, erläutert Andre Hainzlmaier, Leiter Entwicklung Apps, Connected Services und Smart City bei Audi.[7]

V2V – Kommunikation zwischen den Fahrzeugen

Auch die V2V (Vehicle-to-Vehicle) Kommunikation und die Vernetzung von Assistenzsystemen für die Automatisierung wird bereits getestet. Die Unternehmen Bosch, Vodafone und Huawei haben sich vor gut einem Jahr zusammengeschlossen, um Tests für die Nutzung des Mobilfunkstandards für das autonome Fahren durchzuführen. Diese Tests fanden bereits in China, Japan und den USA statt. Sie basieren auf 4G, aber künftig wird 5G kommen, das AT&T in den USA bereits einführt und mit dem der C-V2X Standard kompatibel ist. Vorbereitungstests wurden bereits auf dem digitalen Testfeld auf der A 9 in Bayern durchgeführt.

Bisher testete man mit dem Kommunikationsstandard Warnungen in Echtzeit in Sachen Bremsung und Spurwechsel. Als Nächstes will man die ACC (Automatic Cruise Control) in der Steuerung testen. Dieses System warnt nicht nur, sondern greift aktiv ein und bremst das Fahrzeug beispielsweise ab. Künftig sollen die Fahrzeuge darüber miteinander kommunizieren können und damit auch das autonome Fahren ermöglichen. So können die Sensordaten nicht nur einem Fahrzeug nutzen, sondern allen, die sich in der jeweiligen Verkehrssituation befinden. Diese Informationsübertragung soll in Quasi-Echtzeit geschehen, sodass die Systeme rechtzeitig eingreifen können.

Fazit

Die V2X Technologie ist ein wichtiger Schritt hin zum autonom fahrenden Fahrzeug. Die Kommunikation mit der Umwelt wie auch mit anderen Verkehrsteilnehmern ist ein essentieller Part, um Risiken zu reduzieren. Erkennt beispielsweise ein Sensor die Verkehrssituation nicht korrekt, kann V2V einen drohenden Unfall verhindern. V2X kann das Fahrzeug in kniffligen Situationen wie beispielsweise Baustellen oder einer geänderten Verkehrsführung in Echtzeit unterstützen.

doubleSlash ist aktuell in verschiedenen V2X Projekten im Anforderungsmanagement und in der Software-Entwicklung aktiv. Hierbei ist die Herausforderung, dem Fahrzeug aggregierte Daten aus verschiedenen Quellen (zum Beispiel verschiedene Verkehrsinformationsstellen) in hoher Geschwindigkeit bereitzustellen. Das Fahrzeug muss zu jedem Zeitpunkt die richtigen Informationen erhalten und auch die Daten speichern und verarbeiten, die per Rückkanal vom Fahrzeug kommen. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur –  zum Beispiel AWS – sind die größten Herausforderungen bei einer solchen Infrastruktur.

In Teil 1 beleuchten wir Sensorik und Sensorfusion

In Teil 3 unserer Serie wird auf das Thema Kartenmaterial, 5G sowie Digital Twin und Datenökonomie eingegangen.

Weitere Leistungen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[2] https://www.qualcomm.com/media/documents/files/cellular-vehicle-to-everything-c-v2x-technologies.pdf

[3] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[4] https://www.heise.de/newsticker/meldung/Volkswagen-und-Siemens-testen-Funk-fuer-Ampeln-4183853.html

[5] https://www.daimler.com/innovation/case/connectivity/car-to-x.html

[6] https://www.auto-motor-und-sport.de/verkehr/vehicle-2-x-datenuebertragung-globaler-streit/

[7] https://www.heise.de/newsticker/meldung/Audi-vernetzt-seine-Autos-nun-auch-in-Deutschland-mit-Ampeln-4421702.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 1: Sensorik und Sensorfusion

In unserer Blogserie wird auf die entscheidenden Kerntechnologien auf dem Weg zum selbst fahrenden Fahrzeug eingegangen. Beim autonomen Fahren gibt es aktuell viele Player: Etablierte Autobauer, den amerikanischen Autobauer Tesla, Branchenzulieferer, Technologiekonzerne wie Alphabet und Apple sowie Mobilitätsdienstleister wie Uber oder Dixi. Zwischen diesen Akteuren ist ein Wettlauf um die Neugestaltung des Fahrzeugmarktes entbrannt (siehe auch: „Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar“).

Aus Kundensicht ist der Gedanke des autonomen Fahrzeugs reizvoll: Morgens einsteigen, Nachrichten lesen, E-Mails beantworten oder nochmal kurz einen Power-Nap machen, während man sanft durch den dichten Berufsverkehr ins Büro gefahren wird. Geht es nach den Mobilitätsdienstleistern, werden wir in Zukunft keine Autos mehr besitzen, sondern uns Kilometer als Beförderungsleistung kaufen. Die Vision: Das Auto fährt vor und transportiert uns an das gewünschte Ziel.

In modernen Fahrzeugen stecken bereits heute zahlreiche Assistenzsysteme, die alle inneren und äußeren Vorgänge überwachen und dem Fahrer damit viele Aufgaben abnehmen: Brems- und Spurhalteassistent, Abstandsmesser oder Geschwindigkeitsregler. Doch trotz der Technik liegt im Moment noch die Entscheidungshoheit beim Fahrzeugführer, also beim Menschen.

Genau das soll sich in naher Zukunft ändern: „Wir sind schon nahe dran, denn IT- und Automobilhersteller führen gemeinsam mit Zulieferern bereits erste Tests durch. Und zwar nicht etwa auf Sonderstrecken, sondern sogar auf regulären Autobahnen wie auf der A9 zwischen Ingolstadt und Nürnberg – und mitten im Berufsverkehr“ sagt Rahman Jamal von National Instruments. Aktuell ist das autonome Fahren mit dem sogenannten Staupiloten bereits für mehrere Minuten möglich.[1]

Dieser Beitrag gibt einen Überblick über verschiedene Kerntechnologien, die das autonome Fahren reif für den Einsatz auf unseren Straßen machen sollen – im Berufsverkehr, aber auch in wesentlich komplexeren Umgebungen wie auf der Landstraße oder in der Stadt. Dazu gehören:

  • Sensorik (Teil 1)
  • Sensorfusion (Teil 1)
  • Virtuelle Testzentren (Teil 1)
  • Vehicle-to-everything – V2X (Teil 2)
  • Kartenmaterial (Teil 3)
  • Konnektivität und 5G (Teil 3)
  • Digital Twin und Daten-Ökonomie (Teil 3)

Sensorik – Die Sinnesorgane für das autonome Fahrzeug

Für ein autonom agierendes Fahrzeug sind Laser- und radargestützte Sensoren und Kameras mit 360° Rundblick, die alles in der näheren Umgebung, aber auch auf Entfernung analysieren, zwingend notwendig. Denn es muss eine Vielzahl an Parametern und Einflüssen aller Art berücksichtigen. Vereinfacht gesagt: Alles, was der Mensch über seine Sinnesorgane wahrnimmt. Je nach Konfiguration für das autonome Fahren reden wir über 15 benötigte Sensoren. Ihre Zahl steigt mit wachsender Komplexität der Anforderungen. Ein Radar etwa detektiert nicht mehr nur, dass etwas da ist und sich bewegt, sondern spezifiziert auch, um welches Objekt es sich handelt. „Erst wenn die Sensorik sehr genau ist, kann man die Verantwortung reduzieren und vom Fahrer an das System abgeben“, betont ein Experte von Audi.“[2]

Die Mehrheit der Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen ein weiterer unabhängiger Sensortyp, der Lidar, benötigt wird.

Lidarsysteme sind für vollautonomes Fahren ab Level 3 eine wichtige Voraussetzung. Mehrfach redundante Kamera- oder Radarsysteme erhöhen zwar die Zuverlässigkeit, doch Objekte, die das erste Radar/Kamerasystem womöglich systembedingt nicht erfasst, erfasst auch das zweite nicht. Hier braucht es einen weiteren Sensor – und das ist Lidar. Primär soll das System Entfernungen zu ruhenden und bewegten Objekten messen, aber auch durch besondere Verfahren dreidimensionale Bilder der erkannten Objekte liefern.[3]

Der Lidar empfängt die mit Laser ausgesendeten Signale mittels Multispektralkameras, die das Licht in mehreren Wellenlängen aufnehmen können. Das zurückfallende Licht des Lasers von der Oberfläche des Objekts lässt Rückschlüsse auf dessen Geschwindigkeit und Position zu. Mit diesen Daten kann man beispielsweise einen möglichen Kollisionskurs identifizieren und dem entgegnen.[4]

Bei den teils bereits verwendeten Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 und 250 Metern. Diese Kameras benutzen unter anderem Machine Learning Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und ihre Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Erkennung von Verkehrszeichen und Signalen verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.[5]

Radarsysteme sind schon länger in Fahrzeugen verfügbar und übernehmen unter anderem bereits heute folgende Aufgaben:

  • Blindspot Detection (Totwinkel-Überwachung)
  • Spurhalte- und Spurwechselassistent
  • Rückschauendes Radar zur Kollisionswarnung beziehungsweise Kollisionsvermeidung
  • Parkassistent
  • Querverkehr-Überwachung
  • Bremsassistent
  • Notbremsung
  • Automatische Abstandsregulierung

 

Sensorfusion – Zusammenspiel der Sensoren fürs autonome Fahren

Zum Erkennen der Vorgänge auf der Straße müssen die Daten von Kamera, Radar, Ultraschall, Laser usw. abgeglichen werden – Stichwort „Sensorfusion“. Viele Sensoren müssen zusammenspielen, um zu wissen, wo sich das Fahrzeug befindet und was vor und hinter dem Fahrzeug ist, um eine Risikoabschätzung vorzunehmen. Mithilfe von Sensorfusionen lassen sich nicht nur Schwächen einzelner Sensorsysteme ausgleichen, sondern auch eine höhere Ausfallssicherheit (Robustheit) mittels Redundanz gewährleisten. Ziele der Sensorfusion sind außerdem:

  • Verbessern der Genauigkeit
  • Verbessern der Objektklassifikation
  • Verfügbarkeit
  • Vergrößern des Gesamterfassungsbereichs
  • Detailreiche Objektbeschreibung

Darüber hinaus sollten Sensoren in der Lage sein, selbstständig per Algorithmen zu erkennen, wenn sie durch Temperatur, Sonneneinstrahlung, Dunkelheit, Regen oder Schnee außer Gefecht gesetzt werden. Ebenso müssen Marktspezifika wie etwa unterschiedliche Straßenschilder, Meilen statt Kilometer oder Sandverwehungen berücksichtigt werden.

Im folgenden Video lässt sich gut nachvollziehen, wie das Fahrzeug die Straße sieht und warum eine Sensorfusion benötigt wird:

Nicht zu vernachlässigen ist übrigens, dass der Abstimmungsaufwand, also die erforderliche Rechenleistung, um zu sachgerechten Entscheidungen zu kommen, komplexer wird, je mehr Sensorik eingebunden ist.

Virtuelle Testsimulation – Der Weg zu Millionen von Testkilometern

Die gesammelten Daten der Sensorik sind elementar, um virtuelle Testszenarien zu kreieren. Immer mehr OEMs und Automobilzulieferer setzen hier auf die Möglichkeit von Simulationen. Die virtuelle Welt der Simulation ist in Bezug auf Assistenzsysteme von zweifacher Bedeutung. Erstens: Die Tests können über Tage bis hin zu Wochen in allen denkbaren Situationen durchgeführt werden, unabhängig von Testfahrzeugen. Das kann die Entwicklungszeit enorm beschleunigen. Zweitens: die Sicherheit. Das selbstfahrende Auto muss sämtliche Verkehrssituationen bewerten können, sollten sie auch noch so unwahrscheinlich sein. So können zum Beispiel alle Wettereinflüsse simuliert werden. Solche Szenarien lassen sich allein aus Sicherheitsgründen nicht auf öffentlichen Straßen testen, wenn beispielsweise viele Teilnehmer im komplexen Innenstadtverkehr involviert sind.[6]

Mithilfe von Simulationen kann man statt 10.000 Kilometer pro Monat virtuell 8.000 Kilometer pro Stunde zurücklegen. Das spart nicht nur Zeit und Geld, sondern schont auch die Umwelt. Außerdem lassen sich Situationen exakt reproduzieren und beispielsweise neue Versionen eines Algorithmus unter den identischen Bedingungen erneut testen. Fehler werden somit reproduzierbar – und Lösungen schneller gefunden.[7]

Doch wie viele Testkilometer sind notwendig, um ein Auto zum eigenständigen Fahren zu befähigen? BMW etwa beziffert den Testaufwand auf 230 Millionen Kilometer. „Rund 95 Prozent der Testkilometer werden per Simulation absolviert“, schätzt Martin Peller, Leiter der Fahrsimulation bei BMW.[8]

Fazit

Schon heute gibt es verschiedenste Assistenzsysteme, die den Autofahrer unterstützen. Für das autonome Fahren werden jedoch ganz neue, wesentlich komplexere Anforderungen an die Sensorik gestellt. Während der Fahrer heute ein Fehlverhalten der Sensorik erkennt und entsprechend handelt, muss dies künftig durch die Sensorfusion erkannt werden. Um dies zu perfektionieren, ist die Simulation eine kostengünstige Möglichkeit.

Für uns als IT Dienstleister stecken im Thema autonomes Fahren insbesondere bei der Konzeption und Entwicklung von Backend Systemen in der Cloud spannende Herausforderungen. Die gesamte Sensorik generiert terabyteweise Daten, die gespeichert, klassifiziert und zu Trainingszwecken wie in der angesprochenen Simulationsumgebung in unterschiedlichsten Szenarien wieder verwendet werden können. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur etwa von AWS sind die größten Herausforderungen bei einer solchen Infrastruktur.

Zu Teil 2 mit dem Thema: V2X – Vehicle-to-everything

 

Weitere Informationen rund um das autonome Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[2] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[3] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[4] https://www.autonomes-fahren.de/lidar-licht-radar/

[5] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[6] https://www.autonomes-fahren.de/vw-simulation-fuer-assistenzsysteme/

[7] https://www.autonomes-fahren.de/continental-kooperiert-mit-aai-fuer-autonomes-fahren/

[8] https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

 

Mit der Cloud vielfältige Fahrszenarien lernen – Wie die Cloud bei großen Datenmengen in der Testausführung von autonomen Fahrzeugen unterstützt

Jeder spricht darüber und alle großen Automobilhersteller entwickeln es – das autonome Fahrzeug. Doch wie „lernt“ ein Fahrzeug, selbständig zu fahren und mit der Flut an Datenmengen (Szenarien, Sensoren etc.) umzugehen? Wir zeigen Ihnen, warum die Cloud einen großen Teil dazu beiträgt und wie der Nutzen der skalierbaren Cloud für die Verarbeitung großer Datenmengen durch Function as a Service (FaaS) entsteht.

Vorsicht Fahranfänger – Wie Fahrzeuge mit riesigen Datenmengen umgehen lernen?

Genauso wie wir Menschen das Fahren lernen – mit Übung. Je mehr Kilometer wir fahren, desto sicherer werden wir im Straßenverkehr. „Learning by doing“ ist hier das Stichwort. Fahrzeuge tun das mit Hilfe von Sensoren, Rechenkapazität und dem Einsatz künstlicher Intelligenz (KI). Die Sensoren überwachen pausenlos umliegenden Gebäude, Fußgängerwege, Verkehrsteilnehmer und andere Personen. Die Rechner verarbeiten diese gewaltige Datenflut mit Hilfe von Algorithmen. Diese interpretieren dann die Daten und schaffen so ein Bild der Umgebung des Fahrzeugs und reagieren darauf.

Sensoren autonomes Fahren

 

 

 

 

 

 

 

 

 

 

( zu sehen 09:36 How a driverless car sees the road Quelle: YouTube)

Sensoren und KI autonomes Fahren

 

 

 

 

 

 

 

 

 

 

(09:44 How a driverless car sees the road Quelle: YouTube)

Über das maschinelle Lernen tasten sich die Systeme immer mehr an komplizierte Situationen im Straßenverkehr heran. Die Königsdisziplin ist der Arc de Triomphe in Paris – eine Herausforderung für den normalen Autofahrer und eine enorme Herausforderung für ein autonomes Fahrzeug – auch im Hinblick der in dieser Situation zu meisternden Datenmengen.

KI Algorithmen werden mit Hilfe großer Datenmengen trainiert, damit sie Verkehrssituationen richtig interpretieren, vor allem aber korrekt darauf reagieren können. Dafür werden viele Millionen gefahrene Testkilometer benötigt. Aber vor der Quantität steht die Qualität, denn bei perfekten Bedingungen kann jeder fahren. Ein leistungsstarker Algorithmus muss mit Extremsituationen umgehen können, weshalb er gerade diese lernen muss. Doch wie bringt man ein Fahrzeug kontrolliert in teilweise gefährliche Extremsituationen?

Simulieren statt Probieren

Die enorme Anzahl an zu fahrenden Testkilometern und das Testen gefährlicher Extremsituationen, kann während der Entwicklung eines Algorithmus nicht geliefert werden. Denn nach jeder Änderung an diesen Algorithmen müssten diese Testkilometererneut gefahren werden. Um dieses Problem zu lösen, wird ein Großteil der Testkilometer virtuell per Simulation zurückgelegt. BMW spricht davon, dass „rund 95% der Testkilometer per Simulation absolviert werden“, so Martin Peller [1], Leiter der Fahrsimulation bei BMW. Diese Simulationen können nun entweder in der Cloud oder OnPremise betrieben werden.

Hoch performante Cloud-Anwendungen als Basis

Die Cloud bietet eine Vielzahl von Vorteilen gegenüber einer On-Premise (Vor Ort) Lösung:

  • Kein eigenes Rechenzentrum und somit auch einen geringeren Personalaufwand
  • Der Cloud Anbieter liefert meist Support und Wartung Rund um die Uhr
  • Die Rechenleistung ist flexibel skalierbar und lässt sich somit perfekt an den Bedarf anpassen
  • Die räumliche Unabhängigkeit bietet einen Zugriff von jedem beliebigen Ort aus
  • Cloud Anbieter gewährleisten dank Sicherheitskopien und Co eine hohe Datensicherung
  • Keine Investitionskosten für Server-Hardware, was den Einstieg kostengünstiger macht

All diese Punkte sprechen für eine Cloud-Lösung und zeigen auf, warum Cloud-Computing-Anbieter wie AWS (Amazon Web Services) und Microsoft Azure so eine Marktrelevanz haben. Auch wir bei doubleSlash beschäftigen uns mit den Big Playern des Cloud Computing und entwickeln hoch performante Cloud Anwendungen. Speziell eben auch im Bereich der Testfahrten-Simulation für autonome Fahrzeuge. Solch performante Lösungen nennt man „Function as a Service“ oder kurz FaaS.

Fazit: Function as a Service als wichtiger Bestandteil bei der Entwicklung autonomer Fahrzeuge

Anwendungen wie die Simulation von Testfahrten oder der Sprachassistent Alexa sind Beispiele für eine Function as a Service (FaaS) Lösung. Dabei werden dem Anwender einzelne Funktionen zur Verfügung gestellt, die angesprochen werden können und innerhalb kürzester Zeit Ergebnisse liefern. Bei Alexa wäre das beispielsweise eine Anfrage, wie das Wetter morgen wird.

Daher findet der FaaS Ansatz häufig dann seinen Einsatz, wenn Performanz und Skalierbarkeit Kernanforderungen an die Lösung sind. Zudem wird nur die tatsächliche Rechenzeit, die zur Ausführung der Funktionen benötigt wird, in Rechnung gestellt.

FaaS-Lösungen und damit leistungsfähige Cloud Infrastrukturen wie Azure und AWS sind also ein wichtiger Bestandteil der Entwicklung autonomer Fahrzeuge.


Hier geht es zu Teil 2 und 3 der Blogserie:

Teil 2: Codequalität für autonome Fahralgorithmen gewährleisten

Teil 3: Application Performance Monitoring (APM) von Microservices und FaaS in OpenShift


Weitere Artikel rundum das autonome Fahren:

https://blog.doubleslash.de/autonomes-fahren-im-praxistest-zf-teststrecke-im-selbstversuch/

https://blog.doubleslash.de/vision-zero-durch-autonomes-fahren/

https://blog.doubleslash.de/von-driver-only-bis-roboter-taxi-die-herausforderungen-beim-automatisierten-fahren/


Quellen:

https://www.bmw.com/de/innovation/die-entwicklung-selbstfahrender-autos.html

https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

https://www.it-management.today/on-premise-vs-cloud-software-vor-und-nachteile/

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch – Teil 2

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten sammeln und gängige Situationen des autonomen Fahrens in der Praxis erprobt werden können.Mehr

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke für autonomes Fahren ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten aus gängigen Verkehrssituationen sammeln.Mehr

Welche Rolle spielt das Human Interface Design (HMI) für die autonome Logistik?

Der Hype rund um das autonome Fahren beschäftigt mittlerweile auch die Logistikbranche. Führende Automobilzulieferer investieren bereits zweistellige Milliardensummen in dieses Zukunftsfeld. So präsentierte sich z.B. die ZF Friedrichshafen AG letztes Jahr auf der IAA für Nutzfahrzeuge in Hannover mit intelligenter, vernetzter Fahrzeugtechnik, die logistische Prozesse effizienter und sicherer machen soll. Hierzu gehören unter anderem Vorgänge wie das „autonome Satteln“ oder das anspruchsvolle Ab-, Auf- sowie Umsetzen von Containern. Aber auch das Überwachen von Vorgängen über Echtzeitvisualisierungen und die Interaktion mit den Fahrzeugen über spezielle Human Interface Designs (HMIs) sowie Augmented Reality Lösungen spielen hier eine Rolle.Mehr

„Vision Zero“ durch autonomes Fahren?

Seitdem das Automobil am 29. Januar 1886 von Carl Benz patentiert wurde, hat es sich über die Jahre hinweg weiterentwickelt. Neue Technik bringt die Mobilität wie auch Sicherheit der Autos voran. Und heute schon stehen wir vor dem Wandel vom selbst bewegten zum selbständigen Fahrzeug.
Doch wann spricht man überhaupt von selbständigem oder vollautomatisiertem Fahren und welche zusätzlichen Sicherheitspotenziale verspricht diese prophezeite Art der Mobilität? Mehr