Wie funktioniert die Digitalisierung in der Instandhaltung als Grundlage für Predictive Maintenance?

Wie im Beitrag „Mit Predictive Maintenance zu neuen Geschäftsmodellen“ beschrieben, können durch eine vorausschauende Wartung ungeplante Stör- oder Ausfälle von Maschinen erheblich reduziert oder sogar verhindert werden.

Predictive Maintenance birgt somit ein großes Einsparpotenzial beim Betrieb und Wartung von Maschinen. Die Voraussetzung für eine vorausschauende Wartung ist jedoch zunächst, dass die entsprechenden Daten zu auftretenden Störungen, Ausfällen und Reparaturen gesammelt werden, um sie analysieren zu können. Je vollständiger die zu Grunde liegende Datenbasis ist, desto genauere Vorhersagen sind möglich.

Keine vorausschauende Instandhaltung ohne solide Datenbasis

Ohne eine umfangreiche und belastbare Datenbasis als Grundlage, ist eine vorausschauende Wartung nicht möglich. Unternehmen, die in Zukunft Predictive Maintenance einsetzen wollen, sollten deshalb frühzeitig damit beginnen, zielgerichtet Daten zu sammeln, beispielsweise durch eine digitale Servicelösung.

Die kontinuierliche Datenerfassung durch die Digitalisierung in der Wartung und Instandhaltung ist die Basis für weitere Maßnahmen. Wenn Daten zu Störungen und Ausfällen von Maschinenteilen digital erfasst werden, können sie als Grundlage für zukünftige Auswertungen dienen. Dadurch kann im Idealfall verhindert werden, dass es zu Stillständen der Maschinen kommt.

Vorbeugung statt Reaktion: Von Breakdown zu Preventive Maintenance

Werden Reparaturen erst durchgeführt, nachdem ein Anlagenteil ausgefallen ist, spricht man von „Reactive“ oder „Breakdown Maintenance“.1  Dann entstehen erhöhte Kosten durch unvorhergesehene Stillstände sowie erhöhte Personalkosten. Denn es wird kurzfristig geschultes Personal benötigt, das die ausgefallene Maschine in möglichst kurzer Zeit wieder zum Laufen bringt. Außerdem müssen die notwendigen Ersatzteile schnell verfügbar sein.

Besser ist es, solche Ausfälle durch regelmäßige Wartungsmaßnahmen zu verhindern. Festgelegte Wartungspläne und ein vorsorglicher Austausch von Komponenten bevor die Ausfallwahrscheinlichkeit auf ein nicht mehr akzeptables Maß ansteigt, nennt man „Preventive Maintenance“.2 Durch die regelmäßigen Instandhaltungsarbeiten kann eine hohe Verfügbarkeit der Anlagen garantiert und die Lebensdauer der Maschinen erhöht werden.

Die dafür notwendigen Wartungsprozesse lassen sich durch Digitalisierung effizienter, schneller und kostengünstiger umsetzen. Außerdem kann dadurch eine Datenbasis geschaffen werden, die in Zukunft als Grundlage für eine vorausschauende Wartung – Predictive Maintenance – dienen kann.

Unsere Kunden setzen auf digitale Servicelösungen für Wartungsprozesse

Aus diesen Gründen hat sich einer unserer Kunden aus der Intralogistik-Branche dafür entschieden, für Wartungsprozesse im Bereich Batterieladetechnik auf eine digitale Servicelösung zu setzen. Ziel ist es, den Wartungsprozess für Batterien effizienter und transparenter zu gestalten und eine Datenbasis für eine Auswertung der Wartungsdaten zu sammeln.

In Zusammenarbeit mit doubleSlash wurde der Wartungsprozess für Batterien digitalisiert. Die Service Techniker benötigen nun keine Papierformulare mehr, sondern können alle Wartungsdaten über eine mobile Anwendung eingeben. Die App unterstützt den Service Techniker bei jedem Wartungsschritt und erlaubt es, Wartungsarten flexibel auszuwählen und auf Störungen zu reagieren. Alle Daten, die bereits vom System ermittelt werden können, müssen nicht mehr eingegeben werden, sondern werden automatisch zur Verfügung gestellt.

Beispielsweise werden die Batterien nur noch eingescannt – das System setzt dann automatisiert die Stammdaten und wählt die benötigte Wartungsart für die jeweilige Batterie aus. Dadurch können sich die Service Techniker auf die kritischen Prozessschritte konzentrieren und diesen mehr Zeit widmen. Das verbessert insgesamt die Prozessqualität.

Um die Service Techniker vor Ort bei ihrer Arbeit optimal unterstützen zu können, wurden sie direkt in die Entwicklung der Anwendung einbezogen. Dadurch konnte der digitalisierte Wartungsprozess so optimiert werden, dass er genau auf ihre Anforderungen zugeschnitten ist.

Nachdem sich die Anwendung im produktiven Einsatz bewährt hatte, wurde der Prozess für die Wartung von Ladegeräten ebenfalls digitalisiert. Mit der erweiterten Anwendung kann der Wartungsprozess nun sowohl für Batterien als auch für Ladegeräte durchgeführt werden.

Fazit: Kontinuierliche Datenerfassung und regelmäßige Analyse als Basis für Predictive Maintenance

Alle Wartungsdaten, die die Service Techniker eingeben, werden gesammelt und zentral gespeichert. Anhand der gesammelten Daten entsteht ein erster Eindruck von Reparaturfällen und Häufigkeiten von bestimmten Störungen. Diese Daten können nun ausgewertet und weiterverarbeitet werden.

Auf Grundlage der gesammelten Daten aus den durchgeführten Wartungsprozessen möchte unser Kunde in Zukunft ein umfangreiches Reporting umsetzen. Zur kontinuierlichen Datenerfassung kommt dann eine regelmäßige Datenanalyse hinzu. Dies ist die Basis für weitere Maßnahmen und ein entscheidender Schritt in Richtung Predictive Maintenance.

Hier mehr über Predictive Maintenance erfahren

 

Diese Blogbeiträge könnten Dich auch interessieren:

Best Practices bei der Umsetzung von Predictive Maintenance – Ein Erfahrungsbericht

Die Zukunft von Predictive Maintenance: On the way to intelligent-prescriptive-predictive maintenance


Quellen:

1 http://www.businessdictionary.com/definition/breakdown-maintenance.html

2 http://www.businessdictionary.com/definition/planned-maintenance.html

Vorbereitung ist alles: Wie die erfolgreiche Einführung eines Remote Service gelingt

 

„Mein PC zeigt eine komische Meldung an. Was muss ich jetzt drücken?“

„Ich bin schon bei der Arbeit – kannst du bitte schauen, ob ich das Bügeleisen ausgeschaltet habe?“

 

Im Alltag gibt es häufig Probleme, die wir remote lösen möchten. Oft funktioniert dies auch – manchmal ist die Problemlösung aber nicht so einfach umsetzbar, da die technischen Voraussetzungen nicht vorhanden sind.

Ähnliche Schwierigkeiten finden wir auch in der Industrie. Taucht beispielsweise an einer Maschine beim Kunden ein Fehler auf und die Maschine läuft nicht mehr, heißt es so schnell wie möglich handeln und das Problem remote identifizieren. Denn der plötzliche Stillstand einer Maschine bedeutet nicht nur wirtschaftliche Verluste, sondern mindert auch die Kundenzufriedenheit. Ehe eine nicht durchdachte Problembeseitigung angesteuert wird, ist eine Vorabanalyse in jedem Fall nötig: Vorbereitung ist alles, um Störungsfälle aus der Ferne effizient zu beheben. Der Lösungsansatz: die Einführung von Remote Services – doch wie vorgehen und was sollte beachtet werden?

Die gängigsten Remote Services

Unzählige UseCases werden im Bereich von Remote Services geboten. Die Favoriten darunter sind Sensorwerte, Remote Desktop, Log-/Konfigurationsdateien und Softwareupdates. Dabei lassen sich Sensorwerte anzeigen, so dass mögliche Fehlerquellen direkt identifiziert bzw. ausgeschlossen werden können. Auf diese Weise können defekte Teile schnell gefunden und so eine Reparatur effizient geplant werden. Um direkt die Oberfläche eines Produktes einsehen zu können und mit dieser zu agieren, ist die Nutzung von Remote Desktop weit verbreitet. Log-/Konfigurationsdateien werden wiederum übertragen, um Fehler zu analysieren und Einstellungen zu ändern. Eine weitere Anwendung ist die Bereitstellung und Auslieferung von Softwareupdates für neuste Sicherheitsupdates oder Features.

Die Bedienung: einfach aber effektiv

Eine Oberfläche zur Einsicht und Nutzung aller Funktionen muss erstellt werden. Die verfügbaren Daten müssen für den Nutzer übersichtlich aufbereitet und dargestellt werden, so dass ein Problem schnell gefunden werden kann. Für eine gute UserExperience ist hier auch ein Augenmerk auf die Endgeräte zu legen mit denen die Oberfläche bedient werden soll (Smartphone, PC, …). Des Weiteren müssen Benachrichtigungen versandt werden, um bei Problemen automatisch Verantwortliche zu informieren bzw. im Idealfall einen bevorstehenden Ausfall vorherzusehen (siehe auch Best Practices bei der Umsetzung von Predictive Maintenance).

Herausforderungen

Nachdem die Rahmenbedingungen festgelegt sind, gilt es zur erfolgreichen Realisierung von Remote Service verschiedene, komplexe Phasen zu durchlaufen:

  1. Connectivity: Das Vernetzen der Geräte ist Grundlage des Remote Service. Die Daten müssen remote abgreifbar sein. Hier gibt es oft auch bereits vorhandene Schnittstellen, da das Produkt bereits mit anderen Produkten kommunizieren muss. An diese kann man anknüpfen.
  2. Condition Monitoring: Automatisches Überwachen des Zustandes der Geräte. Hierbei gilt es die relevanten Datenwerte zu finden, die für einen Ausfall sorgen können.
  3. Alerting: Bei kritischen Zuständen müssen Verantwortliche angemessen alarmiert werden. Hierzu müssen zunächst kritische Zustände definiert und Verantwortliche gefunden werden.
  4. Predictive Maintenance, Prescriptive Maintenance: In diesem Fall wird vorab erkannt, dass ein Produkt ausfallen wird. So kann es proaktiv gewartet und Ausfallzeiten verhindert werden.

 

Des Weiteren müssen Abläufe definiert werden, die in enger Abstimmung mit den Service-Technikern wie auch mit den Kunden erstellt werden. Für ein Softwareupdate muss beispielsweise geklärt sein, wann und von wem dieses eingespielt werden darf. Wird das Produkt gerade eingesetzt, so wäre ein automatisiertes Update nicht gewünscht – evtl. sogar kritisch.

Eine weitere Herausforderung ist die Berücksichtigung des Datenschutzes: Wo werden die Daten z.B. gespeichert (On Premise, Cloud)? Wer kann welche Daten einsehen (Rechte und Rollen)? Müssen Daten zensiert werden (DSGVO)?

Remote Service mit ThingWorx

Mit unserem IoT Partner PTC und der ThingWorx-Plattform, haben wir bereits einige Remote Service Lösungen umgesetzt. Hierbei stellt sich ThingWorx als sehr flexibel heraus und bietet bereits Of-the-box-Lösungen an:

Connectivity: Neben einer Kepware-Integration zur direkten Anbindung von Produkten, die bereits Industriestandard Protokolle wie OPC nutzen, werden unter anderem auch SDKs für verschiedene Programmiersprachen angeboten. Vorhandene Systeme wie Mail, ERP oder Datenbanken können über Standard-Module wie auch einer REST-API angebunden werden. Kundenspezifische Protokolle über Protocol Adapter.

Dashboards: Durch den Mashup Builder können eigene Oberflächen erstellt werden. Auch bietet PTC mit Zusatzmodulen wie die ThingWorx Apps1 eine vorkonfigurierte Oberfläche für IoT Anwendungen. Diese kann nach Bedarf erweitert werden.

Remote Desktop: Neben einer integrierten Tunneling Lösung, die ohne aufwändiges VPN (VirtualPrivateNetwork) eine sichere Verbindung zu Applikationen wie Remote Desktop aufbauen kann, bietet ThingWorx auch eine TeamViewer Integration wie auch weitere Remote Assistance-Lösungen wie Augmented Reality2.

Predictive Maintenance: Mit ThingWorx Analytics3 können Machine Learning Projekte umgesetzt werden, die Ausfälle von Maschinen vorhersagen können sollen.

Fazit

Remote Service kann die Wartung von Geräten stark vereinfachen und dem Kunden sowie der Produktion einen hohen Mehrwert bieten. Damit dies reibungslos funktioniert muss eine Lösung sorgfältig geplant werden. Eine flexible Plattform ist hier von Vorteil, die sich auch für kommende UseCases einsetzen lässt. Hier legt ThingWorx mit den Out-of-the-Box Lösungen eine gute Grundlage bereit, ein Remote Service Projekt zu starten.

Der Bonus: Sind die Produkte erstmal connected, so bieten sich neben Remote Service auch weitere Einsatzzwecke der Daten an: Dashboards für den Kunden, Machine Learning, Auslastung der Produkte um Verbesserungspotentiale zu entdecken und noch viele weitere, auch ungeahnte Möglichkeiten, die man zuvor gar nicht in Betracht gezogen hatte.

Template Business Case herunterladen

 

Das könnte Dich auch interessieren: Praktische Predictive Services Anwendungen aus der Industrie


Links:

1 ThingWorx Apps

2 Industrial Augmented Reality für den Service

3 Predictive Analytics unterstützt durch Machine Learning

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 3: Kartenmaterial, 5G, Digital Twin und Datenökonomie

In Teil 1 unseres Blogbeitrags standen vor allem die Sensoren im Fahrzeug im Fokus, in Teil 2 wurde das Thema V2X vorgestellt. Im Folgenden wird das Thema autonomes Fahren aus dem Blickwinkel Kartenmaterial, Konnektivität und Vernetzung der Fahrzeuge betrachtet.

Kartenmaterial Over-the-Air: Orientierung für das autonome Fahrzeug

2016 kauften Audi, BMW und Daimler den Kartendienst „Here“ vom finnischen Nokia-Konzern. Das zeigt die Relevanz von Kartenmaterial. Die drei Autobauer haben sich zusammengetan, um zu verhindern, dass die Schlüsseltechnologie für Navigation, Assistenzsysteme und autonomes Fahren in die Hand von Google oder einem anderen Internetkonzern gerät.

Doch warum ist Kartenmaterial so wichtig? Nicht nur zur Navigation, sondern auch um Umweltinformationen zu validieren, die von anderer Sensorik aufgenommen werden. Die Software im Fahrzeug nimmt dann von Sensoren generierte Karten, kombiniert sie mit den schon vorhandenen hochauflösenden Landkarten und leitet daraus wichtige Schlüsse ab.

Autonome Fahrzeuge haben durch die Kombination von 3-D-Karten, Radarsensoren und Live-Kamerabildern ein exaktes Bild ihrer Umgebung. Sind beispielsweise bei Schnee Fahrbahnmarkierungen nicht mehr verfügbar, kann sich das Fahrzeug an der Umgebung orientieren. Tesla nutzt dafür die eigene Flotte der verkauften Fahrzeuge und eine clevere „Schwarmfunktion“ ihrer Software: Zum Beispiel sammeln alle Tesla Model S, die derzeit auf den Straßen unterwegs sind, unentwegt Daten und stellen diese in der Cloud zur Verfügung. Diese Informationen werden in Echtzeit hochgeladen und allen anderen Fahrzeugen zur Verfügung gestellt, die auch auf dieser Strecke oder in dieser Gegend unterwegs sind. So wird z.B. über plötzlichen Regen oder Schneefall, eine Baustelle, Panne oder Unfall informiert.[1] Hier wird das Thema Datenökonomie relevant, auf das im Abschluss eingegangen wird.

5G: Konnektivität und Software Update Over-the-Air

Die Zeit schreibt: „Das selbstfahrende Auto braucht 5G“. Und Vodafone-Sprecher Markus Teubner beschreibt die Leistungsfähigkeit der nächsten Mobilfunkgeneration so: „5G ermöglicht die Datenübertragung in Echtzeit mit einer Verzögerungszeit von nur einer Millisekunde. Das ist kürzer als ein menschlicher Wimpernschlag.“ Die Übertragungstechnik von morgen müsse sich an den Anforderungen des menschlichen Auges und der Berührungssinne orientieren, erklärten die Experten mit Blick auf das selbstfahrende Auto, das in kritischen Situationen ebenso reflexartig reagieren muss wie ein menschlicher Fahrer.[2]

Dass Fahrzeugfunktionen bereits „Over-the-Air“ (OTA) verbessert werden können, hat Tesla an zwei Beispielen gezeigt: „Wegen zu schwacher Bremsen hatte das einflussreiche US-Verbrauchermagazin „Consumer Reports“ dem Tesla Model 3 zunächst die Auszeichnung mit seinem Qualitätssiegel „Kaufempfehlung“ verweigert. Nachdem der Hersteller per Software-Update nachbesserte, gibt es das begehrte Siegel nun doch. Dem Magazin zufolge konnte der Bremsweg durch die online durchgeführte Aktualisierung deutlich verkürzt werden.[3]

Auch die Beschleunigungswerte konnten ohne Besuch der Werkstatt verbessert werden. Demnach beschleunigte das Model S 100D in 3,3 statt 4,3 Sekunden von 0 auf 100 km/h. Beim Model X 100D wurden 4,5 statt 4,9 Sekunden für den Sprint auf 100 km/h angegeben.[4]

Wenn man bedenkt, dass sich der Fokus beim autonomen Fahren immer mehr in Richtung Software verschiebt und diese immer komplexer wird, sind OTA-Updates für die Fahrzeugflotte eine Schlüsseltechnologie – gerade beim Wechsel der Verantwortung von Fahrzeugführer zum Fahrzeug. Hier könnte eine fehlerhafte Softwareversion fatale Folgen haben und Fehler müssen so schnell wie möglich behoben werden können.

Digital Twin und Daten-Ökonomie

Für die Analysten von Gartner ist das Thema Digital Twin einer der zehn Top-Technologietrends (Stand 2017). So treiben derzeit alle deutschen Automobilhersteller das Thema mit Nachdruck voran. Über das digitale Abbild lässt sich einfach und schnell nachprüfen, ob und wie ein Teil nachgerüstet werden kann und ob es kompatibel zum Rest des Fahrzeuges ist. Der Nutzen fängt in der Produktentwicklung an, geht über die Produktion und endet im Aftersales, etwa bei der Planung von Rückrufaktionen.[5]

Bei Digital Twin erhalten reale Objekte und Prozesse ein virtuelles Software-Spiegelbild in der digitalen Welt. Digital Twins können helfen reale Fahrzeuge während ihres Lebenszyklus zu managen. Gerade bei der Transition der Verantwortung von Mensch zum Fahrzeug ist die Möglichkeit eines lückenlosen Nachweises wichtig, um möglichen Fehlern vorzubeugen und sicherheitsrelevante Trends über die gesamte Flotte zu erkennen.

Die gesammelten Daten des Digital Twins sind im Kontext des autonomen Fahrens natürlich auch für Anwendungsfälle von Dritten interessant. Dafür hat BMW bereits vor längerer Zeit die Telematik-Datenplattform BMW CarData ins Leben gerufen mit dem Ziel, Telematik-Daten, die vom Fahrzeug erfasst werden, zur Verfügung zu stellen. Kunden haben damit – wie auch von der EU DSGVO gefordert – die volle Transparenz, was ihre eigenen Daten angeht. Und Partnerfirmen können damit zusätzliche nutzenbringende Services für die Kunden entwickeln. Natürlich soll eine Datenweitergabe an die Partnerfirmen nur stattfinden, wenn der Kunde dem explizit zugestimmt hat.

War es bisher für Fahrzeughersteller wie BMW und andere üblich, materielle Güter zu verkaufen, investieren sie immer häufiger in digitale Geschäftsmodelle. Die hierfür notwendigen IT Systeme müssen entwickelt und nahtlos in die bestehende Infrastruktur integriert werden. Auch das Thema „Subscription Management“ bzw. „Billing und Payment“ zur Abrechnung der Services werden in diesem Kontext häufig diskutiert.

Beim Thema autonomes Fahren ist entscheidend, dass Dritte wie Versicherer oder Service-Partner auf Fahrzeugdaten zugreifen können und durch die Bereitstellung der Daten schlanke Prozesse ermöglicht werden, um ein optimales Kundenerlebnis zu ermöglichen. Somit lässt sich zum Beispiel das Einbinden von Service-Partnern, die sich um die Wartung von autonomen Fahrzeugen kümmern, einfach gestalten.

Fazit

Die Vernetzung des Fahrzeugs und die Möglichkeit, zügig Updates von Kartenmaterial oder Steuergerätesoftware über 5G im Fahrzeug vorzunehmen, ist ein entscheidender Baustein hin zum autonomen Fahren. So lassen sich Schwachstellen beispielsweise in Assistenzsystemen schnell und ohne kostspielige Rückrufaktionen ausbessern. Das digitale Spiegelbild des Fahrzeugs ermöglicht eine Einschätzung des Fahrzeugzustands in Echtzeit. Diese Daten sollen aber nicht nur von OEMs genutzt werden, sie ermöglichen auch Dritten, neue Services anzubieten.

Es bleibt spannend zu beobachten, wie sich die Technologien weiterentwickeln und wie schnell sich das autonome Fahren etablieren wird. Noch sind jedoch viele Herausforderungen zu meistern und Erfahrungswerte zu sammeln.

Für uns als IT Dienstleister bietet das Themenfeld „autonomes Fahren“ viele spannende Herausforderungen. Das gilt für die Projekte, in denen wir im Anforderungsmanagement und in der Software Entwicklung aktiv sind. Das gilt aber auch für die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung der benötigten Backend Systeme und der benötigten Infrastruktur.


zu Teil 1 Kerntechnologien automomes Fahren: Sensorik und Sensorfusion

zu Teil 2 Kerntechnologien automomes Fahren: V2X


Weitere Informationen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] http://www.auto-nomous.com/meinung/kartendienste-als-schluesseltechnologie-fuer-das-autonome-fahren/

[2] https://www.zeit.de/mobilitaet/2016-04/autonomes-fahren-mobilfunk-5g-echtzeitdaten/seite-2

[3] https://www.kfz-betrieb.vogel.de/bremsprobleme-des-tesla-3-mit-update-over-the-air-behoben-a-720627/

[4] https://teslamag.de/news/sekunden-update-beschleunigungswerte-model-s100d-16834

[5] https://www.computerwoche.de/a/wie-unternehmen-von-einem-digitalen-zwilling-profitieren,3544454

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 2: Vehicle-to-everything (V2X)

In Teil 1 unseres Blogbeitrags standen vor allem die Sensorik im Fahrzeug und virtuelle Testumgebungen im Fokus. Im Folgenden geht es um die Interaktion des Fahrzeugs mit seiner Umwelt, das Testen von autonomen Fahrfunktionen und die damit verbunden Herausforderungen. Mittels V2X-Kommunikation können Autos außer „fühlen“ und „sehen“ nun auch „hören“. Fahrzeuge und Verkehrsinfrastruktur werden über Funktechnologie vernetzt. Damit können Informationen zwischen Fahrzeugen untereinander und zwischen Fahrzeugen und der Verkehrsinfrastruktur (zum Beispiel Wechselverkehrszeichen und Lichtsignalanlagen) ausgetauscht und in Verkehrsmanagementsysteme integriert werden. Im V2X Kontext wird je nach Hersteller auch von C-V2X (Cellular-Vehicle-to-Everything) gesprochen, da die Verbindung auf Mobilfunk (Cellular) basiert.[1]

Die folgenden Grafiken von Qualcomm stellen die einzelnen V2X Elemente gut dar.[2]

V2X Elemente

Unter anderem sollen folgende Anwendungsfälle, ebenfalls von Qualcomm dargestellt, ermöglicht werden:

Anwendungsfälle von Qualcomm

Neben den Sicherheitsaspekten hat V2X auch einen ökologischen Aspekt. „Bei vollständiger Durchdringung mit auf V2X-Kommunikation basierenden Funktionen könnte ein jährlicher volkswirtschaftlicher Nutzen bis zu 6,5 Mrd. Euro durch vermiedene Straßenverkehrsunfälle und 4,9 Mrd. Euro durch die Vermeidung von Umweltbelastungen erzielt werden,“ schreibt der Verband der Automobilindustrie VDA.[3]

V2I – Kommunikation zwischen Fahrzeugen und Infrastruktur

Doch wie sieht der Status Quo bei den einzelnen Automobilherstellern aus?

Bei Volkswagen wird die Technologie Car2X genannt und soll in Kürze eingeführt werden. Erstes Ziel ist es, den Fahrer zum Beispiel über „grüne Wellen“ zu informieren und so unnötige Brems- und Beschleunigungsvorgänge zu vermeiden. Hierzu sollen zwei Wolfsburger Straßenkreuzungen mit entsprechender Sensorik ausgestattet werden, um Fußgänger und Radfahrer zu erfassen. An komplexen Kreuzungen und Unfallschwerpunkten sollen so Informationen bereitgestellt werden, die die Fahrzeuge selbst nicht erfassen können. Diese „kooperativen Sicherheitsfunktionen“ sollen in Situationen eingreifen, in denen der Fahrer oder das Fahrzeug die umgebenden Verkehrsteilnehmer mit eigener Sensorik nicht oder erst sehr spät erkennen können.[4]

Auch beim Stuttgarter Autobauer Daimler ermöglicht Car-to-X einen völlig neuartigen Austausch von Informationen. Die Intention ist die Gleiche: Das vernetzte Auto schaut damit um die Ecke und durch Wände. Es warnt Nachkommende vor Gefahren und verhindert Unfälle. Kurz: Es sorgt für mehr Sicherheit und Komfort. Die Fahrerassistenzsysteme stellen dem Fahrer weitere Sicherheits- und Komfortfunktionen zur Verfügung, womit ein weiteres Etappenziel auf dem Weg zum autonomen Fahren erreicht wird.[5] [6]

Audi hat im Mai 2019 angekündigt, dass nun auch in Deutschland eine Technik installiert werden soll, die seit zweieinhalb Jahren bereits in den USA für entspanntes und effizienteres Fahren sorgt. So will der Autohersteller neue Modelle mit den Ampeln in Ingolstadt vernetzen; weitere europäische Städte sollen ab 2020 folgen. Die Audi-Fahrer sollen im Cockpit sehen können, mit welcher gefahrenen Geschwindigkeit sie die nächste Ampel bei Grün erreichen. Das System wird „Green Light Optimized Speed Advisory“ (GLOSA) genannt. „In Zukunft können die anonymisierten Daten unserer Autos dabei helfen, Ampeln in Städten besser zu schalten und den Verkehrsfluss zu optimieren“, erläutert Andre Hainzlmaier, Leiter Entwicklung Apps, Connected Services und Smart City bei Audi.[7]

V2V – Kommunikation zwischen den Fahrzeugen

Auch die V2V (Vehicle-to-Vehicle) Kommunikation und die Vernetzung von Assistenzsystemen für die Automatisierung wird bereits getestet. Die Unternehmen Bosch, Vodafone und Huawei haben sich vor gut einem Jahr zusammengeschlossen, um Tests für die Nutzung des Mobilfunkstandards für das autonome Fahren durchzuführen. Diese Tests fanden bereits in China, Japan und den USA statt. Sie basieren auf 4G, aber künftig wird 5G kommen, das AT&T in den USA bereits einführt und mit dem der C-V2X Standard kompatibel ist. Vorbereitungstests wurden bereits auf dem digitalen Testfeld auf der A 9 in Bayern durchgeführt.

Bisher testete man mit dem Kommunikationsstandard Warnungen in Echtzeit in Sachen Bremsung und Spurwechsel. Als Nächstes will man die ACC (Automatic Cruise Control) in der Steuerung testen. Dieses System warnt nicht nur, sondern greift aktiv ein und bremst das Fahrzeug beispielsweise ab. Künftig sollen die Fahrzeuge darüber miteinander kommunizieren können und damit auch das autonome Fahren ermöglichen. So können die Sensordaten nicht nur einem Fahrzeug nutzen, sondern allen, die sich in der jeweiligen Verkehrssituation befinden. Diese Informationsübertragung soll in Quasi-Echtzeit geschehen, sodass die Systeme rechtzeitig eingreifen können.

Fazit

Die V2X Technologie ist ein wichtiger Schritt hin zum autonom fahrenden Fahrzeug. Die Kommunikation mit der Umwelt wie auch mit anderen Verkehrsteilnehmern ist ein essentieller Part, um Risiken zu reduzieren. Erkennt beispielsweise ein Sensor die Verkehrssituation nicht korrekt, kann V2V einen drohenden Unfall verhindern. V2X kann das Fahrzeug in kniffligen Situationen wie beispielsweise Baustellen oder einer geänderten Verkehrsführung in Echtzeit unterstützen.

doubleSlash ist aktuell in verschiedenen V2X Projekten im Anforderungsmanagement und in der Software-Entwicklung aktiv. Hierbei ist die Herausforderung, dem Fahrzeug aggregierte Daten aus verschiedenen Quellen (zum Beispiel verschiedene Verkehrsinformationsstellen) in hoher Geschwindigkeit bereitzustellen. Das Fahrzeug muss zu jedem Zeitpunkt die richtigen Informationen erhalten und auch die Daten speichern und verarbeiten, die per Rückkanal vom Fahrzeug kommen. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur –  zum Beispiel AWS – sind die größten Herausforderungen bei einer solchen Infrastruktur.

In Teil 1 beleuchten wir Sensorik und Sensorfusion

In Teil 3 unserer Serie wird auf das Thema Kartenmaterial, 5G sowie Digital Twin und Datenökonomie eingegangen.

Weitere Leistungen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[2] https://www.qualcomm.com/media/documents/files/cellular-vehicle-to-everything-c-v2x-technologies.pdf

[3] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[4] https://www.heise.de/newsticker/meldung/Volkswagen-und-Siemens-testen-Funk-fuer-Ampeln-4183853.html

[5] https://www.daimler.com/innovation/case/connectivity/car-to-x.html

[6] https://www.auto-motor-und-sport.de/verkehr/vehicle-2-x-datenuebertragung-globaler-streit/

[7] https://www.heise.de/newsticker/meldung/Audi-vernetzt-seine-Autos-nun-auch-in-Deutschland-mit-Ampeln-4421702.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 1: Sensorik und Sensorfusion

In unserer Blogserie wird auf die entscheidenden Kerntechnologien auf dem Weg zum selbst fahrenden Fahrzeug eingegangen. Beim autonomen Fahren gibt es aktuell viele Player: Etablierte Autobauer, den amerikanischen Autobauer Tesla, Branchenzulieferer, Technologiekonzerne wie Alphabet und Apple sowie Mobilitätsdienstleister wie Uber oder Dixi. Zwischen diesen Akteuren ist ein Wettlauf um die Neugestaltung des Fahrzeugmarktes entbrannt (siehe auch: „Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar“).

Aus Kundensicht ist der Gedanke des autonomen Fahrzeugs reizvoll: Morgens einsteigen, Nachrichten lesen, E-Mails beantworten oder nochmal kurz einen Power-Nap machen, während man sanft durch den dichten Berufsverkehr ins Büro gefahren wird. Geht es nach den Mobilitätsdienstleistern, werden wir in Zukunft keine Autos mehr besitzen, sondern uns Kilometer als Beförderungsleistung kaufen. Die Vision: Das Auto fährt vor und transportiert uns an das gewünschte Ziel.

In modernen Fahrzeugen stecken bereits heute zahlreiche Assistenzsysteme, die alle inneren und äußeren Vorgänge überwachen und dem Fahrer damit viele Aufgaben abnehmen: Brems- und Spurhalteassistent, Abstandsmesser oder Geschwindigkeitsregler. Doch trotz der Technik liegt im Moment noch die Entscheidungshoheit beim Fahrzeugführer, also beim Menschen.

Genau das soll sich in naher Zukunft ändern: „Wir sind schon nahe dran, denn IT- und Automobilhersteller führen gemeinsam mit Zulieferern bereits erste Tests durch. Und zwar nicht etwa auf Sonderstrecken, sondern sogar auf regulären Autobahnen wie auf der A9 zwischen Ingolstadt und Nürnberg – und mitten im Berufsverkehr“ sagt Rahman Jamal von National Instruments. Aktuell ist das autonome Fahren mit dem sogenannten Staupiloten bereits für mehrere Minuten möglich.[1]

Dieser Beitrag gibt einen Überblick über verschiedene Kerntechnologien, die das autonome Fahren reif für den Einsatz auf unseren Straßen machen sollen – im Berufsverkehr, aber auch in wesentlich komplexeren Umgebungen wie auf der Landstraße oder in der Stadt. Dazu gehören:

  • Sensorik (Teil 1)
  • Sensorfusion (Teil 1)
  • Virtuelle Testzentren (Teil 1)
  • Vehicle-to-everything – V2X (Teil 2)
  • Kartenmaterial (Teil 3)
  • Konnektivität und 5G (Teil 3)
  • Digital Twin und Daten-Ökonomie (Teil 3)

Sensorik – Die Sinnesorgane für das autonome Fahrzeug

Für ein autonom agierendes Fahrzeug sind Laser- und radargestützte Sensoren und Kameras mit 360° Rundblick, die alles in der näheren Umgebung, aber auch auf Entfernung analysieren, zwingend notwendig. Denn es muss eine Vielzahl an Parametern und Einflüssen aller Art berücksichtigen. Vereinfacht gesagt: Alles, was der Mensch über seine Sinnesorgane wahrnimmt. Je nach Konfiguration für das autonome Fahren reden wir über 15 benötigte Sensoren. Ihre Zahl steigt mit wachsender Komplexität der Anforderungen. Ein Radar etwa detektiert nicht mehr nur, dass etwas da ist und sich bewegt, sondern spezifiziert auch, um welches Objekt es sich handelt. „Erst wenn die Sensorik sehr genau ist, kann man die Verantwortung reduzieren und vom Fahrer an das System abgeben“, betont ein Experte von Audi.“[2]

Die Mehrheit der Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen ein weiterer unabhängiger Sensortyp, der Lidar, benötigt wird.

Lidarsysteme sind für vollautonomes Fahren ab Level 3 eine wichtige Voraussetzung. Mehrfach redundante Kamera- oder Radarsysteme erhöhen zwar die Zuverlässigkeit, doch Objekte, die das erste Radar/Kamerasystem womöglich systembedingt nicht erfasst, erfasst auch das zweite nicht. Hier braucht es einen weiteren Sensor – und das ist Lidar. Primär soll das System Entfernungen zu ruhenden und bewegten Objekten messen, aber auch durch besondere Verfahren dreidimensionale Bilder der erkannten Objekte liefern.[3]

Der Lidar empfängt die mit Laser ausgesendeten Signale mittels Multispektralkameras, die das Licht in mehreren Wellenlängen aufnehmen können. Das zurückfallende Licht des Lasers von der Oberfläche des Objekts lässt Rückschlüsse auf dessen Geschwindigkeit und Position zu. Mit diesen Daten kann man beispielsweise einen möglichen Kollisionskurs identifizieren und dem entgegnen.[4]

Bei den teils bereits verwendeten Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 und 250 Metern. Diese Kameras benutzen unter anderem Machine Learning Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und ihre Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Erkennung von Verkehrszeichen und Signalen verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.[5]

Radarsysteme sind schon länger in Fahrzeugen verfügbar und übernehmen unter anderem bereits heute folgende Aufgaben:

  • Blindspot Detection (Totwinkel-Überwachung)
  • Spurhalte- und Spurwechselassistent
  • Rückschauendes Radar zur Kollisionswarnung beziehungsweise Kollisionsvermeidung
  • Parkassistent
  • Querverkehr-Überwachung
  • Bremsassistent
  • Notbremsung
  • Automatische Abstandsregulierung

 

Sensorfusion – Zusammenspiel der Sensoren fürs autonome Fahren

Zum Erkennen der Vorgänge auf der Straße müssen die Daten von Kamera, Radar, Ultraschall, Laser usw. abgeglichen werden – Stichwort „Sensorfusion“. Viele Sensoren müssen zusammenspielen, um zu wissen, wo sich das Fahrzeug befindet und was vor und hinter dem Fahrzeug ist, um eine Risikoabschätzung vorzunehmen. Mithilfe von Sensorfusionen lassen sich nicht nur Schwächen einzelner Sensorsysteme ausgleichen, sondern auch eine höhere Ausfallssicherheit (Robustheit) mittels Redundanz gewährleisten. Ziele der Sensorfusion sind außerdem:

  • Verbessern der Genauigkeit
  • Verbessern der Objektklassifikation
  • Verfügbarkeit
  • Vergrößern des Gesamterfassungsbereichs
  • Detailreiche Objektbeschreibung

Darüber hinaus sollten Sensoren in der Lage sein, selbstständig per Algorithmen zu erkennen, wenn sie durch Temperatur, Sonneneinstrahlung, Dunkelheit, Regen oder Schnee außer Gefecht gesetzt werden. Ebenso müssen Marktspezifika wie etwa unterschiedliche Straßenschilder, Meilen statt Kilometer oder Sandverwehungen berücksichtigt werden.

Im folgenden Video lässt sich gut nachvollziehen, wie das Fahrzeug die Straße sieht und warum eine Sensorfusion benötigt wird:

Nicht zu vernachlässigen ist übrigens, dass der Abstimmungsaufwand, also die erforderliche Rechenleistung, um zu sachgerechten Entscheidungen zu kommen, komplexer wird, je mehr Sensorik eingebunden ist.

Virtuelle Testsimulation – Der Weg zu Millionen von Testkilometern

Die gesammelten Daten der Sensorik sind elementar, um virtuelle Testszenarien zu kreieren. Immer mehr OEMs und Automobilzulieferer setzen hier auf die Möglichkeit von Simulationen. Die virtuelle Welt der Simulation ist in Bezug auf Assistenzsysteme von zweifacher Bedeutung. Erstens: Die Tests können über Tage bis hin zu Wochen in allen denkbaren Situationen durchgeführt werden, unabhängig von Testfahrzeugen. Das kann die Entwicklungszeit enorm beschleunigen. Zweitens: die Sicherheit. Das selbstfahrende Auto muss sämtliche Verkehrssituationen bewerten können, sollten sie auch noch so unwahrscheinlich sein. So können zum Beispiel alle Wettereinflüsse simuliert werden. Solche Szenarien lassen sich allein aus Sicherheitsgründen nicht auf öffentlichen Straßen testen, wenn beispielsweise viele Teilnehmer im komplexen Innenstadtverkehr involviert sind.[6]

Mithilfe von Simulationen kann man statt 10.000 Kilometer pro Monat virtuell 8.000 Kilometer pro Stunde zurücklegen. Das spart nicht nur Zeit und Geld, sondern schont auch die Umwelt. Außerdem lassen sich Situationen exakt reproduzieren und beispielsweise neue Versionen eines Algorithmus unter den identischen Bedingungen erneut testen. Fehler werden somit reproduzierbar – und Lösungen schneller gefunden.[7]

Doch wie viele Testkilometer sind notwendig, um ein Auto zum eigenständigen Fahren zu befähigen? BMW etwa beziffert den Testaufwand auf 230 Millionen Kilometer. „Rund 95 Prozent der Testkilometer werden per Simulation absolviert“, schätzt Martin Peller, Leiter der Fahrsimulation bei BMW.[8]

Fazit

Schon heute gibt es verschiedenste Assistenzsysteme, die den Autofahrer unterstützen. Für das autonome Fahren werden jedoch ganz neue, wesentlich komplexere Anforderungen an die Sensorik gestellt. Während der Fahrer heute ein Fehlverhalten der Sensorik erkennt und entsprechend handelt, muss dies künftig durch die Sensorfusion erkannt werden. Um dies zu perfektionieren, ist die Simulation eine kostengünstige Möglichkeit.

Für uns als IT Dienstleister stecken im Thema autonomes Fahren insbesondere bei der Konzeption und Entwicklung von Backend Systemen in der Cloud spannende Herausforderungen. Die gesamte Sensorik generiert terabyteweise Daten, die gespeichert, klassifiziert und zu Trainingszwecken wie in der angesprochenen Simulationsumgebung in unterschiedlichsten Szenarien wieder verwendet werden können. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur etwa von AWS sind die größten Herausforderungen bei einer solchen Infrastruktur.

Zu Teil 2 mit dem Thema: V2X – Vehicle-to-everything

 

Weitere Informationen rund um das autonome Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[2] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[3] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[4] https://www.autonomes-fahren.de/lidar-licht-radar/

[5] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[6] https://www.autonomes-fahren.de/vw-simulation-fuer-assistenzsysteme/

[7] https://www.autonomes-fahren.de/continental-kooperiert-mit-aai-fuer-autonomes-fahren/

[8] https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

 

Oerlikon Hackathon powered by doubleSlash Experten

Am Wochenende des 08.11.2019 bis 10.11.2019 hat doubleSlash eine tolle Veranstaltung als Experten begleiten dürfen: Den ersten Hackathon der Oerlikon Group in toller Atmosphäre des Oerlikon Digital Hub. Neben Workshop Räumen und sogar einem Kino ist das technische Setup exzellent und erleichterte allen Teilnehmern die Arbeit.

Hackathon? Pures Wissen in agiler Lösungskompetenz

Pragmatisch und agil in einem: Ziel ist es, innerhalb der Dauer einer Hackathon Veranstaltung gemeinsam nützliche, kreative oder unterhaltsame IT – oder Software Produkte oder –Anwendungen herzustellen und so Lösungen für bestehende Probleme zu finden.

Ein breiter Mix an talentierten Personen

Die Zielgruppe des Events war ein sehr breiter Mix an talentierten Personen: von Softwareentwicklern über Data Scientists bis hin zu Spezialisten der Industrie. Die rund 80 Teilnehmer setzten sich zusammen aus Studenten, Softwareentwicklern bis hin zu Data Scientists und Oerlikon Mitarbeiter.

Die Challenges waren in 4 Kategorien aufgeteilt: IoT, Computer Vision, Data Science und Waste Reduction – wobei die letzte Kategorie sich wohl auch in die Data Science Aufgaben einsortieren lässt. Unter diesen Kategorien gab es je bis zu zwei Challenges – in Summe 7 Challenges. Für jede Challenge konnten sich nur eine definierte Zahl Teams anmelden, um sicher zu stellen, dass alle Challenges angegangen wurden.

Fünf doubleSlash IoT und KI Experten vor Ort

Auf Anfrage von Oerlikon beschloss doubleSlash das Event als Sponsor in Form von fünf Experten zur Unterstützung der Teilnehmer zu stärken: Vincenzo Crimi, Nico Mutter, Andreas Nuber, Timo Demler und Ralf Richter. Wir gaben Hilfestellung in den Bereichen Consulting, Coding, Architektur, technischer Spezialisierung mit PTC und Microsoft Azure, aber auch im Bereich Organisation und Strukturierung. Unsere Experten standen den Teams zur Seite, indem sie sie berieten und bei der Entwicklung weiterhalfen, ohne dabei Einfluss auf den Lösungsweg zu nehmen.

Gemeinsam mit unserem Partner PTC beschlossen wir bereits zu Beginn des Hackathons, unsere gewohnte enge Zusammenarbeit für den Support an den Teams zu leisten. Neben dem Mentoring für die Teams lieferten wir zwei tolle Workshops in den Bereichen Ideation und Pitch Training. Beide Workshops wurden ein toller Erfolg und leisteten einen wertvollen Beitrag für das Gelingen des Hackathon.

 

 

 

 

 

Fazit

Das Engagement unserer Experten für die Teams war beachtlich und ging über die Grenzen eines normalen Arbeitstages hinaus. Alle Teilnehmerteams schätzten diesen Support  spürbar, auch während der Pitches kam positives Feedback. Wir haben auch in anderen Formaten sehr positive Erfahrungen mit diesem agilen Veranstaltungsformat gemacht und sehen hier den deutlichen Mehrwert: Schwarmintelligenz in agiler Atmosphäre schafft gemeinsam innovative Lösungen zu konkreten Problemen.
Besonders stolz sind wir darauf, dass alle Teams, die von der doubleSlash Hilfe aktiv Gebrauch machten, in die Finals kamen. Besonders freuen wir uns über den Erfolg unseres doubleSlash-Studenten-Teams: Sie haben von 17 Teams einen sehr guten Platz 4 erarbeitet. Wir freuen uns auf kommende Events, die wir als doubleSlash begleiten können oder sogar selbst ausrichten werden.

 


Mehr zur KI und IoT Kompetenz von doubleSlash

Mehr zum Oerlikon Digital Hub

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch – Teil 2

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten sammeln und gängige Situationen des autonomen Fahrens in der Praxis erprobt werden können.Mehr

Wie Sie bereits jetzt die Grundlage für eine erfolgreiche Axeda Migration legen

Vor einiger Zeit hat eine Kollegin im Intranet einen Aufruf gestartet: „Eure Tipps: Umzugsunternehmen gesucht“. Auf den Post gab es einige Kommentare – es wurden nicht nur konkrete Umzugsunternehmen genannt, mit denen andere Kollegen bereits positive Erfahrungen gemacht haben, sondern auch eine Reihe weiterer Tipps für einen erfolgreichen und stressfreien Umzug gegeben.Mehr

smartThings: Azure IoT Edge with LoRa WAN – Ein Azure DEV Meetup in München

Vergangene Woche haben wir das erste Mal in unserer Münchner Niederlassung ein Azure DEV Meetup Munich veranstaltet, gesponsert von doubleSlash. Bei diesen Meetups geht es darum, sich in einer Community in lockerer Atmosphäre mit anderen Entwicklern auszutauschen und Kontakte zu knüpfen. Im Mittelpunkt des Meetups steht immer ein Vortrag zu einem spannenden Thema – in unserem Fall Azure.
Das Thema des ersten Vortrags war „smartThings: Azure IoT Edge with LoRa WAN – let’s play!“

 

 

 

 

 

 

 

 

 

Bei Pizza und Drinks wurden den 22 Teilnehmern zunächst die zwei Technologien Azure IoT Edge und LoRa WAN vorgestellt, die nachfolgend nochmal kurz zusammengefasst sind:

Azure IoT Edge

Azure IoT Edge ist eine Technologie die es ermöglicht, Business Logik in Container, sogenannte Module, zu packen die dann lokal auf den IoT Edge Geräten laufen.
Das Management der Module auf den Geräten übernimmt die IoT Edge Runtime im Zusammenspiel mit Azure. Container können so über das Portal oder alternativ über IDEs wie beispielsweise Visual Studio Code den Geräten zugewiesen werden. Das Management des Datenaustauschs zwischen den Containern und die Weiterleitung der Nachrichten an die Azure Cloud erfolgt vollautomatisch.
Die Entwickler können sich somit vorrangig auf die wesentliche Business Logik fokussieren und müssen sich weniger um das Management und den Datenaustausch zwischen den Geräten kümmern.

 

Long Range Wide Area Network (LoRa WAN)

 

Long Range Wide Area Network (LoRa WAN) ist ein low-power drahtloses Netzwerkprotokoll, das von der LoRa Alliance spezifiziert wurde. Es handelt sich hierbei um eine kostenlose Technologie, die eine proprietäre und patentierte Übertragungsmethode verwendet. Sie basiert auf der von Semtech Corporation entwickelten Chirp Spread Spectrum modulation Technik namens LoRa. LoRaWAN ist asymmetrisch und mit dem Fokus auf Energieeffizienz entwickelt worden. Außerdem beträgt die Reichweite bis zu 10 Kilometer bei einer Übertragungsrate von 292 bits/s bis zu 50 kbit/s. Das erscheint für heutige Verhältnisse zunächst recht wenig, ist aber  für IoT Geräte bei verschiedenen Anwendungszwecken vollkommen ausreichend.

A simple Use Case hacked – //Park

 

Anschließend wurde anhand des einfachen Use Cases „//Park“ eine praktische Anwendung für IoT Edge und LoRa WAN vorgestellt.

 

//Park – optimierte Parkplatzsuche dank IoT

 

//Park ist ein kleines Projekt, das wir innerhalb von doubleSlash am Standort München durchgeführt haben. Es dient dazu, die Technologien LoRa WAN und IoT Edge mithilfe eines Rapberry Pis mit LoRa Modul als LoRa Gateway und einem Seeeduino LoRa WAN als LoRa Node zu erforschen.

 

 

 

 

 

 

 

 

Neben der Exploration der zwei Technologien war zudem die Parkplatz Situation am Standort München eine Hauptmotivation für das Projekt //Park. Es soll den Mitarbeitern von doubleSlash die morgendliche Parkplatzsuche etwas angenehmer gestalten.

 

 

Wie in der Abbildung zu erkennen ist, besteht die morgendliche Parkplatzsuche der Kollegen im unglücklichsten Fall aus fünf Schritten:

1. Kollege ist auf dem Weg zur Arbeit
2. Kollege kommt an der doubleSlash Niederlassung an
3. Kollege bemerkt, dass alle Parkplätze in der Tiefgarage und im Innenhof belegt sind
4. Kollege muss nun auf die Suche nach einem anderen Parkplatz gehen
5. Kollege hat einen Parkplatz und kann nun seine Arbeit beginnen

//Park hat nun die Aufgabe, Schritt zwei zu überbrücken und den Kollegen das Leben damit leichter zu machen. Denn sie sparen Zeit und können entspannter in den Arbeitstag starten.

 

 

 

 

 

 

 

 

 

 

 

 

 

Hierzu verwendet //Park wie in obiger Abbildung dargestellt LoRa Nodes mit Sensoren um die aktuellen Parkplatzstatus zu ermitteln und mithilfe eine LoRa Gateways und IoT Edge in der Azure Cloud für weitere Dienste zur Verfügung zu stellen.
Einer dieser Dienste ist bei //Park das Frontend, mit dem jeder Mitarbeiter jederzeit über sein Smartphone oder PC den aktuellen Parkplatzstatus für eine beliebige doubleSlash Niederlassung abfragen kann. Somit sieht er auf einen Blick, ob es sich lohnt für einen Parkplatz direkt bis zur Niederlassung zu fahren oder ob er besser beim nächsten freien Parkplatz an der Straße zuschlägt.

Gemütlicher Ausklang des Azure DEV Meetup mit Networking und Kicker

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Nach dem Vortrag haben sich die Teilnehmer und Redner zu Erfahrungen, Anregungen und Know How rund um das Thema Azure ausgetauscht. Auch ein oder zwei Runden Kicker durften natürlich nicht fehlen. Alles in allem also ein gelungener Abend und ein guter Start der neuen Meetup Vortrags Reihe bei doubleSlash.
Weitere Infos rund ums Thema Azure DEV Meetup Munich gibt es über LinkedIn, Twitter und natürlich auch über das Meetup Portal. Werdet ein Teil der Meetup Gruppe und freut euch auf weitere interessante Vorträge und einen guten Austausch.

 

Dieser Blogbeitrag könnten Dich auch interessieren: Azure IoT Central: Simple IoT Projekte schnell umgesetzt

 

doubleSlash Newsletter

 

Subscription Management: In sechs Schritten zur einfachen Abrechnung von flexiblen Tarifmodellen

Immer häufiger entscheiden sich Kunden bei der Nutzung digitaler Dienste gegen einen einmaligen Kauf und stattdessen für ein Modell, bei dem die tatsächliche Nutzung im Vordergrund steht – und dementsprechend auch nur diese abgerechnet wird. Häufig wird auch ein Subscription (d.h. Abo-) Modell gewählt. Viele Unternehmen reagieren darauf und bieten ihre Dienstleistungen und Produkte vermehrt über flexible Nutzungs- und Preismodelle an. So haben wir in den letzten zehn Jahren einen regelrechten Boom in diesem Bereich erlebt: Netflix, Amazon Prime, Uber, Spotify oder Salesforce sind hier einige prominente Beispiele.Mehr