Challenge accepted! Endlich eine Hex Tile Map, die aussieht wie Europa

Hex Tile Maps gehören mittlerweile zum Standardrepertoire bei der Visualisierung von Daten mit Tableau. Im Vergleich zu normalen Kartendarstellungen bietet ein Raster aus Sechsecken in der Karstendarstellung den großen Vorteil, dass die Größe der geografischen Region keine Rolle spielt und somit der optische Vergleich der Regionen wesentlich einfacher fällt. Des Weiteren gewährleistet die Hex Tile Map eine höhere Performance beim Rendering im Vergleich zu normalen Landkartendarstellungen. Das ist vor allen Dingen dann hilfreich, wenn eine große Region oder auch große, komplexe Berechnungen bzw. Datenmenge geografisch dargestellt werden sollen.

Obwohl die Hex Tile Map einige Vorteile im Vergleich zu einer normalen Kartendarstellung bietet, ist es gerade für die Region Europa relativ schwierig solch eine Map zu erstellen. Europa hat einerseits sehr viele Länder und zudem viele kleine Länder oder Stadtstaaten, was die gleichmäßige Anordnung mit gleichzeitigem Wiedererkennungswert im Vergleich zur normalen Europakartendarstellung erschwert. Länder wie die USA sind hier wesentlich leichter auf eine Hex Tile Map zu übertragen, sodass auch ein Wiedererkennungswert des Umrisses der USA gegeben ist.

Manche haben sich schon daran versucht, die Europakarte auf eine Hex Tile Map zu übertragen, wie einige Beispiele auf Tableau Public zeigen:

Hex Tile Map Europa
Quelle: https://public.tableau.com/views/EuropeHexagonTileMap/EuropeHexmap?:embed=y&:showVizHome=no&:display_count=y&:display_static_image=y&:bootstrapWhenNotified=true

 

Eurovision Song Contest nach Länder sortiert
Quelle: https://questionsindataviz.com/2017/06/04/which-shapes-work-well-with-tile-maps/

Da uns bei den obigen Beispielen aber zum einen der Wiedererkennungswert der Europakarte nicht hoch genug war und auch nicht alle Staaten aus Europa vertreten waren, haben wir uns in unserem Datenvisualisierungsteam selbst der Herausforderung gestellt und den Versuch gewagt, Europa auf eine Hex Tile Map zu übertragen.

Wie sind wir bei der Erstellung einer Hex Tile Map vorgegangen?

Auf Basis der Anleitung von Matt Chambers hört sich das Erstellen einer eigenen Hex Tile Map eigentlich ganz simpel an:

  1. Ein Excel-File erstellen mit Zahlenwerten für X- und Y-Achsen Position und dieses als Quelle in Tableau anlegen
  2. X-Achsenwerte in Spalten, Y-Achsenwerte in Zeilen ziehen
  3. Passende Darstellung wählen
  4. Punkte durch die Hex Tile Formen austauschen
  5. Ggf. Ansicht anpassen…und fertig!

Die Crux an der Geschichte: Schritt 1.

Allein die passenden Zahlenwerte für die Positionen der Tiles auf der X- und Y-Achse zu finden, hört sich jetzt nicht so kompliziert an. Es stellte sich aber, aufgrund der vielen kleinen Länder und Stadtstaaten, als ungeahnte Challenge heraus.

Zunächst wagten wir den Versuch einfach nur die Tiles auf einem Raster immer wieder hin- und her zu schieben. Was aber leider nie zum gewünschten Ergebnis führte. Dann aber kam uns die zündende Idee: die Europakarte als Hintergrund zu nehmen (1), ein Raster drüber zu legen (2) und dann die Tiles entsprechend auf der Karte zu positionieren (3), um die Hintergrundkarte dann wieder zu entfernen (4).

(1)Europakarte(2)Europakarte mit Raster versehen
(3)Europakarte mit Raster und Tiles versehen(4)Tiles und Karte

Quelle: Eigene Darstellung – unser Vorgehen bei der Erstellung einer Hex Tile Map

Um für die X- und Y-Werte des Rasters nachvollziehbare Werte zu setzen, nutzten wir dann statt den Zahlen von 0 – 20 in etwa die Werte der Längen- und Breitengrade der Länder. Der Hintergedanke dabei: mit dieser Vorgehensweise kann das Gebiet eventuell auch auf größere Flächen ausgedehnt werden. Da uns das Ergebnis immer noch nicht vollends zufrieden stellte, schoben wir dann doch noch ein bisschen hin und her, um eine kompaktere Form der Hex Tile Map zu bekommen.

Unsere Hex Tile Map von Europa

Die Hex Tile Map mit der Europakarte im Hintergrund fanden wir auch sehr ansprechend, daher wurden in unserem finalen Dashboard einfach kurzerhand beide Varianten vereint:

Quelle: https://public.tableau.com/profile/anja.pengl#!/vizhome/HexTileMapEurope/HexMapEuropa

In unserem Beispiel haben wir einen Datensatz der Eurostat (New registration of passenger cars by type of motor energy) verwendet, der die Registrierungen von Fahrzeugen nach Antriebstechnologie enthält.

Workbook to go

Mit dem Button „Freigeben“ in unsererem Workbook kannst Du dieses direkt herunterladen – oder wenn dir unser Raster nicht gefällt einfach Deine eigene Challenge draus machen. Binde mit diesem Link gleich alles in deiner Homepage ein:

https://public.tableau.com/views/HexTileMapEurope/HexMapEuropa?:display_count=y&:origin=viz_share_link

So oder so wünschen wir Dir viel Spaß beim Visualisieren und freuen uns, wenn Du deine Ergebnisse kommentierst.

 

Diese Beiträge könnten Dich auch interessieren:

Best Practices: Welches ist das richtige Werkzeug für die Datenaufbereitung mit Tableau

Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

KI kann alles? Die aktuellen Grenzen von KI und Deep Learning

Künstliche Intelligenz war schon immer ein wesentlicher Bestandteil futuristischer Visionen. Diesen Zukunftsbildern sind wir in den letzten Jahren durch die rasante Entwicklung im Bereich der künstlichen Intelligenz deutlich nähergekommen. Wer hätte schon um die Jahrtausendwende mit selbstfahrenden Autos gerechnet? Gleichzeitig werden die (scheinbar unendlichen) Möglichkeiten von KI, z.B. in den Medien, häufig zu optimistisch oder auch z.T. übertrieben dargestellt. Das sogenannte Deep Learning, eine spezielle mathematische Methode basierend auf neuronalen Netzen, ist ganz maßgeblich für den aktuellen Hype um KI mit verantwortlich. Gleichzeitig hat auch diese Methode seine Grenzen, auf die Gary Marcus in seinem Paper „Deep Learning: A Critical Appraisal“ strukturiert eingeht. Inspiriert von dieser Arbeit soll im Folgenden auf diese Grenzen näher eingegangen werden.

Die Größe der realen Welt und wie begrenzt KI sie sieht

Die Realität ist unglaublich komplex und unglaublich vielfältig. Wir Menschen bewegen uns tagtäglich in dieser Komplexität, die häufig daher rührt, dass wir nicht in fest definierten, abgeschlossenen Systemen leben. Viele Teilaufgaben kann künstliche Intelligenz schon heute besser lösen als wir, aber gleichzeitig sind Menschen immer noch recht gut darin, Information im jeweiligen Kontext zu verarbeiten. Sehen wir nachts eine rot leuchtende Verkehrsampel im Garten eines Freundes, erkennen wir sie als Partybeleuchtung und warten nicht darauf, dass auf grün umschaltet.

Wie sieht künstliche Intelligenz aber die Welt? KI-Algorithmen lernen die Welt durch Datensätze kennen. Betrachten wir zum Beispiel das autonome Fahren. Eine Teilaufgabe besteht für KI hier darin, Schilder korrekt zu erkennen. Hierzu können wir einem KI-Algorithmus Beispielbilder vorlegen. Gleichzeitig würden wir die Schilder auf den Beispielbildern markieren und die korrekte Kategorie benennen („Stoppschild“). Der KI-Algorithmus vergleicht nun ein Bild mit der erwarteten Ausgabe („Stoppschild“) – dies macht er mit allen Beispielbildern und versucht, einen mathematischen Zusammenhang zwischen dem Bild und der Verkehrsschildkategorie zu finden.

Die Welt besteht für einen KI-Algorithmus also hauptsächlich aus den Daten, die ihm vorgelegt werden. Damit unterscheidet sich der KI-Algorithmus natürlich nicht grundlegend von uns Menschen, aber es gibt doch einige Herausforderungen und Grenzen, die ihn doch unterscheidet.

Schierer Datenhunger

Ein kleines Kind, das zum ersten Mal in seinem Leben einen Elefanten sieht, versteht sehr schnell was ein Elefant ist und erkennt danach ein solches Tier auch in anderen Zusammenhängen sehr zuverlässig, z.B. in einem Kinderbuch oder im Fernsehen. Bei Deep-Learning-Algorithmen ist dies nicht der Fall. Dies liegt daran, dass sie solche Zusammenhänge nicht explizit lernen können, sondern diese implizit auf Basis einer großen Anzahl von Beispielen tun. Daher sind sie extrem datenhungrig. Liegen diese großen Datenmengen nicht vor, dann tun sich diese Algorithmen sehr schwer, die Qualität der Modelle bzw. der Vorhersageergebnisse sinkt.

Auch müssen die verarbeiteten Beispieldaten möglichst alle Facetten eines Problems beinhalten. Ein Deep-Learning-Verfahren, dass immer nur mit weißen Schwänen trainiert wurde, ist – im Gegensatz zum Menschen – nicht in der Lage, einen plötzlich auftretenden schwarzen Schwan zu erkennen, wenn dieser vorher nicht in den Trainingsdatensätzen hinterlegt war.

Standing on the shoulder of giants
Abbildung 1: Standing on the shoulder of giants – eigene Darstellung

Auch heute können wir die Welt um uns (noch?) nicht abschließend erklären. Doch eine der Stärken der Wissenschaft ist es, auf dem vorhandenen Wissen aufzubauen und in einem iterativen Prozess immer bessere Modelle unserer Welt zu entwerfen. Das Englische Sprichwort „Standing on the shoulders of giants“ beschreibt dies anschaulich: Jede Generation baut auf den Vordenkern vergangener Epochen auf.

Das bedeutet aber auch, dass wir in all unserem Handeln immer auf dieses Vorwissen zugreifen können. Ein Apfel in unserer Hand, den wir loslassen, fällt auf den Boden und steigt nicht an die Decke. Fassen wir eine kalte Wand an, so wird die Wand wärmer und unsere Hand kälter – Energie geht also auf den kälteren Körper über. Das Gegenteil passiert nicht spontan. All das sind Beispiele für allgemeines Vorwissen, das wir stets als Transferwissen verfügbar haben, unabhängig davon, welche speziellen Probleme wir gerade lösen.
Doch Deep Learning-Algorithmen können dieses Transfer- oder Allgemeinwissen nicht nutzen. Sie können nicht auf einem allgemeinen Vorwissen aufbauen, sondern müssen jedes Problem, das sie lösen sollen, von Grund auf neu lernen. Deep-Learning-Algorithmen sind also immer sehr problemspezifisch.

Ein Beispiel in diesem Zusammenhang ist die Bilderkennung. Es gibt schon sehr gute Deep-Learning-Modelle zur Objekterkennung. Diese erkennen sehr zuverlässig, ob auf einem Bild ein Teller Nudeln oder ein Hund dargestellt wird. Eine leichte Abwandlung dieser Problemstellung – z.B. der Algorithmus soll auf Satellitenfotos automatisch Fahrbahnmarkierungen (Zebrastreifen, Pfeile, etc.) erkennen – führt dazu, dass diese Modelle für diese Problemstellung völlig unbrauchbar werden und ein ganzer Forschungszweig gegründet wird, der sich nur mit der Lösung dieses Themas beschäftigt.

Korrelation bedeutet nicht kausaler Zusammenhang

Die Nutzung von Vorwissen ist auch notwendig, um logisch sinnvolle Zusammenhänge von zufälligen Zusammenhängen zu unterscheiden. Ein Beispiel: Die Geburtenrate in westeuropäischen Ländern geht stetig zurück. Gleichzeitig ist die Anzahl brütender Storchenpaare rückläufig. Wollten wir die Geburtenrate erhöhen, müssten wir also einfach Störche besser schützen?

Historischer Verlauf zur Entwicklung der Storch- und Babyzahlen und dadurch abgeleitete Correlation.
Abbildung 2. Historischer Verlauf zur Entwicklung der Storch- und Babyzahlen und dadurch abgeleitete Correlation.

Das ist natürlich ein offensichtlicher Fehlschluss. Nur weil ein mathematischer Zusammenhang historisch existiert, heißt es noch lange nicht, dass die Geburtenrate in einem logischen Zusammenhang mit der Anzahl der Störche steht.

Grafik zum zukünftigen Verlauf zur Entwicklung der Storch- und Babyzahlen
Abbildung 3. Real eingetretener, zukünftiger Verlauf zur Entwicklung der Storch- und Babyzahlen.

Ein Mensch kann diesen offensichtlichen Fehlschluss erkennen, da er gerade auf seine gesamte Lebenserfahrung und Allgemeinbildung zurückgreifen kann – KI kann das im Allgemeinen nicht. Bei komplizierteren Problemstellungen können auch Menschen nicht mehr zweifelsfrei sagen, ob einem mathematischen Zusammenhang eine reale Abhängigkeit zu Grunde liegt. Hier müssen Wissenschaftler Hypothesen aufstellen, die sie dann immer wieder mit neuen Experimenten versuchen zu widerlegen.

Bedeutet Auswendiglernen wirklich Konzeptverständnis?

Im Begriff „Künstliche Intelligenz“ ist schon der Vergleich mit menschlichen Fähigkeiten angelegt. Diese Vergleiche ziehen sich durch alle Begrifflichkeiten: so „lernt“ zum Beispiel ein Machine-Learning-Modell Zusammenhänge und Ähnlichkeiten aus einem vorgegebenen Datensatz. Nur was genau bedeutet hier „lernen“? Ein Mensch ist in der Lage, mit recht wenigen Daten Konzepte zu lernen.
Zur Illustration dient Abbildung 4: in einem einfachen Computerspiel bewegt sich auf dem Bildschirm ein Ball. Ziel ist es mit dem Ball alle auf dem Bildschirm platzierten Blöcke zu berühren, die bei Berührung verschwinden. Trifft der Ball auf ein Hindernis, so wird er von dort abgestoßen. Es sei denn, er berührt den unteren Bildschirmrand, dann ist das Spiel verloren. Mit Hilfe eines horizontal beweglichen Schlägers lässt sich der Ball indirekt steuern.

Computerspiel nach dem Prinzip von Breakout - ein Ball muss mit einem Schläger gespielt werden, der beim Berühren die Blöcke zerstört
Abbildung 4. Computerspiel nach dem Prinzip von Breakout – ein Ball muss mit einem Schläger gespielt werden, der beim Berühren die Blöcke zerstört (Quelle: Flickr.com).

Ein Mensch versteht das Spielprinzip nach wenigen Sekunden, auch ohne eine explizite Regeldefinition und hat auch keine Probleme mit einer leichten Abwandlung: zum Beispiel, in dem die vertikale Position des Schlägers leicht verändert wird. Ein Deep-Learning-Modell hat mit solchen Verallgemeinerungen häufig große Probleme und scheitert durch die leichte Veränderung der äußeren Umstände. Das Modell hat nicht wirklich verallgemeinerte Konzepte gelernt („Schläger“, „Ball“, „Wand“) sondern durch endloses Ausprobieren eine erfolgreiche Lösungsstrategie gefunden – die jedoch nicht robust ist gegen kleine Abwandlungen der Systemparameter.

Die vielgefürchtete „black box“

Deep-Learning-Modellen wird häufig nachgesagt, dass sie schwer „erklärbar“ sind und wie eine „black box“ wirken. Man füttert das Modell mit Daten, erhält eine Antwort, aber weiß nicht wirklich, warum das Modell diese Antwort gegeben hat. Das Regelwerk, das zur Entscheidung führt, ist nicht sofort ersichtlich – es ist regelrecht undurchsichtig. Um diese Undurchsichtigkeit von KI zu durchbrechen, ist die „Erklärbarkeit“ von KI-Modellen ein Gegenstand aktueller Forschung. Aber warum ist das überhaupt wichtig? Ganz konkret schränken undurchsichtige KI-Modelle die Anwendbarkeit von KI in den folgenden zwei Beispielen ein:

Vertrauenswürdigkeit: Besonders in regulierten Bereichen, wie zum Beispiel der Medizintechnik oder dem Verkehrswesen, unterliegt jegliche Software besonders hohen gesetzlichen Auflagen. Es soll sichergestellt werden, dass die Software unter allen möglichen Umständen sicher agiert. Das stellt Deep-Learning-Modelle vor große Herausforderungen: Sie lernen hauptsächlich aus den zur Verfügung stehenden Daten. Nehmen wir wieder das Beispiel einer Verkehrsschilderkennung. Es ist undurchsichtig, warum genau das Modell ein Stoppschild als solches erkennt. Die Forschergruppe um Eykholt et al1. zeigte zum Beispiel, wie leicht KI-Modelle sich hier austricksen lassen können. Durch eine leichte Modifikation der Verkehrsschilder, die für Menschen klar als solche erkennbar war, wurden die Schilder nicht mehr als Stoppschild erkannt. Solche Effekte stellen natürlich das Vertrauen in Deep-Learning-Algorithmen für diese Anwendungszwecke in Frage. Die Undurchsichtigkeit von Deep-Learning-Modellen erschwert es, solche unerwünschten Effekte zu bemerken, da sie nicht direkt erkennbar sind.
Sicherheits- und Qualitätsgarantien für modulare Systeme: Im Ingenieursbereich werden komplexe technische Systeme häufig aus vielen kleinen Einzelteilen zusammengesetzt. Ein Auto benötigt einen Motor, Räder, eine Kupplung – für jede dieser Komponenten können in der Entwicklung Sicherheitsgarantien gegeben werden, die es erlauben das Teil in ein größeres Gesamtsystem einzusetzen. Deep-Learning-Modelle können das nicht ohne weiteres. Sie sind extrem abhängig von ihrem ursprünglichen Datensatz. Durch die Undurchsichtigkeit der Modelle ist es sehr schwierig, die Auswirkung veränderter Voraussetzungen auf das Modell abzuschätzen. Dementsprechend ist es nur schwer möglich ein Gesamtsystem modular aus vielen Modellen aufzubauen und verbindliche Qualitäts- und Performancegarantien für das Gesamtsystem abzuleiten.

Wie sieht die Zukunft von KI und Deep Learning aus?

Gary Marcus gibt ein paar Anregungen bezüglich der künftigen Entwicklung von künstlicher Intelligenz und insbesondere von Deep Learning:

  • Wiederaufleben anderer KI-Disziplinen: Deep Learning ist ein Teil des Machine Learning, welches wiederum einer ganz gewissen Disziplin der künstlichen Intelligenz angehört. Eine klassische Disziplin der KI ist symbolische Künstliche Intelligenz. Hierdurch können vielleicht Fortschritte im logischen Schließen erzielt werden.
  • Zurück zum Studienobjekt Mensch: So kann man besser verstehen und lernen, wie wir lernen und die Welt wahrnehmen. Disziplinen wie die kognitive Psychologie und Entwicklungspsychologie, die versuchen die Funktionsweise des Menschen besser zu verstehen, könnten hier neue Impulse liefern.
  • Anspruchsvollere Ziele: Häufig wird versucht, mit Deep Learning eng abgesteckte Probleme zu lösen. Stattdessen steht der Vorschlag im Raum, darüber hinausgehende Herausforderungen aufzustellen – z.B. einen Algorithmus ein beliebiges Video oder einen Text analysieren zu lassen und ihn offene Fragen beantworten lassen: Wer ist die Hauptfigur? Was will sie erreichen? Welche Folgen hätte ihr Erfolg oder Misserfolg?

 

Fazit: Herausforderungen und Grenzen kennen – Deep Learning richtig nutzen

Manchmal scheint es, als stünde Künstliche Intelligenz kurz davor, die Menschheit in jeglicher Hinsicht zu überflügeln. Es gibt in der Tat einzelne Problemstellungen, in denen dies der KI bereits gelungen ist. Dennoch sind wir von einer Dominanz der KI in allen Lebensbereichen noch ein gutes Stück entfernt. Deep-Learning-Methoden arbeiten besonders gut, wenn sehr viele Daten vorhanden sind und die Problemstellung ganz klar abgegrenzt ist. Aber es gibt auch noch viele Herausforderungen – unter anderem: ein echtes Verständnis abstrakter Konzepte, Transfer von Wissen auf neuartige Anwendungsprobleme, Transparenz und Sicherheitsgarantien, die Unterscheidung zwischen zufälligen und logisch sinnvollen Zusammenhängen. Daher ist ein Bewusstsein über diese Rahmenbedingungen, beim Einsatz von KI Verfahren wie z.B. Deep Learning, sehr wichtig. Die Anregungen von Gary Marcus für die künftige Entwicklung können da wertvolle Impulse liefern.

Co-Autor: Danny Claus


1 Robust Physical-World Attacks on Deep Learning Visual Classification

Best Practices: Welches ist das richtige Werkzeug für die Datenaufbereitung mit Tableau

Im Bereich Datenaufbereitung gibt es eine ständige Herausforderung: Wie werden die Daten am besten für Tableau aufbereitet? Und sind hierfür Tools wie Knime oder Tableau Prep oder gleich eine eigene Programmierung sinnvoller? Mit Glück haben die Unternehmen sich für einen Toolweg entschieden und der IT-Dienstleister kann diesem folgen. Wie aber vorgehen, wenn es keinerlei Vorgaben gibt? Anhand von folgenden fünf Fällen haben wir uns drei „Werkzeuge“ genauer angeschaut und beleuchten die Vor- und Nachteile der einzelnen Lösungen:

  1. Sehr große Datensätze (Dateien mit mind. 3 Mio. Datensätzen werden getestet)
  2. Komplexe Logik (werden bestimmte Logiken z.B. Loops unterstützt)
  3. Fehleranalyse (wie und wann werden Fehler vom Tool angezeigt)
  4. Verbindung zu verschiedenen Datenquellen (welche Verbindungen zu unterschiedlichen Datenquellen sind möglich)
  5. Automatisierung (Aktualisierung)

Unser Supporter für diesen Zweck ist ein HP Elitebook (RAM 16GB; Intel® Core™ i5-8250U CPU 1.60 GHz).

In der Übersicht: Wann ist welches Werkzeug sinnvoll

Für eine übersichtliche Empfehlung, in welchem Fall die getesteten Werkzeuge sinnvoll sind, haben wir in drei Kategorien eingeteilt (grün=für diesen Fall empfehlenswert, gelb=für diesen Fall mit Einschränkungen empfehlenswert, rot=für diesen Fall nicht empfehlenswert).

Werkzeuge Datenaufbereitung mit Tableau
Abbildung 1: Übersicht Einordnung Werkzeuge Datenaufbereitung mit Tableau nach Kategorie, Eigene Darstellung

Tableau Prep – Nix für komplexe Logik

Fall 1: Sehr große Datensätze
Bei sehr großen Datensätzen kann es zu Einschränkungen der PC-Performance (CPU und Arbeitsspeicher) und von Tableau Prep kommen – bis hin zum kompletten PC-Absturz. Dabei geht der Arbeitsstand verloren und es muss von vorne begonnen werden.
Unser Testergebnis: nicht empfehlenswert.

Fall 2: Komplexe Logik
Es lässt sich keinerlei komplexe Logik abbilden.
Unser Testergebnis: nicht empfehlenswert.

Fall 3: Fehleranalyse
Fehler werden zwar sofort entweder im Bearbeitungsfenster oder im Bereich Benachrichtigungen angezeigt, jedoch können diese sehr kryptisch und knapp ausfallen.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fall 4: Verbindungen zu verschiedenen Datenquellen
Dateien können von MS Access, CSV, PDF, XLS, Statistikdaten oder Tableau-Extrakte importiert werden. Es werden nicht so viele Verbindungen wie bei Tableau Desktop geboten.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fall 5: Automatisierung
Wäre der Tableau Prep Conductor nicht lizenziert, wäre im Test eine automatisierte Ausführung auf Tableau Server mit Tableau Prep Conductor möglich. Eine lokale Automatisierung ist lokal durchführbar (Batch, JSON), der PC muss aber durchgehend angeschaltet sein.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Knime: komplexe Logik und große Datensätze

Fall 1: Sehr große Datensätze
Im Bereich großer Datensätze muss bei Knime am Ende geprüft werden, ob alle Berechnungen und Änderungen funktionieren. Das Ergebnis: es führt zu Performance-Einschränkungen, jedoch nicht zum Absturz. Wie bei Tableau Prep gibt es den Bonus, dass die Daten in der Stichprobe auf eine bestimmte Anzahl eingeschränkt sind (bis zu 1 Mio. frei wählbar). Ein weiterer Vorteil ist, dass bei Knime die Daten erst durchlaufen werden, wenn es vom User angestoßen wird.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fall 2: Komplexe Logik
Mit über 2.000 Knotenpunkten und der Möglichkeit, eine komplexe Logik abzubilden ist Knime für diesen Fall empfehlenswert. Und gibt es mal keinen Node, um eine Logik abzubilden, kann sie in einem Node mit Java oder Python abgebildet und ausgeführt werden. Das Große Online-Register für Knoten sowie die hilfreiche Online-Community wiegen auch den Nachteil aus, dass Know-how aufgrund der vielen Funktionen dringend notwendig ist.
Unser Testergebnis: empfehlenswert.

Fall 3: Fehleranalyse
Warnungen und Fehler werden in Form von Symbolen oder Ampelfarben sofort im Knoten angezeigt, wobei eine Überprüfung von Knoten zu Knoten möglich ist. Meldungen können außerdem auch auf einer Konsole angezeigt werden. Einziges Manko: Fehlermeldungen sind teilweise nicht leicht nachvollziehbar, da das Error-Handling eines Knoten dem Creator unterliegt.
Unser Testergebnis: empfehlenswert.

Fall 4: Verbindungen zu verschiedenen Datenquellen
Es können Verbindungen zu einer großen Bandbreite an Datenquellen hergestellt werden – Textformate (CSV, PDF, XLS etc.), Unstrukturierte Datentypen (Bilder, Dokumente, Netzwerke etc.) oder Datenbanken und Data Warehouse Lösungen (Oracle, ApacheHive, Azure etc,), Twitter und Google usw.
Unser Testergebnis: empfehlenswert.

Fall 5: Automatisierung
Die Vorteile im Falle der Automatisierung heben sich bei Knime meist wieder auf. So ist zwar eine automatische Ausführung auf dem Knime-Server möglich, der ist aber wiederum lizenziert. Ebenfalls ist auf der einen Seite ein automatisierter Durchlauf (z.B. Batch) realisierbar, auf der anderen Seite jedoch keiner für Workflowketten umsetzbar.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Python: Mit Geduld zu maximaler Flexibilität und Aufbereitung großer Datensätze

Fall 1: Sehr große Datensätze
Im Falle sehr großer Datensätze ist es möglich, den gesamten Code zu schreiben, ohne die Daten anzufassen und es gibt kaum Performance-Einschränkungen. Ein Aber gibt es: die Fehleranalyse nimmt viel Zeit in Anspruch.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fall 2: Komplexe Logik
Python ist im Kontext der komplexen Logik sehr frei in der Entwicklung. Funktionen wie z.B. FOR– oder While Schleifen stehen zur Verfügung. Um die komplexen Logiken umfänglich nutzen zu können, ist Know-how in der Sprache daher zwingend notwendig.
Unser Testergebnis: empfehlenswert.

Fall 3: Fehleranalyse
Durch einen Debugger ist eine direkte Dateneinsicht und bessere Fehlerverständlichkeit gegeben – und die Verwendung von Python Console ist auch während dem debuggen möglich. Jedoch werden Fehler bei Python erst angezeigt, wenn sie auftreten. Bei einem sehr großen Datensatz kann das schon mal eine halbe Stunde dauern.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fall 4: Verbindungen zu verschiedenen Datenquellen
Eine Verbindung zu Dateiformaten (z.B. CSV, XLS, TSV, Datei etc.) ist möglich. Datenbanken und Data Warehouse Lösungen sind teilweise direkt integriert.
Unser Testergebnis: empfehlenswert.

Fall 5: Automatisierung
Eine Automatisierte Ausführung ist direkt auf den Servern möglich und eine lokale Automatisierung (z.B. Batch) wird ebenfalls geboten. Datenbanken und Data Warehouse Lösungen müssen jedoch Python Skripte unterstützen und der PC muss angeschaltet sein.
Unser Testergebnis: mit Einschränkungen empfehlenswert.

Fazit

Alle drei „Werkzeuge“ bzw. Lösungen bieten die Möglichkeit Daten auf verschiedene Art und Weise aufzubereiten. Nachdem wir die Lösungen in fünf Fällen untersucht haben, wird schnell ein Muster deutlich. Tableau Prep ist für eine schnelle und einfache Datenaufbereitung von kleineren Datensätzen sinnvoll. Da der Workflow auf den Tableau Server eingebunden werden kann, ist der Zugriff und die Bearbeitung des Workflows von überall möglich. Sollen komplexe Logiken und größere Datensätze aufbereitet werden, empfiehlt sich Knime oder Python.

 

Mehr über unsere Data Driven Services erfahren

 

Diese Blogbeiträge könnten dich auch interessieren:

Automatisierte Qualitätssicherung im Kontext von Data Analytics

Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Automatisierte Qualitätssicherung im Kontext von Data Analytics

Produkte wie Tableau, Qlik oder auch Power BI von Microsoft kommen bei der Datenanalyse und Datenvisualisierung häufig zum Einsatz. Ein sehr wichtiges Thema hierbei ist die Qualitätssicherung. Denn es gibt kaum Schlimmeres, als wenn die aufgezeigten Daten nicht der Wirklichkeit entsprechen. Die automatisierte Qualitätssicherung in IT-Projekten ist bereits weit verbreitet, bei Visualisierungsprojekten bzw. Data Analytics Projekten ist dies aber bei weitem noch nicht der Fall. Das Ergebnis: nach jeder Änderung wird manuell geprüft, ob noch alle Daten korrekt sind, bzw. ob die Verständlichkeit der Dashboards noch gegeben ist. Um diesen aufwändigen Prozess zu automatisieren, gibt es unterschiedliche Tools mit den verschiedensten Funktionen. Einige dieser Tools sind jedoch lediglich auf ein Produkt anwendbar – nur wenige Anbieter decken Tableau, Qlik als auch Power BI ab. Doch welche Funktionen genau haben die unterschiedlichen Tools? Wir haben vier der verfügbaren Tools genauer unter die Lupe genommen.

Vier Data Analytics Tools mit unterschiedlichen Test-Funktionen

Im Test haben wir diesen vier Tools BI Validator, Power Tools, Kinesis und QuerySurge auf den Zahn gefühlt. Unterscheiden sich die Tools bei vielen Funktionen deutlich, haben sie eines gemeinsam: mit allen kann die Performance von Reports getestet werden. Werfen wir aber doch einen genaueren Blick darauf.

Hier Teil 1 der Data Analytics Reihe lesen: Ist eine Abgrenzung des Begriffs noch möglich?

BI Validator

BI-Validator: Automatische Testläufe
Abbildung 1: Eigener Screenshot aus dem BI-Validator – Automatische Testläufe

Der BI Validator beispielsweise bietet unterschiedliche Tests:

  • Regressionstest von Arbeitsmappen: Vergleich von Arbeitsmappen für die Identifikation von Daten- und Layoutunterschieden
  • Regressionstest von Ansichten: Vergleich von verschiedenen Ansichten zur Erkennung von visuellen als auch Datenunterschiede
  • Stresstest: Erfassung von Leistungsstatistiken durch eine Simulierung der Benutzerlast
  • Upgrade Test: Vergleich von Arbeitsmappen vor und nach dem Upgrade
  • Performance Test: Überwachung der Dashboards, Erstellung von Leistungsberichten der Produktionsumgebung
  • Funktionsprüfung: ermöglicht das Zuordnen und Vergleichen von Reportdaten zu Datenquellen, um Ansichten zu überprüfen
  • Migrationstest: Vergleich der Daten eines Reports, die von Tableau generiert wurden
  • Sicherheitstest: Vergleich der Zugriffsebenen der einzelnen Benutzer bzw. Gruppen
  • Unternehmenszusammenarbeit: Ergebnisse können gemeinsam genutzt oder per E-Mail versendet werden, da Testpläne im Unternehmens-Repository gespeichert werden können.

 

Unser Fazit: Der BI Validator ist übersichtlich und einfach zu bedienen (auch ohne Programmierkenntnisse), daher können die Tests intuitiv durchgeführt werden. Für die Testläufe stehen zwei Anwendungsmöglichkeiten offen: manuell oder automatisiert.

Power Tools Desktop

Power Tools Desktop_Best Practice Analyzer
Abbildung 2: Eigener Screenshot aus dem Power Tools Desktop – Best Practice Analyzer

Um die Funktionen von Power Tools genauer zu betrachten, haben wir uns auf Power Tools Desktop (PTD) konzentriert. Mit diesem ist es möglich, eine Übersicht aller Datenfelder bei der Überprüfung von Datenquellen zu erstellen, auch mit dem Vermerk in wie vielen Ansichten und Berechnung sie auftauchen. Möchte man sich die Datenfelder genauer ansehen, ist es möglich, die Ansichten und Berechnungen direkt anzeigen zu lassen oder als Excel-Datei bzw. PDF zu exportieren. Eine weitere nützliche Funktion, um einen Überblick über alle Datensätze, Felder oder Datentypen zu erhalten, ist die Ausgabe einer allgemeinen Statistik zu Datenquellen einzelner Arbeitsmappen. Zusätzlich bietet z.B. der Style Manger an, einzelne Formatierungen der Arbeitsmappen zu erfassen und Dashboards zusammenführen.

 

Unser Fazit: Das Augenmerk bei Power Tools Desktop liegt ganz klar auf der Überprüfung der Performance von Arbeitsmappen sowie der Dokumentation von Daten. Die graphische Oberfläche ermöglicht eine einfache Navigation und die Durchführung von Analysen. Die Tests sind jedoch ausschließlich manuell möglich.

Kinesis

Kinesis: Testtypen
Abbildung 3: Eigener Screenshot aus Kinesis – Testtypen

Wie schlägt sich Kinesis mit schlanken vier Test?

  • Funktionstest: Unter anderem ist eine Simulierung von Benutzerinteraktionen und Benutzerentscheidungen sowie das Schreiben von Testfällen möglich
  • Regressionstest: Vergleich von zwei Tableau-Ansichten und die Nachverfolgung von Änderungen
  • Cross-Environment Test: Vergleich von Ansichten in unterschiedlichen Umgebungen (z.B. Standorte oder Server)
  • Performance Test: Beurteilung der Serverleistung, z.B. Antwortzeiten

 

Unser Fazit: Obwohl die Benutzeroberfläche bei Kinesis sehr einfach ist, kommen hier und da Unklarheiten auf, da diverse Mitteilungen anfangs unverständlich aufgezeigt sind –  als Hilfestellung ist dringend die Dokumentation notwendig.

QuerySurge

QuerySurge_Startbildschirm
Abbildung 4: Eigener Screenshot aus QuerySurge – Startbildschirm

Last but not least nehmen wir QuerySurge unter die Lupe. Hier wird über den Internet Explorer zugegriffen –  so sind mehre User möglich. Die Navigation funktioniert über eine graphische Oberfläche. Eine Auswertung der Testdaten erfolgt in Form von Paretodiagrammen und Korrelationsdiagrammen. Informationsmeldungen (z.B. Fehlermeldungen) werden praktischerweise direkt sichtbar auf dem Bildschirm ausgegeben. Die Ausgabe von einzelnen Reports oder Fehlersammellisten ist über Excel, CSV oder XML möglich. Mit dem BI Tester Add-On wird ergänzend eine große Bandbreite an Bereichen abgedeckt:

  • Geschäftsvalidierung von Berichten
  • Vollständiger Regressionstest der BI-Daten
  • Migrationstest von einem BI-Anbieter zu einem anderen
  • Aktualisierung von Tests von einer Version auf die andere
  • Vergleich von Berichten zwischen Servern
  • Übergabe von Parametern an einen Bericht
  • Abfragen von Berichtsmetadaten

 

Unser Fazit: Ist bei QuerySurge die Bedienbarkeit anfangs etwas schwierig, wird sie nach mehrmaliger Anwendung selbstverständlich. Diverse Tutorials sind aber sehr hilfreich. Ein Must-have zur Nutzung des Tools: Programmierkenntnisse.

Lust auf eine kleine Geschichte? Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Fazit

Die Automatisierung der Qualitätssicherung im Bereich der Datenanalyse und Datenvisualisierung birgt viele positive Aspekte – aber die Umsetzung mit passenden Tools ist ebenso wichtig, damit sie funktioniert. Umso wichtiger ist es, die Mitarbeiter bei der Überprüfung von Daten zu unterstützen, indem man ihnen das passende Tool an die Hand gibt. Natürlich hat jedes Tool seine Stärken und Schwächen. Um das passende Tool für die eigenen Verwendungszwecke zu finden, ist es daher wichtig klare Anforderungen an das Tool zu definieren. Nur so lässt sich der richtige Anbieter finden. Unser Favorit ist das Tool Query Surge: Es sind zwar SQL-Kenntnisse notwendig, wenn man jedoch hinter die Logik des Tools kommt, versteht man auch schnell die Funktionsweise. Hinzu kommt, dass die Entwickler gerade dabei sind, das Tool auch für Microsoft Power BI und Qlik kompatibel zu machen.

 

Mehr zu unseren Data Driven Services erfahren

 

Quellen:

Gudivada, Venkat N. (2017): DATA ANALYTICS: FUNDAMENTALS. In: Mashrur Chowdhury, Amy Apon und Kakan Dey (Hg.): Data Analytics for Intelligent Transportation Systems. Niederlande, Großbritanien, USA: Elsevier, S. 44–80.

Data Analytics in der Definitionskrise: Ist eine Abgrenzung des Begriffs noch möglich?

Wenn man zum ersten Mal über den Begriff Data Analytics stolpert, wird zunächst davon ausgegangen, dass es sich hierbei um eine Analyse von Daten handelt. Im ersten Ansatz ist diese Einordung auch gar nicht so verkehrt. Befasst man sich jedoch intensiver mit diesem Thema, macht sich schnell die Problematik einer klaren Definition bemerkbar. Begrifflichkeiten wie Business Analytics, Data Mining, Big Data Analytics oder auch Data Science erscheinen bei der Suche nach einer eindeutigen Definition ebenfalls auf der Bildfläche – alles scheint ineinander zu verschwimmen. Also wie lässt sich Data Analytics nun abgrenzen?

Vom Datenbanksystem zur kognitiven Verarbeitung von Daten

Data Analytics hat sich in den letzten Jahrzehnten unter verschiedenen Begrifflichkeiten wie SQL Analytics, Data Mining oder auch Big Data Analytics heraus entwickelt. Der Ursprung lag in den klassischen Datenbanksystemen wie z.B. RDBMS (Relational Database System). Mit den rasant wachsenden Datenmengen und deren Verarbeitung war eine konstante Anpassung unumgänglich – bis hin zur kognitiven Verarbeitung von Daten. Grundsätzlich kann man Data Analytics also als eine Art Oberbegriff sehen, unter dem die einzelnen Begriffe zusammengefasst werden.

Die nachfolgende Abbildung zeigt die Entwicklung in den letzten 50 Jahren:

Entwicklung von Data-Analytics in den vergangenen 50 Jahren
Abbildung 1: Erweiterte Darstellung der Entwicklung von Data Analytics nach Gudiyada (2017)1

Vier Analyseverfahren miteinander verknüpft

Data Analytics verfügt über vier Analyseverfahren, die stark miteinander verknüpft sind und sich signifikant überschneiden. Auf verschiedenen Zeitebenen versuchen die Verfahren, unterschiedliche Fragenstellungen zu beantworten: Descriptive Analytics (Was ist passiert?), Diagnostic Analytics (Warum ist es passiert?), Predictive Analytics (Was wird passieren?) und Prescriptive Analytics (Was soll geschehen?). Während Predictive Analytics also die Eintrittswahrscheinlichkeit analysiert, liefert Prespcritpive Analytics die passende Handlungsempfehlung, z.B. wie man einen bestimmten Trend beeinflussen oder ein vorhergesagtes Ergebnis verhindern kann oder auch wie man auf ein zukünftiges Ergebnis reagieren sollte. Es ermöglicht somit eine automatisierte Entscheidungsfindung.

Mehr über die vier Stufen erfahren? Hier geht es ins Detail: Buzzword Dschungel Künstliche Intelligenz (KI)

Fazit

Nach einem intensiveren Blick auf das Thema wird schnell deutlich: eine eindeutige oder gar einheitliche Definition des Begriffs Data Analytics ist weit gefehlt. Eine häufige Überschneidung der Hauptbegriffe (SQL Analytics, Business Analytics, Visual Analytics, Big Data Analytics und Cognitive Analytics) führt nicht nur zu einer schnelllebigen Weiterentwicklung der Thematik; sondern auch zu einer plötzlichen Zusammenfassung von Themen, neuen Beschreibungen oder sogar völlig neuen Kreationen an Begrifflichkeiten.

Noch nicht genug? Hier Teil 2 der Data-Analytics Reihe lesen

 


1 Gudivada, Venkat N. (2017): DATA ANALYTICS: FUNDAMENTALS. In: Mashrur Chowdhury, Amy Apon und Kakan Dey (Hg.): Data Analytics for Intelligent Transportation Systems. Niederlande, Großbritanien, USA: Elsevier, S. 44–80.

Hier mehr über unsere Data Driven Services erfahren

Welcher Fahrzeugantrieb wird das Rennen um die Zukunft gewinnen?

Die Automobilbranche rund um den klassischen Verbrennungsmotor befindet sich mehr denn je im Wandel und die Unsicherheit über DEN Fahrzeugantrieb der Zukunft ist groß.

Dieselfahrverbote in deutschen Innenstädten, politische Einschränkungen und der sich immer stärker bemerkbar machende Klimawandel bringen die großen Automobilkonzerne in immer größer werdende Bedrängnis. Tatsächlich scheinen die Tage der konventionellen Verbrennungsmotoren allmählich gezählt und alternative Energiekonzepte für Fahrzeuge rücken immer mehr in den Fokus der Debatte über die Mobilität der Zukunft. Das Elektrofahrzeug genießt derzeit eine immer breiter werdende Bekanntschaft und Etablierung. Doch sind rein elektrische Fahrzeuge das endgültige Nonplusultra? Ein Vergleich soll zeigen, welche weiteren Alternativen zur Verfügung stehen und worin deren Vor- und Nachteile liegen.

Rein elektrische Fahrzeuge

Der zentrale Bestandteil eines Elektrofahrzeuges ist der Elektromotor. Vereinfacht ausgedrückt, wandelt der Motor elektrische Energie (Strom) mittels eines Elektromotors in mechanische Energie um.

Fahrzeugantrieb Elekto. Wandelt elektrische Energie in mechanische Energie um.
Abbildung 1: Das rein elektrische Fahrzeug – Eigene Darstellung

Positiv:

  • Elektrofahrzeuge sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Äußerst günstige Ladevorgänge
  • Strom kann direkt genutzt werden, daher ergibt sich ein hoher Wirkungsgrad
  • Batterie-Ladevorgänge können sowohl öffentlich wie auch im eigenen Haushalt vorgenommen werden
  • Die öffentliche Ladeinfrastruktur gewinnt derzeit stetigen Zuwachs – und das nicht nur deutschlandweit, sondern in ganz Europa

 

Negativ:

  • Ladevorgänge gestalten sich als äußerst zeitraubend – so benötigt ein vollständiger Ladevorgang mittels eines herkömmlichen Haushaltssteckers zwischen 8 und 12 Stunden. An sogenannten Schnellladesäulen kann die Ladedauer auf 45 Minuten reduziert werden
  • Selbst hochpreisige Elektrofahrzeuge haben „nur“ eine Reichweite von ca. 400 km1
  • Je mehr Elektrofahrzeuge, desto höher die Belastung des Stromnetzes
  • Zwar stoßen Elektrofahrzeuge während der Nutzungsdauer keinerlei Schadstoffe aus, indirekt – während der Herstellung – jedoch schon2
  • Elektrobatterien besitzen eine hohe Abhängigkeit von Lithium– und Kobalt-Ressourcen3
  • Die Lebensdauer der Elektrobatterie variiert je nach Hersteller aktuell zwischen 100.000 und 200.000 km4

 

Wasserstoffautos

Die Funktionsweise eines mit Wasserstoff betriebenen Fahrzeugs ähnelt dem eines Elektrofahrzeugs. Der entscheidende Unterschied besteht jedoch in der vorgeschalteten Brennstoffzelle. Mittels Elektrolyse wird innerhalb dieser Brennstoffzelle Wasserstoff in elektrischen Strom umgewandelt und ausgehend davon in einen Elektromotor eingespeist.

Fahrzeugantrieb Wasserstoffauto.
Abbildung 2: Ein mit Wasserstoff betriebenes Fahrzeug – Eigene Darstellung

Positiv:

  • Wasserstofffahrzeuge sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Der Tankvorgang von Wasserstoff ist schnell (ca. 3 Minuten) und unkompliziert
  • Ein vollständig aufgetanktes Wasserstofffahrzeug erreicht eine Reichweite von 500 km
  • Die Kosten für die Wasserstoffbetankung sind vergleichbar mit dem eines konventionellen Benzin betriebenen Fahrzeugs. Die meisten Wasserstofffahrzeuge fassen circa vier bis fünf Kilogramm Wasserstoff; der Preis pro Kilogramm beträgt 9,50 €5
  • Brennstoffzellen sind sehr effiziente Energiewandler
  • Im Gegensatz zu Strom, kann Wasserstoff gespeichert und transportiert werden

 

Negativ:

  • Preislich liegen Wasserstofffahrzeuge noch weit über den Elektrofahrzeugen6
  • Deutschlandweit gibt es aktuell nur knapp 100 Wasserstoff Tankstellen7
  • Wasserstoff muss durch energieaufwändige Verfahren hergestellt werden, daher ergibt sich ein hoher Wirkungsverlust

Mehr zu den Chancen und Risiken von Wasserstoff gibt’s hier

eFuel

Sogenannte eFuels sind synthetische Kraftstoffe, die aus Wasserstoff und Kohlenstoff hergestellt werden. Ausgangsbasis ist hierbei der sogenannte Power-to-Fuel-Prozess. Mittels – überschüssigem – Strom aus erneuerbaren Energien (daher das „e“ in eFuel), wird durch Elektrolyse Wasserstoff hergestellt. Der Wasserstoff wiederum reagiert mit aus der Luft gewaschenem CO² zu Methan, woraus in weiteren Verfahrensschritten nahezu jeder Kraftstoff hergestellt werden kann. Von E-Diesel, E-Benzin bis hin zu E-Kerosin.8

Fahrzeugantrieb eFuel
Abbildung 3: eFuels sind synthetische Kraftstoffe, die aus Wasserstoff und Kohlenstoff hergestellt werden – Eigene Darstellung

Positiv:

  • eFuel betriebene Fahrzeuge sind CO² neutral, d.h. der Treibstoff verbrennt lediglich so viel CO², wie zuvor bei der Herstellung im Treibstoff gebunden wurde
  • Der eFuel-Treibstoff ist beimischbar und kann in nahezu allen modernen Verbrennungsmotoren eingesetzt werden
  • Die bestehende Tankstellen Infrastruktur kann für eFuel-Fahrzeuge beibehalten werden
  • Wie schon beim Wasserstoff thematisiert, eignet sich auch eFuel als ideales Speichermedium von überschüssig erzeugtem Strom

 

Negativ:

  • Das Problem der CO²-Emissionen ist durch eFuel-betriebene Fahrzeuge nicht gelöst
  • Die Herstellung von eFuel ist äußerst aufwendig, daher ergibt sich auch hier ein sehr geringer Wirkungsgrad
  • eFuel ist derzeit noch viel zu teuer; der Preis pro einem Liter Diesel-Äquivalent beläuft sich auf schätzungsweise 4,50 €9

 

Hybride Lösungen

Neben den reinen Elektro- bzw. Wasserstofffahrzeugen sind natürlich auch Mischformen eine Alternative. So genannte „Hybride“ gibt es bereits seit vielen Jahren, prominentestes Beispiel ist hierbei sicherlich der Toyota Prius. Dieser wird bereits seit 1997 in Serie gebaut und erreicht durch die Kombination aus einem benzinbetriebenen Verbrennungsmotor und zweier Elektromotoren niedrigste Verbrauchswerte. Doch es bestehen mittlerweile nicht mehr nur Hybrid-Kombination aus Elektromotor und Verbrennungsmotor, sondern auch Hybridfahrzeuge mit Elektromotor und Brennstoffzelle. Ein Beispiel hierzu ist der Mercedes-Benz GLC F-Cell. Dieser verspricht eine kombinierte Reichweite von 478 Kilometer, die sich in knapp 430 Kilometer wasserstoffbasiert und circa 50 Kilometer reinelektrisch aufteilen.10

Positiv:

  • Hybride aus Brennstoffzelle und Batterie Antrieb sind emissionsfrei und stoßen keinerlei Schadstoffe aus
  • Plug-In-Hybride vereinen die Vorteile von rein elektrisch betriebenen Fahrzeugen und Wasserstofffahrzeugen
  • Insbesondere die gut ausgebaute urbane Elektroladesäuleninfrastruktur, kann durch den integrierten Elektromotor ausgenutzt werden, sodass kurze städtische Fahrten ohne Probleme rein elektrisch gefahren werden können

 

Negativ:

  • Hybride Fahrzeuge liegen preislich deutlich über den Elektrofahrzeugen
  • Die Problematik der schlecht ausgebauten Wasserstoff Tankstellen spielt selbstverständlich auch bei den Hybrid Fahrzeugen eine übergeordnete Rolle11
  • Die Produktion von Wasserstoff ist äußerst aufwendig, daher ergibt sich auch hier ein sehr geringer Wirkungsgrad

 

Alternative Fahrzeugantriebe und digitale Services

Neben den gegenübergestellten mechanischen und energetischen Aspekten alternativer Antriebstechnologien, spielt die Kundenakzeptanz eine entscheidende Rolle. Ein Weg, alternative Mobilität für möglichst viele potenzielle Abnehmer attraktiv und smart zu gestalten, ist die Unterstützung durch digitale Services.

Ein Beispiel im Bereich der Elektromobilität ist hierbei der digitale Service ChargeNow, der es Elektromobilitätskunden erlaubt, Elektroladestationen schnellstmöglich aufzufinden, sich sorglos mittels einer bereitgestellten RFID-Karte an nahezu jeder Ladesäule innerhalb Europas autorisieren zu können und sich durch den Service automatisiert und sicher abrechnen zu lassen.

Die doubleSlash Net-Business GmbH ist hier bereits seit 2012 aktiv und unterstützt weiterhin in der Weiterentwicklung des ChargeNow Services.

Mehr zu dem Thema Data Driven Services gibt es hier

 

Fazit

Aktuell deutet vieles darauf hin, dass die rein elektrischen Fahrzeuge den Automobilmarkt dominieren werden. Diese Etablierung ist vor allem auf die Bekanntheit und den Status in der Gesellschaft, den immer weiter voranschreitenden Ladenetzausbau und das, gegenüber anderen nachhaltigen Technologien, bessere Preis-Leistungsverhältnis zu erklären. Nichtsdestotrotz bleibt die Frage des zukünftigen Antriebs spannend, denn der Umstieg von konventionellen auf alternative Antriebstechnologien wird nicht von heute auf morgen stattfinden. Dieser Prozess bedarf Zeit – Zeit, die es wiederum Wasserstoff und eFuel erlauben werden, durch Innovation und Weiterentwicklung den Vorsprung des Elektroautos zu verringern. Nicht zu vergessen bleibt hierbei als wichtigster Treiber aller alternativer Antriebstechnologien, der Ausbau der erneuerbaren Energien.

Für die Weiterentwicklung der einzelnen Teilbereiche alternativer Mobilitätsantriebe sollten zudem folgende Fragen gestellt werden:

  • Wie können Batterien verbessert werden? (Speicherkapazität, Rohstoffauswahl, Sicherheit und Lebensdauer)
  • Wie kann der Netzausbau noch besser vorangetrieben werden?
  • Wie kann im urbanen Raum genügend Platz für öffentliche Ladesäulen geschaffen werden?
  • Was passiert mit den bisherigen konventionellen Verbrennerfahrzeugen?
  • Wie kann eine Infrastruktur für Wasserstoff Tankstellen aufgebaut werden?
  • Wie könnten synthetische Kraftstoffe als Treibstoff etabliert werden?

 

Co-Autor Marc Friedrich

 


 

1 https://www.adac.de/rund-ums-fahrzeug/tests/elektromobilitaet/stromverbrauch-elektroautos-adac-test/

2 https://vm.baden-wuerttemberg.de/de/politik-zukunft/elektromobilitaet/faq-elektroauto/

3 https://vm.baden-wuerttemberg.de/de/politik-zukunft/elektromobilitaet/faq-elektroauto/

4 https://www.adac.de/rund-ums-fahrzeug/elektromobilitaet/fahrbericht-test/dauertest-elektroauto-leaf-i3-ampera-2018/

5 https://www.shell.de/energie-und-innovation/mobilitaet/wasserstoff.html

6 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu/

7 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu

8 https://www.handelsblatt.com/unternehmen/energie/e-fuels-synthetische-kraftstoffe-wann-kommt-die-rettung-fuer-verbrennungsmotoren-/24402814.html?ticket=ST-535417-aTiE94Pi2m7XC7u4NxJ7-ap6

9 https://www.handelsblatt.com/auto/nachrichten/synthetische-kraftstoffe-autos-ohne-co2-warum-die-industrie-an-e-fuels-glaubt/24523640.html?ticket=ST-36630152-ddBwn6402h3YoTOeGDee-ap4

10 https://www.mercedes-benz.de/passengercars/mercedes-benz-cars/models/glc/glc-f-cell/der-neue-glc-f-cell/stage.module.html

11 https://www.br.de/nachrichten/wissen/elektroauto-und-wasserstoffauto-im-vergleich,RTjXBVu

Oerlikon Hackathon powered by doubleSlash Experten

Am Wochenende des 08.11.2019 bis 10.11.2019 hat doubleSlash eine tolle Veranstaltung als Experten begleiten dürfen: Den ersten Hackathon der Oerlikon Group in toller Atmosphäre des Oerlikon Digital Hub. Neben Workshop Räumen und sogar einem Kino ist das technische Setup exzellent und erleichterte allen Teilnehmern die Arbeit.

Hackathon? Pures Wissen in agiler Lösungskompetenz

Pragmatisch und agil in einem: Ziel ist es, innerhalb der Dauer einer Hackathon Veranstaltung gemeinsam nützliche, kreative oder unterhaltsame IT – oder Software Produkte oder –Anwendungen herzustellen und so Lösungen für bestehende Probleme zu finden.

Ein breiter Mix an talentierten Personen

Die Zielgruppe des Events war ein sehr breiter Mix an talentierten Personen: von Softwareentwicklern über Data Scientists bis hin zu Spezialisten der Industrie. Die rund 80 Teilnehmer setzten sich zusammen aus Studenten, Softwareentwicklern bis hin zu Data Scientists und Oerlikon Mitarbeiter.

Die Challenges waren in 4 Kategorien aufgeteilt: IoT, Computer Vision, Data Science und Waste Reduction – wobei die letzte Kategorie sich wohl auch in die Data Science Aufgaben einsortieren lässt. Unter diesen Kategorien gab es je bis zu zwei Challenges – in Summe 7 Challenges. Für jede Challenge konnten sich nur eine definierte Zahl Teams anmelden, um sicher zu stellen, dass alle Challenges angegangen wurden.

Fünf doubleSlash IoT und KI Experten vor Ort

Auf Anfrage von Oerlikon beschloss doubleSlash das Event als Sponsor in Form von fünf Experten zur Unterstützung der Teilnehmer zu stärken: Vincenzo Crimi, Nico Mutter, Andreas Nuber, Timo Demler und Ralf Richter. Wir gaben Hilfestellung in den Bereichen Consulting, Coding, Architektur, technischer Spezialisierung mit PTC und Microsoft Azure, aber auch im Bereich Organisation und Strukturierung. Unsere Experten standen den Teams zur Seite, indem sie sie berieten und bei der Entwicklung weiterhalfen, ohne dabei Einfluss auf den Lösungsweg zu nehmen.

Gemeinsam mit unserem Partner PTC beschlossen wir bereits zu Beginn des Hackathons, unsere gewohnte enge Zusammenarbeit für den Support an den Teams zu leisten. Neben dem Mentoring für die Teams lieferten wir zwei tolle Workshops in den Bereichen Ideation und Pitch Training. Beide Workshops wurden ein toller Erfolg und leisteten einen wertvollen Beitrag für das Gelingen des Hackathon.

 

 

 

 

 

Fazit

Das Engagement unserer Experten für die Teams war beachtlich und ging über die Grenzen eines normalen Arbeitstages hinaus. Alle Teilnehmerteams schätzten diesen Support  spürbar, auch während der Pitches kam positives Feedback. Wir haben auch in anderen Formaten sehr positive Erfahrungen mit diesem agilen Veranstaltungsformat gemacht und sehen hier den deutlichen Mehrwert: Schwarmintelligenz in agiler Atmosphäre schafft gemeinsam innovative Lösungen zu konkreten Problemen.
Besonders stolz sind wir darauf, dass alle Teams, die von der doubleSlash Hilfe aktiv Gebrauch machten, in die Finals kamen. Besonders freuen wir uns über den Erfolg unseres doubleSlash-Studenten-Teams: Sie haben von 17 Teams einen sehr guten Platz 4 erarbeitet. Wir freuen uns auf kommende Events, die wir als doubleSlash begleiten können oder sogar selbst ausrichten werden.

 


Mehr zur KI und IoT Kompetenz von doubleSlash

Mehr zum Oerlikon Digital Hub

Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Es waren einmal drei Hersteller für Business Intelligence Tools: Qlik, Tableau und Microsoft. In den Jahren 1993 bis 2013 brachten diese drei – jeweils mit zehn Jahren Abstand – Business Intelligence Tools auf den Markt. Den Anfang machte Qlik 1993 mit seinem Produkt QlikView. Darauf folgte Tableau im Jahre 2003 mit seinem gleichnamigen Produkt, und schließlich brachte Microsoft im Jahre 2013 ein modernes Business Intelligence Tool namens Power BI auf den Markt.

Ein Ziel hatten alle drei Hersteller beziehungsweise Tools gemeinsam: Die Datenexploration, -analyse und Visualisierung sollte so einfach wie möglich sein. Ein Otto-Normalverbraucher ohne spezielle IT oder Programmierkenntnisse sollte seine Daten selbst analysieren und visuell aufbereiten können, um einen maximalen Mehrwert aus den eigenen Daten ziehen zu können.

Der Aufstieg zu den Business Intelligence Leaders im magischen Quadranten von Gartner

Im magischen Quadranten von Gartner für Analytics und Business Intelligence Plattformen stiegen diese drei Hersteller über die Jahre hinweg zu den Leadern auf. Und während sich bis zum Jahr 2015 noch viele Anbieter an der Spitze tummelten, positionierte sich das Trio in den Jahren 2016 bis 2018 sogar als alleinige Leader für Analytics und Business Intelligence Plattformen.

Gartner Magic Quadrant for Analytics and Business Intelligence Platforms Gartner Magic Quadrant for Analytics and Business Intelligence Platforms

Alle drei Hersteller müssen sich dabei jährlich in den Disziplinen Analysis und Content Creation, Sharing of Findings, Infrastruktur, Data Management und übergreifende Plattform-Funktionen ihren Konkurrenten stellen.

Das Viz Wiz Funktionsprinzip

Aber wie funktioniert das ganze Wunderwerk denn nun? Ganz einfach, immer nach dem Viz Wiz Prinzip. Ein Visualization Wizzard bindet mit Hilfe einer Desktop-Applikation unterschiedlichste Datenquellen an. Das können Server, Datenbanken, Files, Online Content und vieles andere mehr sein. Diese Quellen verbindet er in der Applikation und kann so Dashboards mit den verschiedensten Diagrammen erstellen. Diese Dashboards werden dann auf einen Server oder direkt ins Web gepublisht, um so die generierten Informationen mit anderen User zu teilen. Das Ganze funktioniert natürlich auch auf mobilen Endgeräten.

Big 3 BI

Quelle: Eigene Darstellung

Dabei bieten QlikView, Power BI und Tableau eine echte Vielzahl an standardisierten Schnittstellen, um Datenquellen anzuzapfen. Hier stellt Qlik der Anzahl nach derzeit mit ganzen 115 Schnittstellen den Spitzenreiter, gefolgt von Microsoft mit 81 Schnittstellen und Tableau mit 54 Schnittstellen. Es lohnt sich also immer, doch nochmal einen Blick auf die Konnektoren zu werfen, die der jeweilige Hersteller anbietet.

 

Die Leader-Qualitäten von Tableau, Qlik und Power BI im Detail

Qlik bietet neben einer Vielzahl an Daten-Konnektoren auch eine Datenaufbereitung mittels eigener Skriptsprache an. Was ein äußerst mächtiges Werkzeug sein kann für denjenigen, der dieser Sprache auch mächtig ist. Für manchen nicht ganz so IT-affinen Anwender ist diese Art der Datenintegration allerdings schon wieder ein „Wunder der Natur“ an sich.

Qlik - Datenaufbereitung

Quelle: Eigener Screenshot aus Qlik Sense Desktop

 

Das neueste Wunderwerk von Tableau ist Tableau Prep. Hier bietet der Hersteller endlich eine ausgeprägte ETL Funktion an, mit deren Hilfe sich komplizierte Workflows zur Datenaufbereitung modellieren und mittels Tableau Server und der Tableau Prep Conductor Komponente auch automatisieren lassen.

Tableau Prep

Quelle: Eigener Screenshot eines Tableau Prep Workflows

Auch Microsoft greift mit Power BI gerne tief in die Trickkiste und bietet derzeit als einziger der drei Hersteller eine Streaming Funktion an, über die Dashboards mit Echtzeitdaten versorgt werden. Hier geschieht der Datenimport sozusagen wie von Zauberhand.

Qlik Sense ist ein Tool, das man als Prinzessin der Geschichte bezeichnen könnte. Es ist nutzerfreundlich, leicht zu erlernen und hübsch anzuschauen.

Quelle: Eigener Workflow aus Qlik Sense

Was das Visuelle anbelangt bietet Power BI schon deutlich mehr Funktionalität als Qlik Sense. Dennoch ist es leicht anzuwenden, da es einer ähnlichen Logik folgt wie andere Microsoft Produkte wie etwa Excel.

Während man sich in die Visualisierungslogik von Tableau erst eindenken muss, ist Tableau aber mit Sicherheit die Königin der Visualisierung. Fast alles liegt hier im Bereich des Möglichen, und der Phantasie sind kaum Grenzen gesetzt. Damit setzt Tableau der Visualisierung sozusagen die Krone auf.

Tableau Vis King

Quelle: Eigener Screenshot aus Tableau Desktop

„Wimmelt auf der Erde und mehret euch auf ihr“ (Genesis 9:7). Getreu diesem Bibelzitat besteht eine der wesentlichen Funktionen der drei Tools darin, dass erstellte Dashboards verteilt und Wissen vermehrt werden kann. Wenn man sein Dashboard teilen möchte, ist das am einfachsten mit Power BI zu bewerkstelligen. Einfach aus der Power BI Desktop Applikation heraus publishen und dann per Email-Sharing Funktion online freigeben – und schon wimmelt es von Klicks.

Power BI Publish

Quelle: Eigner Screenshot aus Power BI Desktop

Mit Qlik und Power BI ist das Erstellen von Dashboards kostenlos. Die Software muss einfach nur auf den PC heruntergeladen und installiert werden, schon kann das Dashboarding beginnen. Erst wenn es ans Publishen und Verteilen beziehungsweise Sharen in größerem Umfang geht, wird das Ganze kostenpflichtig. Tableau bietet (außer für Studenten) leider keine kostenlose Desktopapplikation an. Wer mit Tableau Dashboards auf dem Desktop erstellen möchte, muss sich auf klassischem Wege Lizenzen erwerben.

astrologer

 

Und die Moral von der Geschicht ….

Damit steht der Datenvisualisierung eigentlich nichts mehr im Wege. Jeder kann nun anfangen, das Gold in seinen Daten ganz einfach mit einem BI Tool seiner Wahl zu heben. Im Bedarfsfall natürlich immer mit freundlicher Unterstützung seines favorisierten Visualization Wizzards.

Gold in Daten

 

Und wenn sie nicht gestorben sind, dann visualisieren sie noch heute …

 

THE END.

 

 

 

 

 

 

Lust auf mehr Datenvisualisierung mit BI bekommen? Hier entlang …