Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Es waren einmal drei Hersteller für Business Intelligence Tools: Qlik, Tableau und Microsoft. In den Jahren 1993 bis 2013 brachten diese drei – jeweils mit zehn Jahren Abstand – Business Intelligence Tools auf den Markt. Den Anfang machte Qlik 1993 mit seinem Produkt QlikView. Darauf folgte Tableau im Jahre 2003 mit seinem gleichnamigen Produkt, und schließlich brachte Microsoft im Jahre 2013 ein modernes Business Intelligence Tool namens Power BI auf den Markt.

Ein Ziel hatten alle drei Hersteller beziehungsweise Tools gemeinsam: Die Datenexploration, -analyse und Visualisierung sollte so einfach wie möglich sein. Ein Otto-Normalverbraucher ohne spezielle IT oder Programmierkenntnisse sollte seine Daten selbst analysieren und visuell aufbereiten können, um einen maximalen Mehrwert aus den eigenen Daten ziehen zu können.

Der Aufstieg zu den Business Intelligence Leaders im magischen Quadranten von Gartner

Im magischen Quadranten von Gartner für Analytics und Business Intelligence Plattformen stiegen diese drei Hersteller über die Jahre hinweg zu den Leadern auf. Und während sich bis zum Jahr 2015 noch viele Anbieter an der Spitze tummelten, positionierte sich das Trio in den Jahren 2016 bis 2018 sogar als alleinige Leader für Analytics und Business Intelligence Plattformen.

Gartner Magic Quadrant for Analytics and Business Intelligence Platforms Gartner Magic Quadrant for Analytics and Business Intelligence Platforms

Alle drei Hersteller müssen sich dabei jährlich in den Disziplinen Analysis und Content Creation, Sharing of Findings, Infrastruktur, Data Management und übergreifende Plattform-Funktionen ihren Konkurrenten stellen.

Das Viz Wiz Funktionsprinzip

Aber wie funktioniert das ganze Wunderwerk denn nun? Ganz einfach, immer nach dem Viz Wiz Prinzip. Ein Visualization Wizzard bindet mit Hilfe einer Desktop-Applikation unterschiedlichste Datenquellen an. Das können Server, Datenbanken, Files, Online Content und vieles andere mehr sein. Diese Quellen verbindet er in der Applikation und kann so Dashboards mit den verschiedensten Diagrammen erstellen. Diese Dashboards werden dann auf einen Server oder direkt ins Web gepublisht, um so die generierten Informationen mit anderen User zu teilen. Das Ganze funktioniert natürlich auch auf mobilen Endgeräten.

Big 3 BI

Quelle: Eigene Darstellung

Dabei bieten QlikView, Power BI und Tableau eine echte Vielzahl an standardisierten Schnittstellen, um Datenquellen anzuzapfen. Hier stellt Qlik der Anzahl nach derzeit mit ganzen 115 Schnittstellen den Spitzenreiter, gefolgt von Microsoft mit 81 Schnittstellen und Tableau mit 54 Schnittstellen. Es lohnt sich also immer, doch nochmal einen Blick auf die Konnektoren zu werfen, die der jeweilige Hersteller anbietet.

 

Die Leader-Qualitäten von Tableau, Qlik und Power BI im Detail

Qlik bietet neben einer Vielzahl an Daten-Konnektoren auch eine Datenaufbereitung mittels eigener Skriptsprache an. Was ein äußerst mächtiges Werkzeug sein kann für denjenigen, der dieser Sprache auch mächtig ist. Für manchen nicht ganz so IT-affinen Anwender ist diese Art der Datenintegration allerdings schon wieder ein „Wunder der Natur“ an sich.

Qlik - Datenaufbereitung

Quelle: Eigener Screenshot aus Qlik Sense Desktop

 

Das neueste Wunderwerk von Tableau ist Tableau Prep. Hier bietet der Hersteller endlich eine ausgeprägte ETL Funktion an, mit deren Hilfe sich komplizierte Workflows zur Datenaufbereitung modellieren und mittels Tableau Server und der Tableau Prep Conductor Komponente auch automatisieren lassen.

Tableau Prep

Quelle: Eigener Screenshot eines Tableau Prep Workflows

Auch Microsoft greift mit Power BI gerne tief in die Trickkiste und bietet derzeit als einziger der drei Hersteller eine Streaming Funktion an, über die Dashboards mit Echtzeitdaten versorgt werden. Hier geschieht der Datenimport sozusagen wie von Zauberhand.

Qlik Sense ist ein Tool, das man als Prinzessin der Geschichte bezeichnen könnte. Es ist nutzerfreundlich, leicht zu erlernen und hübsch anzuschauen.

Quelle: Eigener Workflow aus Qlik Sense

Was das Visuelle anbelangt bietet Power BI schon deutlich mehr Funktionalität als Qlik Sense. Dennoch ist es leicht anzuwenden, da es einer ähnlichen Logik folgt wie andere Microsoft Produkte wie etwa Excel.

Während man sich in die Visualisierungslogik von Tableau erst eindenken muss, ist Tableau aber mit Sicherheit die Königin der Visualisierung. Fast alles liegt hier im Bereich des Möglichen, und der Phantasie sind kaum Grenzen gesetzt. Damit setzt Tableau der Visualisierung sozusagen die Krone auf.

Tableau Vis King

Quelle: Eigener Screenshot aus Tableau Desktop

„Wimmelt auf der Erde und mehret euch auf ihr“ (Genesis 9:7). Getreu diesem Bibelzitat besteht eine der wesentlichen Funktionen der drei Tools darin, dass erstellte Dashboards verteilt und Wissen vermehrt werden kann. Wenn man sein Dashboard teilen möchte, ist das am einfachsten mit Power BI zu bewerkstelligen. Einfach aus der Power BI Desktop Applikation heraus publishen und dann per Email-Sharing Funktion online freigeben – und schon wimmelt es von Klicks.

Power BI Publish

Quelle: Eigner Screenshot aus Power BI Desktop

Mit Qlik und Power BI ist das Erstellen von Dashboards kostenlos. Die Software muss einfach nur auf den PC heruntergeladen und installiert werden, schon kann das Dashboarding beginnen. Erst wenn es ans Publishen und Verteilen beziehungsweise Sharen in größerem Umfang geht, wird das Ganze kostenpflichtig. Tableau bietet (außer für Studenten) leider keine kostenlose Desktopapplikation an. Wer mit Tableau Dashboards auf dem Desktop erstellen möchte, muss sich auf klassischem Wege Lizenzen erwerben.

astrologer

 

Und die Moral von der Geschicht ….

Damit steht der Datenvisualisierung eigentlich nichts mehr im Wege. Jeder kann nun anfangen, das Gold in seinen Daten ganz einfach mit einem BI Tool seiner Wahl zu heben. Im Bedarfsfall natürlich immer mit freundlicher Unterstützung seines favorisierten Visualization Wizzards.

Gold in Daten

 

Und wenn sie nicht gestorben sind, dann visualisieren sie noch heute …

 

THE END.

 

 

 

 

 

 

Lust auf mehr Datenvisualisierung mit BI bekommen? Hier entlang …

Wie starte ich ein Machine Learning Projekt

Die Digitalisierung und Vernetzung unserer Systeme schreitet mit wachsender Dynamik fort. Die Folge: Fast täglich entstehen neue Möglichkeiten und Trends. Ein weiterer Effekt ist das steigende Volumen an Daten, die von Systemen und Menschen erzeugt und gesammelt werden. Auf dieser Basis hat sich neben Big Data auch die Künstliche Intelligenz zu einem Trend entwickelt, der immer mehr an Bedeutung gewinnt.

Wer im Web zum Thema Künstliche Intelligenz oder zu Machine Learning recherchiert, findet viele Suchergebnisse, Tendenz steigend. Die unten dargestellte Entwicklung der Google-Suchergebnisse zu „Maschinelles Lernen“ im Trend zeigt dies deutlich.

Google Trend – Maschinelles Lernen Machine Learning (ML) ist keine brandneue Technologie. Vielmehr wird auf diesem Gebiet schon seit einigen Jahren geforscht, Frameworks wie Tensorflow oder Keras sind mittlerweile aus dieser Forschung entstanden. In jüngster Zeit nimmt das Thema auch in der Praxis richtig Fahrt auf. Das liegt unter anderem an den folgenden Faktoren:

  • Die rasante Steigerung der Rechenleistung in den letzten Jahren.
  • Es liegen mittlerweile in vielen Bereichen ausreichend Daten vor, weil Unternehmen mehr Daten erfassen – aus Interaktionen mit Kunden und aus ihren Maschinen.
  • KI (Künstliche Intelligenz) hat sich im Consumer-Bereich schon deutlich bewährt, die Kunden erwarten jetzt von Unternehmen in jeder Hinsicht dieselben komfortablen digitalen Optionen.

Wenn wir vom Consumer-Bereich sprechen, sind Anwendungen gemeint, mit denen nahezu jeder von uns bereits Kontakt hatte. Durch Sprachassistenten auf Mobiletelefonen etwa oder durch Soundboxen zuhause wie Alexa oder Siri. Diese Systeme werden von Machine Learning Algorithmen gesteuert, um uns im Alltag zu unterstützen.

Machine Learning – was ist das eigentlich?

Betrachtet man das Thema Machine Learning sehr abstrahiert, könnte man sagen: Es geht darum, dass intelligente Computer oder Server selbstständig Sachverhalte erkennen und adäquate Maßnahmen daraus ableiten oder ausführen. Der Computer soll in die Lage versetzt werden, wie wir Menschen eigenständig und intelligent Daten/Ereignisse miteinander zu verknüpfen und daraus Lösungen für neue, noch nicht gelöste Probleme zu generieren.

Aber wie soll das ein Computer machen?

Basis ist eine Software, die mit selbstlernenden Algorithmen ausgestattet ist und damit versucht, Muster in Daten zu erkennen.  Diese Muster nutzt das Programm für weitere Entscheidungen. Die Grundlage müssen wir an dieser Stelle jedoch der Software übermitteln, sie geht sozusagen bei uns in die Schule. Mittels Daten bringen wir der Software bei, welche Muster es gibt und welche möglichen Maßnahmen davon ausgehend durchgeführt werden können. Darauf bauen die selbstlernenden Algorithmen auf und entwickeln neue Muster.

Diese recht abstrahierte Beschreibung verdeutlicht schon sehr gut, was die wesentliche Grundlage für Machine Learning ist: Daten, Daten und nochmals Daten. Dies ist mitunter auch einer der wesentlichen Unterschiede zu anderen Projekten im IT-Bereich. In ML-Projekten müssen wir zu Beginn einen sehr klaren Fokus auf Daten legen und versuchen, diese bestmöglich zu verarbeiten. Je besser wir darin sind, desto besser werden unsere Ergebnisse sein.

Sehr häufig wird der Aufwand unterschätzt, der in die Analyse der Daten und in die Auswahl der entsprechenden Algorithmen gesteckt werden muss. Aus diesem Grund gibt es mittlerweile auch Berufe, die sich ausschließlich mit diesem Thema befassen. So fühlt sich der Data Engineer im Umfeld von Daten zuhause und ist kompetent darin, Daten zu analysieren und entsprechend aufzubereiten. Der Data Scientist hingegen ist für die Auswahl der passenden Algorithmen zuständig: Er bringt Daten, Use Case und Frameworks zusammen und erstellt eine Architektur, die anschließend von Softwareentwicklern umgesetzt wird.

Das nachfolgende Schaubild fasst die beiden Berufsbilder nochmals zusammen:

Abbildung: doubleSlash Net-Business – Profile Data Scientist und Data Engineer

Wo gehört Machine Learning hin und was gibt es noch?

Künstliche Intelligenz (KI):

Das Forschungsgebiet der Künstlichen Intelligenz (KI) befasst sich allgemein mit dem Transfer menschlicher Fähigkeiten auf Maschinen. Hierbei sollen Maschinen unter anderem Aufgaben lösen, die bislang bestimmte kognitive Fähigkeiten des Menschen voraussetzen. Darunter zählt beispielsweise das Erkennen von Sprache, Text und Bildinhalten. Künstliche Intelligenz wird oft als Oberbegriff für Teildisziplinen wie Maschine Learning und Deep Learning genutzt.

Machine Learning (ML):

Hier ermöglicht die Bereitstellung von Daten, dass eine Maschine neue Sachverhalte und eine adäquate Reaktion anhand von Beispielfällen erlernt. Unterschieden wird hierbei zwischen Supervised Machine Learning und Unsupervised Machine Learning. Beim Supervised Machine Learning wird dem Algorithmus während der Lernphase die Bedeutung der bereitgestellten Daten, genauer: die Antwort auf die ihm gestellte konkrete Frage mitgeteilt. Nach der Lernphase kann der Algorithmus dann das Erlernte auf neue, unbekannte Daten übertragen. Unsupervised Machine Learning kommt ohne diese Hilfestellung aus. Der Algorithmus erkennt selbständig wichtige Muster in den Daten und erlernt allgemeine Vorschriften beziehungsweise Regeln unabhängig von einer konkreten Fragestellung.

Deep Learning (DL):

Deep Learning ermöglicht es Maschinen, über die ihnen bereitgestellten Daten hinaus Fähigkeiten zu erlernen. Dabei muss die Maschine beziehungsweise die Software beispielsweise Daten analysieren und bewerten, um daraus logische Schlüsse zu ziehen. Dadurch lassen sich effizientere Lösungswege ermitteln, aus Fehlern kann gelernt werden. Die Anzahl und Qualität der bereitgestellten Daten beeinflusst hierbei stark den Erfolg des Lernvorgangs.

Wie läuft ein Machine Learning Projekt bei doubleSlash ab?

Machine Learning Projekte laufen bei doubleSlash in einem standardisierten Prozess ab, der eine kontinuierliche Verbesserung des entwickelten Machine Learning Modells anstrebt.

Im initialen Discovery Process liegt der Fokus darauf, ein tiefgehendes Verständnis für die vorliegende Problemstellung und die bereitgestellten Daten zu erlangen. Es ist auch bei Machine Learning essenziell, dass man sich über die Problemstellung ausreichend Gedanken macht und daraus Ziele ableitet. Neben der Problemstellung ist es wie erwähnt auch sehr wichtig, die zu verarbeitenden Daten zu verstehen. Dieses Verständnis hat einen wesentlichen Einfluss auf den Erfolg oder Misserfolg eines Machine Learning Projekts. Bei doubleSlash erfolgt beides durch einen Proof of Concept (PoC). Das Ziel des PoC ist es, über die Fortführung des Prozesses auf Basis dieses Verständnisses fundiert zu entscheiden.

Ist die Machbarkeit mittels eines PoC nachgewiesen, folgt im nächsten Schritt die Datenintegration. Das System wird an eine oder mehrere Datenquellen wie beispielsweise Datenbanken oder Maschinen angebunden. Ehe die gesammelten Daten verarbeitet werden können, müssen diese in der Regel eine Datenaufbereitung durchlaufen – zum Beispiel durch Normalisierung, Filterung, Partitionierung und Transformierung.

Um die Komplexität des entstehenden Machine Learning Modells zu verringern, werden die Eingabedaten im Rahmen der Modellimplementierung auf bestimmte Zielattribute beziehungsweise repräsentative Teilmengen reduziert. Das hiernach trainierte Modell wird anschließend validiert, indem Vorhersagen, die das Modell getroffen hat, mit bereits existierenden Daten verglichen werden. Abweichungen zwischen Vorhersage und Realität lassen sich durch das Anpassen unterschiedlicher Parameter und erneutes Training nach und nach minimieren.

Ist die Qualität des Modells zufriedenstellend, fungieren dessen Vorhersagen als Grundlage unternehmerischer Entscheidungen. Das Modell kann in eine produktiv einsetzbare Lösung überführt werden.

Zu beachten: Die bereitgestellten Daten zum Beispiel können sich stets verändern. Eine Überwachung der Performance im produktiven Betrieb ist deshalb unverzichtbar, um das Modell gegebenenfalls rechtzeitig an neue Gegebenheiten anzupassen. Hier schließt sich der Kreis und eine neue Iteration beginnt.

Die nachfolgende Grafik visualisiert dieses angepasste Vorgehensmodell.

Fazit

Machine Learning bietet viel Potenzial, um in Unternehmen bestehende Prozesse zu optimieren und neue Prozesse zu entwickeln. Dieses Potenzial ist keinesfalls auf ein Unternehmenssegment begrenzt, vielmehr lässt es sich in allen Bereichen eines Unternehmens integrieren. Dadurch ergibt sich eine Vielzahl an Anwendungsfällen für Machine Learning. Bei der Planung von Machine Learning Projekten sollte allerdings wie oben beschrieben ein starker Fokus auf die Daten gelegt werden, denn diese haben einen entscheidenden Einfluss auf den Erfolg oder Misserfolg eines ML-Projekts. Zu den Daten kommen die Kenntnisse und Kompetenzen des Projektteams. Beide zusammen sind die für den Verlauf und damit auch den Erfolg des Projekts zentralen Faktoren.

Wollen Sie mehr erfahren oder das angepasste Vorgehensmodell für Ihr Machine Learning Projekt nutzen?

 

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch – Teil 2

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten sammeln und gängige Situationen des autonomen Fahrens in der Praxis erprobt werden können.Mehr

Autonomes Fahren im Praxistest: ZF Teststrecke im Selbstversuch

Um automatisierte Fahrfunktionen im realen Straßenverkehr zu testen, hat die ZF Friedrichshafen gemeinsam mit dem Institut für Weiterbildung, Wissens- und Technologietransfer (IWT) letzten Herbst eine Testtrecke für autonomes Fahren ausgestattet, auf der Kleinbusse, Autos und Prototypen zu Testzwecken Daten aus gängigen Verkehrssituationen sammeln.Mehr

Der Bias-Effekt im Machine Learning

Künstliche Intelligenz feierte in den letzten Jahren einen Erfolg nach dem anderen: selbstfahrende Autos oder das Entsperren von Smartphones durch Gesichtserkennung waren zum Beispiel noch vor wenigen Jahren nur in Science-Fiction-Filmen denkbar. All diese Erfolge werden durch „Machine Learning“-Methoden ermöglicht. Diese mathematischen Methoden vereinen zwei Kernaspekte:

  1. Selbstverbesserung durch Lernen: Durch tausendfaches, gezieltes Ausprobieren wird nach der besten mathematischen Gleichung zwischen Eingangsdaten und Modellausgabe gesucht. Die gefundene und angepasste Gleichung wird dann als „Modell“ bezeichnet.
  2. Black Box: Während ein Ingenieur häufig mathematische Zusammenhänge auf physikalischen Prinzipien wie zum Beispiel dem Satz der Energieerhaltung aufbaut, haben Machine-Learning-Modelle diesen Anspruch nicht unbedingt. Hier ist häufig nicht genau nachvollziehbar warum ein Modell bestimmte Dinge tut und andere wiederum nicht. Genutzt wird, was funktioniert.

Mehr

Mit Machine Learning das Potenzial aus Daten nutzen

Big Data ist Realität, aber daraus Wissen zu generieren ist nach wie vor eine Herausforderung. Inzwischen ist aber klar: Gewinner des digitalen Wandels wird sein, wer mit Daten Wertschöpfung betreiben kann. Durch den gezielten Einsatz von Machine Learning Verfahren lassen sich aus Daten neue Erkenntnisse gewinnen und Vorhersagen treffen. So können Unternehmen von Marketing über Vertrieb bis zum After Sales ihre Geschäftsprozesse optimieren oder gar völlig neu gestalten.Mehr

Übergreifendes Datenmanagementsystem für mehr Künstliche Intelligenz in Unternehmen

transparent car concept on LED
Die Künstliche Intelligenz (KI) bewegt sich seit Jahrzehnten immer wieder zwischen Hoffnung und großer Enttäuschung. Zwischen gewinnbringender Investition und Verlust. Überholt die Maschine wirklich den Menschen? Sie kann ja nicht einmal verstehen, was wir genau sagen!
Warum kümmern wir uns dennoch um die Fortentwicklung dieser Thematik?Mehr

Google veröffentlicht Machine Learning Engine unter Open-Source-Lizenz

Wie auf http://t3n.de/news/google-machine-learning-654865/ zu lesen ist, hat Google seine Machine-Learning-Engine TensorFlow unter die Open-Source-Lizenz.

Google verwendet TensorFlow für die verbesserung der Spracherkennung in Google-App oder die Suche in Google Photos. Durch das Veröffentlichen soll die Kommunikation zwischen Nutzern verbessert und die Forschungen im Bereich Machine-Learning beschleunigt werden.Mehr