Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Es waren einmal drei Hersteller für Business Intelligence Tools: Qlik, Tableau und Microsoft. In den Jahren 1993 bis 2013 brachten diese drei – jeweils mit zehn Jahren Abstand – Business Intelligence Tools auf den Markt. Den Anfang machte Qlik 1993 mit seinem Produkt QlikView. Darauf folgte Tableau im Jahre 2003 mit seinem gleichnamigen Produkt, und schließlich brachte Microsoft im Jahre 2013 ein modernes Business Intelligence Tool namens Power BI auf den Markt.

Ein Ziel hatten alle drei Hersteller beziehungsweise Tools gemeinsam: Die Datenexploration, -analyse und Visualisierung sollte so einfach wie möglich sein. Ein Otto-Normalverbraucher ohne spezielle IT oder Programmierkenntnisse sollte seine Daten selbst analysieren und visuell aufbereiten können, um einen maximalen Mehrwert aus den eigenen Daten ziehen zu können.

Der Aufstieg zu den Business Intelligence Leaders im magischen Quadranten von Gartner

Im magischen Quadranten von Gartner für Analytics und Business Intelligence Plattformen stiegen diese drei Hersteller über die Jahre hinweg zu den Leadern auf. Und während sich bis zum Jahr 2015 noch viele Anbieter an der Spitze tummelten, positionierte sich das Trio in den Jahren 2016 bis 2018 sogar als alleinige Leader für Analytics und Business Intelligence Plattformen.

Gartner Magic Quadrant for Analytics and Business Intelligence Platforms Gartner Magic Quadrant for Analytics and Business Intelligence Platforms

Alle drei Hersteller müssen sich dabei jährlich in den Disziplinen Analysis und Content Creation, Sharing of Findings, Infrastruktur, Data Management und übergreifende Plattform-Funktionen ihren Konkurrenten stellen.

Das Viz Wiz Funktionsprinzip

Aber wie funktioniert das ganze Wunderwerk denn nun? Ganz einfach, immer nach dem Viz Wiz Prinzip. Ein Visualization Wizzard bindet mit Hilfe einer Desktop-Applikation unterschiedlichste Datenquellen an. Das können Server, Datenbanken, Files, Online Content und vieles andere mehr sein. Diese Quellen verbindet er in der Applikation und kann so Dashboards mit den verschiedensten Diagrammen erstellen. Diese Dashboards werden dann auf einen Server oder direkt ins Web gepublisht, um so die generierten Informationen mit anderen User zu teilen. Das Ganze funktioniert natürlich auch auf mobilen Endgeräten.

Big 3 BI

Quelle: Eigene Darstellung

Dabei bieten QlikView, Power BI und Tableau eine echte Vielzahl an standardisierten Schnittstellen, um Datenquellen anzuzapfen. Hier stellt Qlik der Anzahl nach derzeit mit ganzen 115 Schnittstellen den Spitzenreiter, gefolgt von Microsoft mit 81 Schnittstellen und Tableau mit 54 Schnittstellen. Es lohnt sich also immer, doch nochmal einen Blick auf die Konnektoren zu werfen, die der jeweilige Hersteller anbietet.

 

Die Leader-Qualitäten von Tableau, Qlik und Power BI im Detail

Qlik bietet neben einer Vielzahl an Daten-Konnektoren auch eine Datenaufbereitung mittels eigener Skriptsprache an. Was ein äußerst mächtiges Werkzeug sein kann für denjenigen, der dieser Sprache auch mächtig ist. Für manchen nicht ganz so IT-affinen Anwender ist diese Art der Datenintegration allerdings schon wieder ein „Wunder der Natur“ an sich.

Qlik - Datenaufbereitung

Quelle: Eigener Screenshot aus Qlik Sense Desktop

 

Das neueste Wunderwerk von Tableau ist Tableau Prep. Hier bietet der Hersteller endlich eine ausgeprägte ETL Funktion an, mit deren Hilfe sich komplizierte Workflows zur Datenaufbereitung modellieren und mittels Tableau Server und der Tableau Prep Conductor Komponente auch automatisieren lassen.

Tableau Prep

Quelle: Eigener Screenshot eines Tableau Prep Workflows

Auch Microsoft greift mit Power BI gerne tief in die Trickkiste und bietet derzeit als einziger der drei Hersteller eine Streaming Funktion an, über die Dashboards mit Echtzeitdaten versorgt werden. Hier geschieht der Datenimport sozusagen wie von Zauberhand.

Qlik Sense ist ein Tool, das man als Prinzessin der Geschichte bezeichnen könnte. Es ist nutzerfreundlich, leicht zu erlernen und hübsch anzuschauen.

Quelle: Eigener Workflow aus Qlik Sense

Was das Visuelle anbelangt bietet Power BI schon deutlich mehr Funktionalität als Qlik Sense. Dennoch ist es leicht anzuwenden, da es einer ähnlichen Logik folgt wie andere Microsoft Produkte wie etwa Excel.

Während man sich in die Visualisierungslogik von Tableau erst eindenken muss, ist Tableau aber mit Sicherheit die Königin der Visualisierung. Fast alles liegt hier im Bereich des Möglichen, und der Phantasie sind kaum Grenzen gesetzt. Damit setzt Tableau der Visualisierung sozusagen die Krone auf.

Tableau Vis King

Quelle: Eigener Screenshot aus Tableau Desktop

„Wimmelt auf der Erde und mehret euch auf ihr“ (Genesis 9:7). Getreu diesem Bibelzitat besteht eine der wesentlichen Funktionen der drei Tools darin, dass erstellte Dashboards verteilt und Wissen vermehrt werden kann. Wenn man sein Dashboard teilen möchte, ist das am einfachsten mit Power BI zu bewerkstelligen. Einfach aus der Power BI Desktop Applikation heraus publishen und dann per Email-Sharing Funktion online freigeben – und schon wimmelt es von Klicks.

Power BI Publish

Quelle: Eigner Screenshot aus Power BI Desktop

Mit Qlik und Power BI ist das Erstellen von Dashboards kostenlos. Die Software muss einfach nur auf den PC heruntergeladen und installiert werden, schon kann das Dashboarding beginnen. Erst wenn es ans Publishen und Verteilen beziehungsweise Sharen in größerem Umfang geht, wird das Ganze kostenpflichtig. Tableau bietet (außer für Studenten) leider keine kostenlose Desktopapplikation an. Wer mit Tableau Dashboards auf dem Desktop erstellen möchte, muss sich auf klassischem Wege Lizenzen erwerben.

astrologer

 

Und die Moral von der Geschicht ….

Damit steht der Datenvisualisierung eigentlich nichts mehr im Wege. Jeder kann nun anfangen, das Gold in seinen Daten ganz einfach mit einem BI Tool seiner Wahl zu heben. Im Bedarfsfall natürlich immer mit freundlicher Unterstützung seines favorisierten Visualization Wizzards.

Gold in Daten

 

Und wenn sie nicht gestorben sind, dann visualisieren sie noch heute …

 

THE END.

 

 

 

 

 

 

Lust auf mehr Datenvisualisierung mit BI bekommen? Hier entlang …

Informationssicherheit und die End2End-Lüge

Der Sicherheit in der Informationsverarbeitung, vor allem für Cloud-basierte Lösungen wird ein immer größerer Stellenwert zugeschrieben. Leider ist die Umsetzung mit allerhand Fallstricken verbunden, wobei klar ist: eine einfach und generalisierte Lösung gibt es nicht. Hier kommt dann die End-to-End Verschlüsselung (kurz: E2E-Encryption) als Lösungsbaustein zutage, doch handelt es sich keinesfalls um eine Pauschallösung für die Sicherheitsprobleme, wie dies im Cloud-Kontext suggeriert wird.

First Step: Sicherheitsbedarf ermitteln mit der Schutzbedarfsanalyse

Aber fangen wir am Anfang an, denn es geht zunächst nicht um Lösungen, sondern um die Fragen: Was für einen konkreten Bedarf haben Sie? Welche Sicherheitsanforderungen bestehen bei Ihnen? Hierzu dient eine Sicherheitsanalyse oder auch VIVA-Analyse genannt. VIVA steht für die Kernaspekte von Sicherheit:

  • Vertraulichkeit – Nur berechtigte Personen sollen Zugriff auf die Informationen erhalten.
  • Integrität – Die Informationen sollen nicht unbemerkt ergänzt, verändert oder gekürzt werden können.
  • Verfügbarkeit – Die Informationen sollen dann zur Verfügung stehen, wenn sie gebraucht werden.
  • Authentizität – Es soll sichergestellt sein, dass eine Information auch aus der Quelle stammt, für die sie sich ausgibt.

Sicherheit bedeutet also weit mehr als der vertrauliche Umgang mit Informationen.

Die richtige Dosierung finden

Neben der Art des Sicherheitsbedarfes muss auch geklärt werden, wie hoch der Schutzbedarf ist. Eine Möglichkeit ist die Klassifizierung in die üblichen Kategorien:

  • öffentlich
  • intern (z.B. “normale” Arbeitsunterlagen)
  • vertraulich
  • streng vertraulich

Unüberlegte oder überzogene Anforderungen können kontraproduktiv für die Sicherheit sein oder Auswirkungen z.B. auf Akzeptanz und Kosten haben. Ausgangsbasis ist hier die richtige Einstufung von Inhalten, denn nicht alle Inhalte sind gleich schützenswert.

Warum ist eine solche Unterteilung wichtig? Ganz einfach: Je größer der Schutzbedarf ist, desto größer ist der damit verbundene Aufwand und oft auch die damit einhergehenden Einschränkungen. Wer mag schon seine normalen Arbeitsunterlagen (Klassifizierung „intern“), die problemlos im Ablagefach auf dem Schreibtisch liegen können, in den Tresor sperren? Das ist nicht nur lästig und behindert die Arbeit, sondern verwandelt sich schnell in Kontraproduktivität.

Nehmen wir das altbekannte Spiel mit den „Passwortregeln“: Kontinuierliche Passwortwechsel und Regeln, um sicherere Passwörter zu erzwingen sind bis zu einem gewissen Grad sinnvoll. Erreichen die Regeln allerdings die Schmerzgrenze der Mitarbeiter, suchen sich diese Auswege. Das Passwort wird z.B. aufgeschrieben und steht unter der Tastatur oder baumelt sogar auf einem Post-It am unteren Rand des Monitors – damit ist niemandem geholfen.

Die Erkenntnis: Auf die Verhältnismäßigkeit der Mittel kommt es an.

Warum E2E-Encryption ?

Der Einsatz von End2End-Encryption kann selbstverständlich ein sinnvolles Mittel sein. Aber es sollte stets im Blick behalten werden, dass es nicht pauschal ist und am tatsächlichen Sicherheitsbedarf vorbei gehen kann.

Doch woher kommt die End2End-Lüge, vor allem im Kontext von Cloud-Lösungen?

  1. Es liegt vielfach keine fundierte Sicherheitsanalyse und Ableitung verhältnismäßiger Maßnahmen vor. Stattdessen wird auf Marketing-Aussagen vertraut.
  2. Cloud-Angebote gelten als unsicher, nicht vertrauenswürdig und benötigen daher besonderen Schutz.

Zur Absicherung nicht vertrauenswürdiger Angebote ist End2End-Encryption tatsächlich eine sinnvolle Maßnahme, wenn ein entsprechender Schutzbedarf vorliegt. Gegebenenfalls muss man sich aber auch über die angesprochenen Seiteneffekte bewusst sein. Usability, Funktionen und auch die Sicherheit kann davon negativ betroffen sein.

 

Wie kann End2End-Encryption die Sicherheit negativ beeinflussen?

Beispiel: Jedes moderne Email-System in Unternehmen besitzt Schutzmechanismen vor Spam und gefährlichen Anhängen mit Malware.

Ein Cloud-Storage-System mit End2End-Encryption bietet diese Option nicht. Grund ist die durchgängige Verschlüsselung, die es verwehrt, an zentraler Stelle entsprechende Schutzmaßnahmen zu realisieren. So gesehen reißen solche Systeme ein Loch in die Sicherheitsarchitektur eines Unternehmens.

Von anderen Risiken ganz zu schweigen: Wer garantiert bspw. die Verfügbarkeit? Gibt es Backups? So ganz außer Acht lassen sollte man diese Aspekte nicht, auch wenn es Zusicherungen gibt – schließlich liegt ja ein Misstrauen gegenüber dem Anbieter vor.

Wie funktioniert die e2e Lüge

Was ist die Alternative?

Ausgangspunkt sollte immer eine Sicherheitsanalyse samt Ableitung von angemessener Maßnahmen sein.

Angenommen, wir sprechen nicht von einer Hochsicherheitslösung, ist eine vertrauenswürdige Umgebung ausreichend, um z.B. End2End-Encryption durch verschlüsselte Kommunikation und evtl. verschlüsselte Ablage der Daten zu ersetzen. Zwei Beispiele hierfür sind:

  • Private Cloud – Ein Unternehmen kann Software auch selbst on premise / in der eigenen Cloud betreiben.
  • SaaS Angebote vertrauenswürdiger Anbieter – Handelt es sich um interne oder vertrauliche Daten, können auch SaaS-Angebote in Betracht kommen, die über entsprechende Service Level Agreements (SLAs) verfügen und deren Einhaltung über sinnvolle Zertifizierungen (z.B. ISO 27001, Informationssicherheitsmanagementsystem (ISMS)) verfügen.

 

Fazit – ein Weg aus der End2End-Lüge

Angemessene Lösungen zu finden muss das Ziel sein. Die Basis hierfür stellt eine umfassende Schutzbedarfsanalyse (VIVA) samt Schutzkonzept (Security Design) dar. Auf jeden Fall lohnt sich ein tiefergehender Blick, um einerseits bei keiner Scheinsicherheit zu enden, die andererseits das Business behindert.

 

Datensicherheit in Ihrer Fileshare Cloud

 

 

Die Blockchain zur Erweiterung digitaler Subscription Modelle

Schon heute ist die Abo-Vielfalt in unserem Alltag präsent: Allein in meinem Haushalt sind es die monatlichen Ausgaben von „Tour“ – einem klassischen Zeitungs-Abonnement in Printform, plus exklusiver App mit aktuellen News aus der Bike-Welt. Aber auch mehrere Amazon-Spar Abos mit automatischer, monatlicher Lieferung von Produkten, dem Trainingsprogramm Zwift, jährliche Strava Premium Mitgliedschaften und zu guter Letzt die Streamingabos für Musik und Movies über die SoundCloud Pro+ und Netflix.
Für alle diese Leistungen – analog wie digital – benötige ich ein separates Kundenkonto. Ich muss immer wieder aufs Neue Kontoinformationen und Zahlungspläne hinterlegen und jedes Abo einzeln kündigen, wenn ich den Service nicht mehr beziehen möchte.

Gerade im Bereich des Subscription Managements von digitalen Gütern bietet die Blockchain-Technologie mit sogenannten Smart Contracts (Hierunter versteht man die ausgeführte Logik bevor etwas auf eine Blockchain geschrieben wird) interessante Chancen zur Vereinfachung von Prozessen für Service Anbieter und Konsumenten.

 

Erfolgsfaktoren des Subscription Managements

Digitale Services, wie z.B. Musikstreaming sind sich im Kern häufig ähnlich und lediglich Zusatzangebote halten den Kunden beim einen oder anderen Anbieter. Diese Leistungen können Zahlungsmodi, Image oder Sharing Funktionen für Social Media sein.

Zu den Erfolgsfaktoren des Subscription Managements zählen vor allem, dass …

  • … die Leistung permanent nutzbar ist und diese stets aktualisiert wird (z.B. neue Songs bei Musik Streaming Anbietern)
  • … die Benutzung Spaß macht und einfach funktioniert (gute Usability)
  • … möglichst schnell zusätzliche Leistungen gebucht werden und Vertragsmodi einfach geändert werden können (z.B. Familien-Abo, Wechsel von Basic zu Premium und zurück)
  • … die Leistung überall abrufbar ist (z.B. breite Geräte Unterstützung bzw. Plattformunabhängigkeit)
     

 

Das Videospiel „Anthem“ der Firma EA/BioWare zeigt zum Beispiel, wie differenziert digitale Services angeboten werden können:

  • Eine große Bandbreite an Plattformen (PlayStation 4, Windows, Xbox) wird unterstützt.
  • Der Kauf des Produkts kann physisch oder via Freischaltung des Produkt-Codes erfolgen.
  • Dem Kunden stehen buchbare Sondereditionen mit Zusatzinhalten zur Verfügung.
  • Ein Subscription Modell, das in zwei Ausprägungen (Basic & Premium) vorliegt, realisiert die Integration in das Origin Network .

 

Blockchain als Simplifizierungswerkzeug im Subscription Business

Um eine solche Vielzahl an Bezahl- und Abrechnungsmodi abwickeln zu können, muss ein Service Anbieter über moderne Billing und Payment Systeme verfügen, die Kundendaten mit Vertragsdaten und Abrechnungsmodi verbinden: Nur so gelingt die Erstellung von Rechnungen, die Besteuerung und die korrekte Verbuchung der Zahlungen.

Genau hier kann die Blockchain-Technologie, insbesondere im Bereich der Vertragsgestaltung – die Kernkomponente von Billing Systemen – mit Smart Contracts unterstützen.

Bei der eingesetzten Blockchain darf es sich jedoch in keinem Fall um eine „Private Blockchain“, sondern nur um eine „Public Blockchain“ handeln.

In einfachen Worten definiert:
Private Blockchain – eine zentrale Stelle definiert Marktteilnehmer und SmartContracts, wie in einer eigenen Forks von Ethereum oder Hyperledger Fabric (HLF);
Public Blokchain – jeder darf alles; es gibt keine Berechtigungsstrukturen, und keine zentrale Steuerung, wie bei Ethereum oder Bitcoin.

Da wie in der Realität, auch bei Blockchains selten alles Schwarz oder Weiß ist, stellt eine „Consortial / Federated Blockchain“, eine Mischform aus Public und Private Blockchain, die richtige Lösung dar. In dieser Form der Blockchain wird durch ein erweiterbares Gremium, wie zum Beispiel bei Ripple oder R3m HLF, der oparativen Ablauf regelt.

https://blockchainhub.net/blockchains-and-distributed-ledger-technologies-in-general/

 

Smart Contracts: Potential Generators für Service Provider

Je mehr Service-Provider dieselbe Blockchain nutzen, desto höher sind die Synergien, da ein Anbieter von den Leistungen der weiteren Service Provider profitieren kann.

So könnten Service Provider für ihre unterschiedlichen Subscription-Modelle einzelne SmartContract „Muster“ (z.B. Music Streaming Free Subscription, Music Streaming Premium Subscription) anlegen.
Wenn ein Benutzer eine Subscription abschließen möchte, können diese Muster herangezogen werden.
Dies stellt inhaltlich keine große Veränderung gegenüber einem zentralen Billing System dar. Genau diese Dezentralität bringt jedoch neue Vorteile und Optionen mit sich:

  • anstatt mit der eigentlichen Leistung könnte der Service Provider mit dem Vertragsmanagement Geld verdienen: Hat sich der Subscription Vertrag positiv bewiesen, könnte dieser weiteren  Service Anbietern als Muster für Ihre Dienstleistung angeboten werden. Die Nutzung dieser Vertragsmuster könnten entgeltlich verrechnet werden.
  • Der Service Provider muss nicht mehr zwingend den Service Nutzer kennen:
    Solange ein bestimmter Contract eines Anbieters ausgewählt wurde, ist unerheblich welcher „echte“ Benutzer sich hinter der kryptograpisch pseudonymisten Identität verbirgt.
    Der Service Provider muss über diesen Weg keine Kundendaten mehr bei sich speichern und der Benutzer hat seine eigenen Daten unter Kontrolle, was besonders in Bezug auf die DSVGO für       beide Seiten vorteilhaft ist.
  • Für den Benutzer ergibt sich zudem die Möglichkeit, mit einem Account/einer Identität die Services verschiedener Provider zu konsumieren, wodurch die notwendigen digitalen Identitäten stark reduziert werden könnten.
  • Die Prozesse für Berechtigte Dritte können beschleunigt werden:
    Ein Beispiel hierfür ist das Abführen der Tantiemen an Produzenten und Songwriter. Diese könnten so bei Musikstreaming-Angeboten automatisch je Stream einen gewissen Betrag bekommen. Dies ist heutzutage extrem intransparent und langwierig, da je nach Land, Subscription und Plattform andere Regeln gelten und von unterschiedlichen Rechteverwaltern (z.B. GEMA oder SACEM) erhoben werden. Dieser Ablauf könnte direkt im SmartContract verankert werden und die entsprechenden Anteile direkt an Dritte abgeführt werden.

 

Die Lösung: Verteilung per SmartContract statt Intermediär

Stark vereinfacht skizziert sind folgende Prozessschritte durchzuführen:

  1. Identität des Benutzers prüfen (Nutzer des Vertrags muss sich sicher identifizieren)
  2. Regeln aus dem Vertrag extrahieren (Auswahl des SmartContracts)
  3. entsprechende Leistung bereitstellen (Vertragsbedingungen des SmartContracts)
  4. Bezahlung anhand des Regelwerks des Smart Contracts an weitere abführen (Vertragsbedingungen des SmartContracts)

 

Fazit: Mehrwert für alle beteiligten Akteure

Der Einsatz der Blockchaintechnogie für Subscription Modelle in Form von Smart Contracts liefert sowohl für Kunden, Service Provider, als auch beteiligte Stakeholder Mehrwerte:

Kunden, bzw. Nutzer profitieren von der Reduktion von Benutzerkonten, der stärkeren Kontrolle über die eigenen Daten, der höheren Flexibilität durch einen barrierefreien Wechsel zu anderen Anbietern und der Kostensenkung durch die Reduzierung von Vermittlern.
Service Provider können ihr Portfolio erweitern und haben das Potenzial administrative Prozesse als Service selbst zu monetisieren (z.B. Rechnungserstellung oder Anlage eines Subscription Vertrags).
Beteiligte Dritte könnten zudem über Automatismen und Regeln schneller bzw. direkter am Prozess partizipieren.

Mehr zum Subscription Managment Consulting erfahren

 

Der Bias-Effekt im Machine Learning

Künstliche Intelligenz feierte in den letzten Jahren einen Erfolg nach dem anderen: selbstfahrende Autos oder das Entsperren von Smartphones durch Gesichtserkennung waren zum Beispiel noch vor wenigen Jahren nur in Science-Fiction-Filmen denkbar. All diese Erfolge werden durch „Machine Learning“-Methoden ermöglicht. Diese mathematischen Methoden vereinen zwei Kernaspekte:

  1. Selbstverbesserung durch Lernen: Durch tausendfaches, gezieltes Ausprobieren wird nach der besten mathematischen Gleichung zwischen Eingangsdaten und Modellausgabe gesucht. Die gefundene und angepasste Gleichung wird dann als „Modell“ bezeichnet.
  2. Black Box: Während ein Ingenieur häufig mathematische Zusammenhänge auf physikalischen Prinzipien wie zum Beispiel dem Satz der Energieerhaltung aufbaut, haben Machine-Learning-Modelle diesen Anspruch nicht unbedingt. Hier ist häufig nicht genau nachvollziehbar warum ein Modell bestimmte Dinge tut und andere wiederum nicht. Genutzt wird, was funktioniert.

Mehr

Was macht eigentlich ein Data Scientist?

Laut FAZ wurden rund 90 Prozent der bisher jemals verfügbaren Computerdaten in den letzten zwei Jahren generiert – mit exponentiell verlaufender Wachstumskurve. Das verändert nicht nur Geschäftsprozesse, sondern auch die Arbeitswelt. Um aus Daten zu lernen und darauf basierende Geschäftsmodelle zu entwickeln, ist das Berufsbild des Data Scientist wichtiger denn je. Wir haben mit unseren Experten Markus Beller und Danny Claus über ihr Berufsbild gesprochen.

Mehr

UX in Business-Anwendungen

Über das Thema User Experience (UX) ist immer häufiger zu lesen und auch in Unternehmen bekommt es einen neuen Stellenwert. Und das ist gut so. Denn UX ist ein wesentlicher Faktor für die Akzeptanz einer Anwendung und wird im Rahmen der Entwicklung häufig unterschätzt. Denn auch im Business-Kontext hängt die Nutzung einer Software von der Benutzererfahrung ab. Und die sollte logischerweise positiv verlaufen.

Mehr

Welche Rolle spielt das Human Interface Design (HMI) für die autonome Logistik?

Der Hype rund um das autonome Fahren beschäftigt mittlerweile auch die Logistikbranche. Führende Automobilzulieferer investieren bereits zweistellige Milliardensummen in dieses Zukunftsfeld. So präsentierte sich z.B. die ZF Friedrichshafen AG letztes Jahr auf der IAA für Nutzfahrzeuge in Hannover mit intelligenter, vernetzter Fahrzeugtechnik, die logistische Prozesse effizienter und sicherer machen soll. Hierzu gehören unter anderem Vorgänge wie das „autonome Satteln“ oder das anspruchsvolle Ab-, Auf- sowie Umsetzen von Containern. Aber auch das Überwachen von Vorgängen über Echtzeitvisualisierungen und die Interaktion mit den Fahrzeugen über spezielle Human Interface Designs (HMIs) sowie Augmented Reality Lösungen spielen hier eine Rolle.Mehr

Gestenerkennung mit Hilfe von Convolutional Neural Network (CNN)

In unserem Beitrag „Was sind künstliche Neuronale Netze: Ein praktischer Einstieg“ sind wir bereits auf die Grundlagen zu künstlichen neuronalen Netzwerken eingegangen. In der dort vorgestellten Demoanwendung zur Erkennung von Handgesten wurde ein relativ simples Feed Forward Netz verwendet, welches in der Handhabung für den Nutzer aber mit einigen Regeln verbunden ist.Mehr

Welchen Einfluss hat Subscription Management auf das Kundenerlebnis?

In der Vergangenheit waren Abonnement Modelle hauptsächlich aus der Zeitungsbranche bekannt. In den letzten zehn Jahren konnte man jedoch einen regelrechten Boom von Subscription Angeboten rund um digitale Dienste beobachten. Spotify, Netflix und Amazon Prime machen es vor. Ein wesentlicher Unterschied dieser modernen Subscriptions zeigt sich in der Flexibilität und Individualität der Angebote. Sie sind perfekt auf die Bedürfnisse der Kunden aus der heutigen Zeit ausgerichtet. Viele dieser Dienste können durch ein Shopsystem nutzungsbasiert, einmalig oder wiederkehrend gekauft werden und sind damit klar von herkömmlichen Abonnements abzugrenzen, die auf langfristige Vertragsbindung zielten. Das Verwalten dieser Abrechnungsmodelle und das Bereitstellen von unterschiedlichen Servicepaket Varianten fällt unter den Begriff Subscription Management.Mehr

Rechnungschaos bei Amazon – Wie Subscription Management typische Fallstricke bei der Rechnungsstellung vermeidet

Der Onlineversandhändler Amazon wirbt damit, dass ihr neuer Service „Amazon Export Sales LLC, [den Kunden dabei] hilft, Produkte aus der ganzen Welt leicht zu finden, Einkäufe zu tätigen und diese mit Sendungsverfolgung nach Hause liefern zu lassen. Alle möglichen Importgebühren und Steuern werden im Einkaufswagen einberechnet, um ein reibungsloses Einkaufserlebnis zu gewährleisten.“Mehr