KI kann alles? Die aktuellen Grenzen von KI und Deep Learning

Künstliche Intelligenz war schon immer ein wesentlicher Bestandteil futuristischer Visionen. Diesen Zukunftsbildern sind wir in den letzten Jahren durch die rasante Entwicklung im Bereich der künstlichen Intelligenz deutlich nähergekommen. Wer hätte schon um die Jahrtausendwende mit selbstfahrenden Autos gerechnet? Gleichzeitig werden die (scheinbar unendlichen) Möglichkeiten von KI, z.B. in den Medien, häufig zu optimistisch oder auch z.T. übertrieben dargestellt. Das sogenannte Deep Learning, eine spezielle mathematische Methode basierend auf neuronalen Netzen, ist ganz maßgeblich für den aktuellen Hype um KI mit verantwortlich. Gleichzeitig hat auch diese Methode seine Grenzen, auf die Gary Marcus in seinem Paper „Deep Learning: A Critical Appraisal“ strukturiert eingeht. Inspiriert von dieser Arbeit soll im Folgenden auf diese Grenzen näher eingegangen werden.

Die Größe der realen Welt und wie begrenzt KI sie sieht

Die Realität ist unglaublich komplex und unglaublich vielfältig. Wir Menschen bewegen uns tagtäglich in dieser Komplexität, die häufig daher rührt, dass wir nicht in fest definierten, abgeschlossenen Systemen leben. Viele Teilaufgaben kann künstliche Intelligenz schon heute besser lösen als wir, aber gleichzeitig sind Menschen immer noch recht gut darin, Information im jeweiligen Kontext zu verarbeiten. Sehen wir nachts eine rot leuchtende Verkehrsampel im Garten eines Freundes, erkennen wir sie als Partybeleuchtung und warten nicht darauf, dass auf grün umschaltet.

Wie sieht künstliche Intelligenz aber die Welt? KI-Algorithmen lernen die Welt durch Datensätze kennen. Betrachten wir zum Beispiel das autonome Fahren. Eine Teilaufgabe besteht für KI hier darin, Schilder korrekt zu erkennen. Hierzu können wir einem KI-Algorithmus Beispielbilder vorlegen. Gleichzeitig würden wir die Schilder auf den Beispielbildern markieren und die korrekte Kategorie benennen („Stoppschild“). Der KI-Algorithmus vergleicht nun ein Bild mit der erwarteten Ausgabe („Stoppschild“) – dies macht er mit allen Beispielbildern und versucht, einen mathematischen Zusammenhang zwischen dem Bild und der Verkehrsschildkategorie zu finden.

Die Welt besteht für einen KI-Algorithmus also hauptsächlich aus den Daten, die ihm vorgelegt werden. Damit unterscheidet sich der KI-Algorithmus natürlich nicht grundlegend von uns Menschen, aber es gibt doch einige Herausforderungen und Grenzen, die ihn doch unterscheidet.

Schierer Datenhunger

Ein kleines Kind, das zum ersten Mal in seinem Leben einen Elefanten sieht, versteht sehr schnell was ein Elefant ist und erkennt danach ein solches Tier auch in anderen Zusammenhängen sehr zuverlässig, z.B. in einem Kinderbuch oder im Fernsehen. Bei Deep-Learning-Algorithmen ist dies nicht der Fall. Dies liegt daran, dass sie solche Zusammenhänge nicht explizit lernen können, sondern diese implizit auf Basis einer großen Anzahl von Beispielen tun. Daher sind sie extrem datenhungrig. Liegen diese großen Datenmengen nicht vor, dann tun sich diese Algorithmen sehr schwer, die Qualität der Modelle bzw. der Vorhersageergebnisse sinkt.

Auch müssen die verarbeiteten Beispieldaten möglichst alle Facetten eines Problems beinhalten. Ein Deep-Learning-Verfahren, dass immer nur mit weißen Schwänen trainiert wurde, ist – im Gegensatz zum Menschen – nicht in der Lage, einen plötzlich auftretenden schwarzen Schwan zu erkennen, wenn dieser vorher nicht in den Trainingsdatensätzen hinterlegt war.

Standing on the shoulder of giants
Abbildung 1: Standing on the shoulder of giants – eigene Darstellung

Auch heute können wir die Welt um uns (noch?) nicht abschließend erklären. Doch eine der Stärken der Wissenschaft ist es, auf dem vorhandenen Wissen aufzubauen und in einem iterativen Prozess immer bessere Modelle unserer Welt zu entwerfen. Das Englische Sprichwort „Standing on the shoulders of giants“ beschreibt dies anschaulich: Jede Generation baut auf den Vordenkern vergangener Epochen auf.

Das bedeutet aber auch, dass wir in all unserem Handeln immer auf dieses Vorwissen zugreifen können. Ein Apfel in unserer Hand, den wir loslassen, fällt auf den Boden und steigt nicht an die Decke. Fassen wir eine kalte Wand an, so wird die Wand wärmer und unsere Hand kälter – Energie geht also auf den kälteren Körper über. Das Gegenteil passiert nicht spontan. All das sind Beispiele für allgemeines Vorwissen, das wir stets als Transferwissen verfügbar haben, unabhängig davon, welche speziellen Probleme wir gerade lösen.
Doch Deep Learning-Algorithmen können dieses Transfer- oder Allgemeinwissen nicht nutzen. Sie können nicht auf einem allgemeinen Vorwissen aufbauen, sondern müssen jedes Problem, das sie lösen sollen, von Grund auf neu lernen. Deep-Learning-Algorithmen sind also immer sehr problemspezifisch.

Ein Beispiel in diesem Zusammenhang ist die Bilderkennung. Es gibt schon sehr gute Deep-Learning-Modelle zur Objekterkennung. Diese erkennen sehr zuverlässig, ob auf einem Bild ein Teller Nudeln oder ein Hund dargestellt wird. Eine leichte Abwandlung dieser Problemstellung – z.B. der Algorithmus soll auf Satellitenfotos automatisch Fahrbahnmarkierungen (Zebrastreifen, Pfeile, etc.) erkennen – führt dazu, dass diese Modelle für diese Problemstellung völlig unbrauchbar werden und ein ganzer Forschungszweig gegründet wird, der sich nur mit der Lösung dieses Themas beschäftigt.

Korrelation bedeutet nicht kausaler Zusammenhang

Die Nutzung von Vorwissen ist auch notwendig, um logisch sinnvolle Zusammenhänge von zufälligen Zusammenhängen zu unterscheiden. Ein Beispiel: Die Geburtenrate in westeuropäischen Ländern geht stetig zurück. Gleichzeitig ist die Anzahl brütender Storchenpaare rückläufig. Wollten wir die Geburtenrate erhöhen, müssten wir also einfach Störche besser schützen?

Historischer Verlauf zur Entwicklung der Storch- und Babyzahlen und dadurch abgeleitete Correlation.
Abbildung 2. Historischer Verlauf zur Entwicklung der Storch- und Babyzahlen und dadurch abgeleitete Correlation.

Das ist natürlich ein offensichtlicher Fehlschluss. Nur weil ein mathematischer Zusammenhang historisch existiert, heißt es noch lange nicht, dass die Geburtenrate in einem logischen Zusammenhang mit der Anzahl der Störche steht.

Grafik zum zukünftigen Verlauf zur Entwicklung der Storch- und Babyzahlen
Abbildung 3. Real eingetretener, zukünftiger Verlauf zur Entwicklung der Storch- und Babyzahlen.

Ein Mensch kann diesen offensichtlichen Fehlschluss erkennen, da er gerade auf seine gesamte Lebenserfahrung und Allgemeinbildung zurückgreifen kann – KI kann das im Allgemeinen nicht. Bei komplizierteren Problemstellungen können auch Menschen nicht mehr zweifelsfrei sagen, ob einem mathematischen Zusammenhang eine reale Abhängigkeit zu Grunde liegt. Hier müssen Wissenschaftler Hypothesen aufstellen, die sie dann immer wieder mit neuen Experimenten versuchen zu widerlegen.

Bedeutet Auswendiglernen wirklich Konzeptverständnis?

Im Begriff „Künstliche Intelligenz“ ist schon der Vergleich mit menschlichen Fähigkeiten angelegt. Diese Vergleiche ziehen sich durch alle Begrifflichkeiten: so „lernt“ zum Beispiel ein Machine-Learning-Modell Zusammenhänge und Ähnlichkeiten aus einem vorgegebenen Datensatz. Nur was genau bedeutet hier „lernen“? Ein Mensch ist in der Lage, mit recht wenigen Daten Konzepte zu lernen.
Zur Illustration dient Abbildung 4: in einem einfachen Computerspiel bewegt sich auf dem Bildschirm ein Ball. Ziel ist es mit dem Ball alle auf dem Bildschirm platzierten Blöcke zu berühren, die bei Berührung verschwinden. Trifft der Ball auf ein Hindernis, so wird er von dort abgestoßen. Es sei denn, er berührt den unteren Bildschirmrand, dann ist das Spiel verloren. Mit Hilfe eines horizontal beweglichen Schlägers lässt sich der Ball indirekt steuern.

Computerspiel nach dem Prinzip von Breakout - ein Ball muss mit einem Schläger gespielt werden, der beim Berühren die Blöcke zerstört
Abbildung 4. Computerspiel nach dem Prinzip von Breakout – ein Ball muss mit einem Schläger gespielt werden, der beim Berühren die Blöcke zerstört (Quelle: Flickr.com).

Ein Mensch versteht das Spielprinzip nach wenigen Sekunden, auch ohne eine explizite Regeldefinition und hat auch keine Probleme mit einer leichten Abwandlung: zum Beispiel, in dem die vertikale Position des Schlägers leicht verändert wird. Ein Deep-Learning-Modell hat mit solchen Verallgemeinerungen häufig große Probleme und scheitert durch die leichte Veränderung der äußeren Umstände. Das Modell hat nicht wirklich verallgemeinerte Konzepte gelernt („Schläger“, „Ball“, „Wand“) sondern durch endloses Ausprobieren eine erfolgreiche Lösungsstrategie gefunden – die jedoch nicht robust ist gegen kleine Abwandlungen der Systemparameter.

Die vielgefürchtete „black box“

Deep-Learning-Modellen wird häufig nachgesagt, dass sie schwer „erklärbar“ sind und wie eine „black box“ wirken. Man füttert das Modell mit Daten, erhält eine Antwort, aber weiß nicht wirklich, warum das Modell diese Antwort gegeben hat. Das Regelwerk, das zur Entscheidung führt, ist nicht sofort ersichtlich – es ist regelrecht undurchsichtig. Um diese Undurchsichtigkeit von KI zu durchbrechen, ist die „Erklärbarkeit“ von KI-Modellen ein Gegenstand aktueller Forschung. Aber warum ist das überhaupt wichtig? Ganz konkret schränken undurchsichtige KI-Modelle die Anwendbarkeit von KI in den folgenden zwei Beispielen ein:

Vertrauenswürdigkeit: Besonders in regulierten Bereichen, wie zum Beispiel der Medizintechnik oder dem Verkehrswesen, unterliegt jegliche Software besonders hohen gesetzlichen Auflagen. Es soll sichergestellt werden, dass die Software unter allen möglichen Umständen sicher agiert. Das stellt Deep-Learning-Modelle vor große Herausforderungen: Sie lernen hauptsächlich aus den zur Verfügung stehenden Daten. Nehmen wir wieder das Beispiel einer Verkehrsschilderkennung. Es ist undurchsichtig, warum genau das Modell ein Stoppschild als solches erkennt. Die Forschergruppe um Eykholt et al1. zeigte zum Beispiel, wie leicht KI-Modelle sich hier austricksen lassen können. Durch eine leichte Modifikation der Verkehrsschilder, die für Menschen klar als solche erkennbar war, wurden die Schilder nicht mehr als Stoppschild erkannt. Solche Effekte stellen natürlich das Vertrauen in Deep-Learning-Algorithmen für diese Anwendungszwecke in Frage. Die Undurchsichtigkeit von Deep-Learning-Modellen erschwert es, solche unerwünschten Effekte zu bemerken, da sie nicht direkt erkennbar sind.
Sicherheits- und Qualitätsgarantien für modulare Systeme: Im Ingenieursbereich werden komplexe technische Systeme häufig aus vielen kleinen Einzelteilen zusammengesetzt. Ein Auto benötigt einen Motor, Räder, eine Kupplung – für jede dieser Komponenten können in der Entwicklung Sicherheitsgarantien gegeben werden, die es erlauben das Teil in ein größeres Gesamtsystem einzusetzen. Deep-Learning-Modelle können das nicht ohne weiteres. Sie sind extrem abhängig von ihrem ursprünglichen Datensatz. Durch die Undurchsichtigkeit der Modelle ist es sehr schwierig, die Auswirkung veränderter Voraussetzungen auf das Modell abzuschätzen. Dementsprechend ist es nur schwer möglich ein Gesamtsystem modular aus vielen Modellen aufzubauen und verbindliche Qualitäts- und Performancegarantien für das Gesamtsystem abzuleiten.

Wie sieht die Zukunft von KI und Deep Learning aus?

Gary Marcus gibt ein paar Anregungen bezüglich der künftigen Entwicklung von künstlicher Intelligenz und insbesondere von Deep Learning:

  • Wiederaufleben anderer KI-Disziplinen: Deep Learning ist ein Teil des Machine Learning, welches wiederum einer ganz gewissen Disziplin der künstlichen Intelligenz angehört. Eine klassische Disziplin der KI ist symbolische Künstliche Intelligenz. Hierdurch können vielleicht Fortschritte im logischen Schließen erzielt werden.
  • Zurück zum Studienobjekt Mensch: So kann man besser verstehen und lernen, wie wir lernen und die Welt wahrnehmen. Disziplinen wie die kognitive Psychologie und Entwicklungspsychologie, die versuchen die Funktionsweise des Menschen besser zu verstehen, könnten hier neue Impulse liefern.
  • Anspruchsvollere Ziele: Häufig wird versucht, mit Deep Learning eng abgesteckte Probleme zu lösen. Stattdessen steht der Vorschlag im Raum, darüber hinausgehende Herausforderungen aufzustellen – z.B. einen Algorithmus ein beliebiges Video oder einen Text analysieren zu lassen und ihn offene Fragen beantworten lassen: Wer ist die Hauptfigur? Was will sie erreichen? Welche Folgen hätte ihr Erfolg oder Misserfolg?

 

Fazit: Herausforderungen und Grenzen kennen – Deep Learning richtig nutzen

Manchmal scheint es, als stünde Künstliche Intelligenz kurz davor, die Menschheit in jeglicher Hinsicht zu überflügeln. Es gibt in der Tat einzelne Problemstellungen, in denen dies der KI bereits gelungen ist. Dennoch sind wir von einer Dominanz der KI in allen Lebensbereichen noch ein gutes Stück entfernt. Deep-Learning-Methoden arbeiten besonders gut, wenn sehr viele Daten vorhanden sind und die Problemstellung ganz klar abgegrenzt ist. Aber es gibt auch noch viele Herausforderungen – unter anderem: ein echtes Verständnis abstrakter Konzepte, Transfer von Wissen auf neuartige Anwendungsprobleme, Transparenz und Sicherheitsgarantien, die Unterscheidung zwischen zufälligen und logisch sinnvollen Zusammenhängen. Daher ist ein Bewusstsein über diese Rahmenbedingungen, beim Einsatz von KI Verfahren wie z.B. Deep Learning, sehr wichtig. Die Anregungen von Gary Marcus für die künftige Entwicklung können da wertvolle Impulse liefern.

Co-Autor: Danny Claus


1 Robust Physical-World Attacks on Deep Learning Visual Classification

Die fünf ultimativen KI Trends für das nächste Jahrzehnt

Künstliche Intelligenz (KI) ist in aller Munde. Die einen sehen in KI neue, bislang ungeahnte Chancen, um Produkte noch schneller und genauer an die Bedürfnisse der Menschen anzupassen, die sie nutzen. Kurz: Künstliche Intelligenz hilft, Mehrwert zu schaffen und unser aller Leben besser zu machen.

KI als Bedrohung der menschlichen Souveränität?

Die dem entgegengesetzte Sichtweise betrachtet KI als Bedrohung der menschlichen Souveränität und Entscheidungshoheit. Wenn Algorithmen schon heute über weite Strecken das weltweite Finanz- und Wirtschaftsgeschehen steuern, wenn sie eingesetzt werden, um Bewerber auf ihre Eignung für den zu besetzenden Arbeitsplatz zu beurteilen, dann – so die Befürchtung – sind wir bald die Vollzugsgehilfen von Computerprogrammen. Und manche düster-dystopische Vision gipfelt in Szenarien wie diesem: Eine überintelligente KI kommt zu dem Schluss, dass die Menschen, wenn sie sich frei entfalten, zu viele falsche Entscheidungen treffen. Also steckt sie uns in eine Art Reservat mit beschränkten Freiheiten. Dort leben wir womöglich glücklich, zufrieden und in gut durchstrukturierten Bahnen, sind aber nicht frei.

Ich bin überzeugt, beide Sichtweisen haben ihre Berechtigung und sollten einbezogen werden, wenn es darum geht, die mit Künstlicher Intelligenz verbundenen Möglichkeiten auszuloten und die Entwicklung bewusst zu gestalten.

Womit wir schon beim Kern unseres Themas sind: der Notwendigkeit zu steuern, damit sich die Technologie nicht verselbständigt. Denn das wird sie, wenn es keine Kontrollmechanismen gibt. So wie heute jede Software gesetzeskonform sein muss, sonst macht sich derjenige strafbar, der sie entwickelt, so muss auch KI gesetzlichen Vorgaben entsprechen. Im Dieselskandal beispielsweise wurde genau dies umgangen. Die Frage ist also nicht, wie intelligent KI durch Lernen oder durch Programmierung wird, sondern wieviel Macht wir ihr geben.

Folgen der Technologie abschätzen

Künstliche Intelligenz ist wahrscheinlich die bislang wichtigste, weil folgenreichste „Erfindung“ des Menschen. Schon die Technologien des 20. Jahrhunderts und ihre Auswirkungen zeugen davon, dass vieles, was technologisch machbar oder profitabel ist, unsere Welt nicht zwingend besser und die Erde zu einem lebenswerteren Ort macht. Nicht von ungefähr gibt es seit den 1960er Jahren das Forschungsgebiet der Technikfolgenabschätzung.

Schon immer haben Erfindungen und neue Technologien die Lebensbedingungen der Menschen und damit auch ihr Verhalten verändert. Dies gilt umso mehr, je stärker die Neuerungen in die bestehenden Strukturen eingreifen, je höher ihre Reichweite ist und je schneller sie sich verbreiten. Man nehme als Beispiele dafür nur die Mobilität des modernen Menschen, den Massentourismus, die industrielle Lebensmittelproduktion oder das jederzeit und überall verfügbare Internet. Sie haben nicht nur zu massiven Veränderungen des menschlichen Verhaltens geführt, sie erschüttern im Moment den Planeten in seinen Grundfesten.

Künstliche Intelligenz hat das Potenzial, unser Zusammenleben, unsere wirtschaftliche und gesellschaftliche Realität weit stärker zu verändern als alle Technologien, die wir bislang kennen. Allein das ist Grund genug, dass wir ihre Entwicklung nicht dem Zufall, den Mechanismen der Märkte oder den Wenigen überlassen, die mit immensen finanziellen Mitteln Fakten schaffen können. Vielmehr bedarf KI zwingend der Steuerung durch die Gemeinschaft der Menschen, durch uns alle.

Was ist also zu tun?

Zunächst: Ich bin überzeugt, selbst hochgesteckte Erwartungen an die Potenziale von KI sind gerechtfertigt – ob es um das autonome Fahren geht, um Diagnosen in der Medizin oder darum, leistungsfähigere, besser verkaufbare Produkte, einen höheren Automatisierungsgrad und effizientere Entscheidungsprozesse zu erreichen, auf welchem Gebiet auch immer. Das alles wird kommen. Und es ist geeignet, manches heute unlösbar scheinende Problem zu lösen und uns tatsächlich in einem positiven Sinne weiterzubringen. Überzogen scheinen mir allerdings die Erwartungen, was den Zeithorizont angeht. Auch wenn die Entwicklung rasant verläuft, in der Regel neigen wir dazu, die mentale und kognitive Leistungsfähigkeit der Menschen zu unter- und die der Maschine zu überschätzen.

Anders ausgedrückt: Dass „die Maschine“ über mehr praktische Intelligenz verfügt und damit in jeder Situation bessere Entscheidungen trifft als der Mensch, ist aus meiner Sicht in den nächsten 50 Jahren nicht zu erwarten. Dafür gibt es in unserem Alltag zu viele unbekannte Situationen, in denen sich der Mensch vor allem durch sein Allgemeinwissen über die Welt besser zurechtfindet. Dennoch: Was in den kommenden Jahren und Jahrzehnten in Sachen Künstlicher Intelligenz geschieht, hat aber längst seinen Anfang genommen. Es entwickelt sich rasant – und bislang relativ unkontrolliert. Höchste Zeit also, genau hinzusehen und bewusst zu steuern, in welche Richtung wir gehen wollen.

Bewusst handeln – fünf Trends

Der aus meiner Sicht alles überragende KI-Trend des kommenden Jahrzehnts heißt: öffentliches Bewusstsein entwickeln. Für die möglichen Entwicklungen der Künstlichen Intelligenz, für ihre technologischen, wirtschaftlichen sowie gesellschaftlichen Chancen und ihre realistische Einschätzung. Und für die Risiken. Dabei gilt es besonderes Augenmerk auf folgende Gebiete zu richten.

1.Maschinen sind wie Kinder. Computer, die mit selbstlernenden Algorithmen, also Künstlicher Intelligenz ausgestattet sind, verhalten sich im Prinzip wie Kinder. Basis ihres Lernens ist das, womit sie „gefüttert“ werden. Wie Kinder das Verhalten ihrer Eltern nachahmen, erkennt und interpretiert die Maschine auf Basis ihrer Vorgaben Muster und entwickelt die diesen Mustern folgenden Erscheinungsformen logisch weiter. Sie lernt Neues, aber immer vor dem Hintergrund dessen, was sie ursprünglich erfahren hat. Wir werden uns also der Frage stellen müssen: Wollen wir die Ergebnisse dieses Lernens dem Zufall überlassen? Oder sollten wir besser verbindliche Leitlinien für die Lernvorgaben und die Beurteilung der Lernergebnisse entwickeln? Und dann dafür sorgen, dass die Einhaltung dieser Leitlinien kontrollier- beziehungsweise nachvollziehbar ist? Dabei sollten wir uns vor Augen halten: Lernen die Maschinen in Zukunft unkontrolliert, ist die Wahrscheinlichkeit hoch, dass sie sich vorwiegend entlang der Gewinnmaximierung ihres Eigentümers entwickeln. Das kann nicht das Interesse der Allgemeinheit sein.

2.Programmierer werden zu Verhaltensforschern. Wenn sich künstlich intelligente Maschinen verhalten wie Kinder, ist die logische Folgerung: Die Entwickler, die mit diesen Maschinen arbeiten, sollten die noch zu entwickelnden Leitlinien kennen und umsetzen. Sie sollten abschätzen können, was die Maschine auf lange Sicht aus ihrem „Futter“ macht. Daraus ergeben sich neue Anforderungen an die IT-Ausbildung: Reines Programmier-Knowhow allein reicht nicht mehr aus. Vielmehr braucht ein guter KI-Spezialist künftig eine Art ethische Grundausbildung. Er muss lernen, seine Arbeit bewusst am Gemeinwohl und an den ethischen Grundwerten der Menschheit auszurichten. Darüber hinaus braucht er umfassendes technisches Wissen rund um die fünf großen Schulen des Maschinenlernens, wie sie der renommierte Informatiker Pedro Domingos definiert hat:
Konnektion. Diese Schule orientiert sich an dem Funktionsprinzip des menschlichen Gehirns. Das Ergebnis sind neuronale Netzwerke, deren Neuronen Synapsen bilden oder verändern.
Symbolik. Sie hat ihre Wurzeln in der Logik und schließt von bekannten Fakten auf unbekannte Prämissen. Beispiel: „Ich bin ein Mensch. Ich bin sterblich. Daraus folgt: Menschen können sterben.“
Evolution. Das mächtigste uns bekannte Lernprinzip. Diese Schule setzt auf Programme, die die natürliche Selektion der Evolution simulieren.
Bayes´ Schule. Lernen bedeutet hier, Hypothesen zu postulieren und sie an neue Beobachtungen anzupassen.
Analogie. Jede neue Beobachtung wird der Kategorie zugeordnet, die die meisten ähnlichen beziehungsweise ähnlichsten Fälle enthält.

3.Die Kulturrevolution kommt. Keine bislang vom Menschen geschaffene Technologie hat auch nur annähernd eine solche Bandbreite an neuen Möglichkeiten eröffnet wie die KI – im Positiven wie im Negativen. Hinzu kommt, dass sich durch das Internet alles mit Lichtgeschwindigkeit ausbreitet. Nicht zuletzt deshalb wird die KI-Entwicklung schwer zu kontrollieren sein und auf vielen Gebieten Fortschritte machen, die evolutionären Sprüngen gleichkommen. Entscheidend ist hier: Damit das am Horizont aufdämmernde KI-basierte System überhaupt auf Dauer funktioniert, muss es letztlich dem Menschen dienen. Seit Beginn der Industrialisierung hat die Maschine den Takt und die Richtung vorgegeben.

Mit KI ist es möglich, dieses System wieder am Menschen auszurichten. Dazu allerdings müssen wir unser über Jahrtausende eingeübtes Denken in hierarchischen Strukturen und getrennten Untersystemen überwinden. Nur dann werden wir in der Lage sein, die von uns geschaffenen Technologien der Digitalisierung und Künstlichen Intelligenz zu beherrschen. Falls nicht, werden die Technologien uns beherrschen. Was wir deshalb brauchen, ist eine offene, an tatsächlich gelebten Werten orientierte Kultur, eine Fehlerkultur, die sich einzig an der Suche nach der Wahrheit beziehungsweise dem bestmöglichen Ergebnis für die Allgemeinheit orientiert. Und wir brauchen Transparenz, denn damit sind wir am ehesten in der Lage, die Ausbreitung von Anwendungen zu verhindern, die Schaden anrichten. Mit Transparenz wäre der Dieselskandal schlicht nicht möglich gewesen. Dafür aber brauchen wir neue Organisationsstrukturen, die eine Entwicklung in Richtung Fehlerkultur und Transparenz unterstützen. Sie gilt es zu entwickeln.

4.Der Arbeitsmarkt wird umgekrempelt. Wenn immer mehr Maschinen zur Wertschöpfung herangezogen werden, hat das Auswirkungen auf den Arbeitsmarkt. Zu den ersten wird gehören, dass klassische Berufsbilder aussterben oder deutlich weniger Jobchancen bieten – zum Beispiel für KassiererInnen im Einzelhandel oder BeraterInnen im Finanzsektor. Was den Wegfall von Arbeitsplätzen angeht, zeichnet das Bundesarbeitsministerium ein eher optimistisches Bild.[1] Demnach sollen durch den KI-Strukturwandel in den kommenden fünf Jahren 1,3 Millionen Arbeitsplätze in Deutschland verloren gehen, auf der anderen Seite aber 2,1 Millionen neue Stellen entstehen. Bis 2035 rechnen die Experten damit, dass rund vier Millionen Arbeitsplätze wegfallen und etwa 3,3 Millionen neue Jobs hinzukommen. Allerdings nur, wenn sich viele Beschäftige neue Qualifikationen aneignen. Dafür sind Umschulungen und Weiterbildungen erforderlich. Ob diese Einschätzung realistisch ist, sei dahingestellt. Durchaus denkbar ist auch, dass viele Millionen von Arbeitsplätzen ersatzlos wegfallen. Auch für solche Szenarien werden wir in den kommenden Jahren Pläne entwickeln müssen. Wird dann ein bedingungsloses Grundeinkommen nötig, um den Lebensunterhalt der Bürger zu sichern – und ihren Konsum als tragende Säule unserer Wirtschaft?

5.Gemeinwohl-Ökonomie oder wachsende Ungleichheit. Sicher ist: Künstliche Intelligenz wird immer neue Möglichkeiten der Gewinnmaximierung schaffen. Und Maschinen werden einen immer größeren Anteil an der allgemeinen Wertschöpfung haben. Diese Wertschöpfung muss einen angemessenen Beitrag für die Allgemeinheit leisten. Sonst werden die Mechanismen, nach denen unsere Marktwirtschaft bislang funktioniert, dafür sorgen, dass das Geld, das sie erwirtschaften, vor allem jenen zugutekommt, die diese Maschinen besitzen beziehungsweise betreiben. Überlassen wir die Entwicklung unkontrolliert diesen Mechanismen, wird es womöglich in wenigen Jahrzehnten einige zehntausend Superreiche auf der Erde geben und eine Milliardenarmee von Armen, deren Konsum durch Subventionen aufrechterhalten wird. Welche psychosozialen Folgen das nach sich zieht, vermag niemand zu sagen. Die Alternative: Wir schaffen eine Gemeinwohl-Ökonomie, ein System, in dem die Wertschöpfung mehr als jetzt der Allgemeinheit zugutekommt. Denn eins ist klar: Unser Wirtschaftssystem lebt vom Konsum. Kooperation ist deshalb im Interesse aller, ob sie viel oder wenig besitzen. Optimal wäre es, wenn die Reichen beziehungsweise die Besitzer der KI-Supermaschinen erkennen würden, dass sie die anderen Menschen brauchen, um das System aufrecht zu erhalten. Und entsprechend handeln, nach dem Motto: Leben und leben lassen.

 

Fazit

Wenn es uns gelingt, gute Antworten auf die oben skizzierten Fragen zu finden, wenn wir in der Lage sind, der ethischen Dimension von KI gerecht zu werden und ihre Entwicklung entsprechend zu steuern, dann – davon bin ich fest überzeugt – kann sich Künstliche Intelligenz zum Segen für die Menschheit entwickeln. Entscheidend wird sein: Wir müssen jetzt denken, den öffentlichen Diskurs starten und schnell handeln. Sonst ist die Büchse der Pandora womöglich offen, ehe wir mit ihrem Inhalt umzugehen wissen.

Habt Ihr schon gute Antworten auf die obigen Fragen gefunden? Werden wir in der Lage sein die Entwicklung von KI zu steuern? Teilt doch Eure Ideen durch das Kommentarfeld mit uns.

Übrigens: Die ersten Unternehmen veröffentlichen inzwischen Algorithmen, die sie für ihre KI-Projekte entwickeln. So hat zum Beispiel der Automobilhersteller BMW einige seiner für Machine Learning geschaffenen Algorithmen vor kurzem als Open Source auf Github veröffentlicht [2] und sie damit für die Öffentlichkeit verfügbar und transparent gemacht. Solche Entscheidungen gehen definitiv in die richtige Richtung.


Mehr zu dem Thema Künstliche Intelligenz und Data Driven gibt es hier

 

Du möchtest an spannenden KI Projekten mitarbeiten? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.


[1] https://www.sueddeutsche.de/wirtschaft/ki-observatorium-tuev-arbeitsministerium-1.4676937

[2] https://www.golem.de/news/deep-learning-bmw-legt-eigene-ki-algorithmen-offen-1912-145576.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 3: Kartenmaterial, 5G, Digital Twin und Datenökonomie

In Teil 1 unseres Blogbeitrags standen vor allem die Sensoren im Fahrzeug im Fokus, in Teil 2 wurde das Thema V2X vorgestellt. Im Folgenden wird das Thema autonomes Fahren aus dem Blickwinkel Kartenmaterial, Konnektivität und Vernetzung der Fahrzeuge betrachtet.

Kartenmaterial Over-the-Air: Orientierung für das autonome Fahrzeug

2016 kauften Audi, BMW und Daimler den Kartendienst „Here“ vom finnischen Nokia-Konzern. Das zeigt die Relevanz von Kartenmaterial. Die drei Autobauer haben sich zusammengetan, um zu verhindern, dass die Schlüsseltechnologie für Navigation, Assistenzsysteme und autonomes Fahren in die Hand von Google oder einem anderen Internetkonzern gerät.

Doch warum ist Kartenmaterial so wichtig? Nicht nur zur Navigation, sondern auch um Umweltinformationen zu validieren, die von anderer Sensorik aufgenommen werden. Die Software im Fahrzeug nimmt dann von Sensoren generierte Karten, kombiniert sie mit den schon vorhandenen hochauflösenden Landkarten und leitet daraus wichtige Schlüsse ab.

Autonome Fahrzeuge haben durch die Kombination von 3-D-Karten, Radarsensoren und Live-Kamerabildern ein exaktes Bild ihrer Umgebung. Sind beispielsweise bei Schnee Fahrbahnmarkierungen nicht mehr verfügbar, kann sich das Fahrzeug an der Umgebung orientieren. Tesla nutzt dafür die eigene Flotte der verkauften Fahrzeuge und eine clevere „Schwarmfunktion“ ihrer Software: Zum Beispiel sammeln alle Tesla Model S, die derzeit auf den Straßen unterwegs sind, unentwegt Daten und stellen diese in der Cloud zur Verfügung. Diese Informationen werden in Echtzeit hochgeladen und allen anderen Fahrzeugen zur Verfügung gestellt, die auch auf dieser Strecke oder in dieser Gegend unterwegs sind. So wird z.B. über plötzlichen Regen oder Schneefall, eine Baustelle, Panne oder Unfall informiert.[1] Hier wird das Thema Datenökonomie relevant, auf das im Abschluss eingegangen wird.

5G: Konnektivität und Software Update Over-the-Air

Die Zeit schreibt: „Das selbstfahrende Auto braucht 5G“. Und Vodafone-Sprecher Markus Teubner beschreibt die Leistungsfähigkeit der nächsten Mobilfunkgeneration so: „5G ermöglicht die Datenübertragung in Echtzeit mit einer Verzögerungszeit von nur einer Millisekunde. Das ist kürzer als ein menschlicher Wimpernschlag.“ Die Übertragungstechnik von morgen müsse sich an den Anforderungen des menschlichen Auges und der Berührungssinne orientieren, erklärten die Experten mit Blick auf das selbstfahrende Auto, das in kritischen Situationen ebenso reflexartig reagieren muss wie ein menschlicher Fahrer.[2]

Dass Fahrzeugfunktionen bereits „Over-the-Air“ (OTA) verbessert werden können, hat Tesla an zwei Beispielen gezeigt: „Wegen zu schwacher Bremsen hatte das einflussreiche US-Verbrauchermagazin „Consumer Reports“ dem Tesla Model 3 zunächst die Auszeichnung mit seinem Qualitätssiegel „Kaufempfehlung“ verweigert. Nachdem der Hersteller per Software-Update nachbesserte, gibt es das begehrte Siegel nun doch. Dem Magazin zufolge konnte der Bremsweg durch die online durchgeführte Aktualisierung deutlich verkürzt werden.[3]

Auch die Beschleunigungswerte konnten ohne Besuch der Werkstatt verbessert werden. Demnach beschleunigte das Model S 100D in 3,3 statt 4,3 Sekunden von 0 auf 100 km/h. Beim Model X 100D wurden 4,5 statt 4,9 Sekunden für den Sprint auf 100 km/h angegeben.[4]

Wenn man bedenkt, dass sich der Fokus beim autonomen Fahren immer mehr in Richtung Software verschiebt und diese immer komplexer wird, sind OTA-Updates für die Fahrzeugflotte eine Schlüsseltechnologie – gerade beim Wechsel der Verantwortung von Fahrzeugführer zum Fahrzeug. Hier könnte eine fehlerhafte Softwareversion fatale Folgen haben und Fehler müssen so schnell wie möglich behoben werden können.

Digital Twin und Daten-Ökonomie

Für die Analysten von Gartner ist das Thema Digital Twin einer der zehn Top-Technologietrends (Stand 2017). So treiben derzeit alle deutschen Automobilhersteller das Thema mit Nachdruck voran. Über das digitale Abbild lässt sich einfach und schnell nachprüfen, ob und wie ein Teil nachgerüstet werden kann und ob es kompatibel zum Rest des Fahrzeuges ist. Der Nutzen fängt in der Produktentwicklung an, geht über die Produktion und endet im Aftersales, etwa bei der Planung von Rückrufaktionen.[5]

Bei Digital Twin erhalten reale Objekte und Prozesse ein virtuelles Software-Spiegelbild in der digitalen Welt. Digital Twins können helfen reale Fahrzeuge während ihres Lebenszyklus zu managen. Gerade bei der Transition der Verantwortung von Mensch zum Fahrzeug ist die Möglichkeit eines lückenlosen Nachweises wichtig, um möglichen Fehlern vorzubeugen und sicherheitsrelevante Trends über die gesamte Flotte zu erkennen.

Die gesammelten Daten des Digital Twins sind im Kontext des autonomen Fahrens natürlich auch für Anwendungsfälle von Dritten interessant. Dafür hat BMW bereits vor längerer Zeit die Telematik-Datenplattform BMW CarData ins Leben gerufen mit dem Ziel, Telematik-Daten, die vom Fahrzeug erfasst werden, zur Verfügung zu stellen. Kunden haben damit – wie auch von der EU DSGVO gefordert – die volle Transparenz, was ihre eigenen Daten angeht. Und Partnerfirmen können damit zusätzliche nutzenbringende Services für die Kunden entwickeln. Natürlich soll eine Datenweitergabe an die Partnerfirmen nur stattfinden, wenn der Kunde dem explizit zugestimmt hat.

War es bisher für Fahrzeughersteller wie BMW und andere üblich, materielle Güter zu verkaufen, investieren sie immer häufiger in digitale Geschäftsmodelle. Die hierfür notwendigen IT Systeme müssen entwickelt und nahtlos in die bestehende Infrastruktur integriert werden. Auch das Thema „Subscription Management“ bzw. „Billing und Payment“ zur Abrechnung der Services werden in diesem Kontext häufig diskutiert.

Beim Thema autonomes Fahren ist entscheidend, dass Dritte wie Versicherer oder Service-Partner auf Fahrzeugdaten zugreifen können und durch die Bereitstellung der Daten schlanke Prozesse ermöglicht werden, um ein optimales Kundenerlebnis zu ermöglichen. Somit lässt sich zum Beispiel das Einbinden von Service-Partnern, die sich um die Wartung von autonomen Fahrzeugen kümmern, einfach gestalten.

Fazit

Die Vernetzung des Fahrzeugs und die Möglichkeit, zügig Updates von Kartenmaterial oder Steuergerätesoftware über 5G im Fahrzeug vorzunehmen, ist ein entscheidender Baustein hin zum autonomen Fahren. So lassen sich Schwachstellen beispielsweise in Assistenzsystemen schnell und ohne kostspielige Rückrufaktionen ausbessern. Das digitale Spiegelbild des Fahrzeugs ermöglicht eine Einschätzung des Fahrzeugzustands in Echtzeit. Diese Daten sollen aber nicht nur von OEMs genutzt werden, sie ermöglichen auch Dritten, neue Services anzubieten.

Es bleibt spannend zu beobachten, wie sich die Technologien weiterentwickeln und wie schnell sich das autonome Fahren etablieren wird. Noch sind jedoch viele Herausforderungen zu meistern und Erfahrungswerte zu sammeln.

Für uns als IT Dienstleister bietet das Themenfeld „autonomes Fahren“ viele spannende Herausforderungen. Das gilt für die Projekte, in denen wir im Anforderungsmanagement und in der Software Entwicklung aktiv sind. Das gilt aber auch für die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung der benötigten Backend Systeme und der benötigten Infrastruktur.


zu Teil 1 Kerntechnologien automomes Fahren: Sensorik und Sensorfusion

zu Teil 2 Kerntechnologien automomes Fahren: V2X


Weitere Informationen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] http://www.auto-nomous.com/meinung/kartendienste-als-schluesseltechnologie-fuer-das-autonome-fahren/

[2] https://www.zeit.de/mobilitaet/2016-04/autonomes-fahren-mobilfunk-5g-echtzeitdaten/seite-2

[3] https://www.kfz-betrieb.vogel.de/bremsprobleme-des-tesla-3-mit-update-over-the-air-behoben-a-720627/

[4] https://teslamag.de/news/sekunden-update-beschleunigungswerte-model-s100d-16834

[5] https://www.computerwoche.de/a/wie-unternehmen-von-einem-digitalen-zwilling-profitieren,3544454

Die Zukunft von Predictive Maintenance: On the way to intelligent-prescriptive-predictive maintenance

Einen Überblick zu den Strategien und Best Practices im Kontext von Predicitive Maintenance finden Sie im ersten Teil unserer Blogreihe „Best Practices bei der Umsetzung von Predictive Maintenance – Ein Erfahrungsbericht “. Im nächsten Schritt sollte man sich jetzt auch darüber Gedanken machen, wo genau Künstliche Intelligenz eingesetzt werden kann und welche Machine Learning Methoden hier sinnvoll unterstützen können. Mehr

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 2: Vehicle-to-everything (V2X)

In Teil 1 unseres Blogbeitrags standen vor allem die Sensorik im Fahrzeug und virtuelle Testumgebungen im Fokus. Im Folgenden geht es um die Interaktion des Fahrzeugs mit seiner Umwelt, das Testen von autonomen Fahrfunktionen und die damit verbunden Herausforderungen. Mittels V2X-Kommunikation können Autos außer „fühlen“ und „sehen“ nun auch „hören“. Fahrzeuge und Verkehrsinfrastruktur werden über Funktechnologie vernetzt. Damit können Informationen zwischen Fahrzeugen untereinander und zwischen Fahrzeugen und der Verkehrsinfrastruktur (zum Beispiel Wechselverkehrszeichen und Lichtsignalanlagen) ausgetauscht und in Verkehrsmanagementsysteme integriert werden. Im V2X Kontext wird je nach Hersteller auch von C-V2X (Cellular-Vehicle-to-Everything) gesprochen, da die Verbindung auf Mobilfunk (Cellular) basiert.[1]

Die folgenden Grafiken von Qualcomm stellen die einzelnen V2X Elemente gut dar.[2]

V2X Elemente

Unter anderem sollen folgende Anwendungsfälle, ebenfalls von Qualcomm dargestellt, ermöglicht werden:

Anwendungsfälle von Qualcomm

Neben den Sicherheitsaspekten hat V2X auch einen ökologischen Aspekt. „Bei vollständiger Durchdringung mit auf V2X-Kommunikation basierenden Funktionen könnte ein jährlicher volkswirtschaftlicher Nutzen bis zu 6,5 Mrd. Euro durch vermiedene Straßenverkehrsunfälle und 4,9 Mrd. Euro durch die Vermeidung von Umweltbelastungen erzielt werden,“ schreibt der Verband der Automobilindustrie VDA.[3]

V2I – Kommunikation zwischen Fahrzeugen und Infrastruktur

Doch wie sieht der Status Quo bei den einzelnen Automobilherstellern aus?

Bei Volkswagen wird die Technologie Car2X genannt und soll in Kürze eingeführt werden. Erstes Ziel ist es, den Fahrer zum Beispiel über „grüne Wellen“ zu informieren und so unnötige Brems- und Beschleunigungsvorgänge zu vermeiden. Hierzu sollen zwei Wolfsburger Straßenkreuzungen mit entsprechender Sensorik ausgestattet werden, um Fußgänger und Radfahrer zu erfassen. An komplexen Kreuzungen und Unfallschwerpunkten sollen so Informationen bereitgestellt werden, die die Fahrzeuge selbst nicht erfassen können. Diese „kooperativen Sicherheitsfunktionen“ sollen in Situationen eingreifen, in denen der Fahrer oder das Fahrzeug die umgebenden Verkehrsteilnehmer mit eigener Sensorik nicht oder erst sehr spät erkennen können.[4]

Auch beim Stuttgarter Autobauer Daimler ermöglicht Car-to-X einen völlig neuartigen Austausch von Informationen. Die Intention ist die Gleiche: Das vernetzte Auto schaut damit um die Ecke und durch Wände. Es warnt Nachkommende vor Gefahren und verhindert Unfälle. Kurz: Es sorgt für mehr Sicherheit und Komfort. Die Fahrerassistenzsysteme stellen dem Fahrer weitere Sicherheits- und Komfortfunktionen zur Verfügung, womit ein weiteres Etappenziel auf dem Weg zum autonomen Fahren erreicht wird.[5] [6]

Audi hat im Mai 2019 angekündigt, dass nun auch in Deutschland eine Technik installiert werden soll, die seit zweieinhalb Jahren bereits in den USA für entspanntes und effizienteres Fahren sorgt. So will der Autohersteller neue Modelle mit den Ampeln in Ingolstadt vernetzen; weitere europäische Städte sollen ab 2020 folgen. Die Audi-Fahrer sollen im Cockpit sehen können, mit welcher gefahrenen Geschwindigkeit sie die nächste Ampel bei Grün erreichen. Das System wird „Green Light Optimized Speed Advisory“ (GLOSA) genannt. „In Zukunft können die anonymisierten Daten unserer Autos dabei helfen, Ampeln in Städten besser zu schalten und den Verkehrsfluss zu optimieren“, erläutert Andre Hainzlmaier, Leiter Entwicklung Apps, Connected Services und Smart City bei Audi.[7]

V2V – Kommunikation zwischen den Fahrzeugen

Auch die V2V (Vehicle-to-Vehicle) Kommunikation und die Vernetzung von Assistenzsystemen für die Automatisierung wird bereits getestet. Die Unternehmen Bosch, Vodafone und Huawei haben sich vor gut einem Jahr zusammengeschlossen, um Tests für die Nutzung des Mobilfunkstandards für das autonome Fahren durchzuführen. Diese Tests fanden bereits in China, Japan und den USA statt. Sie basieren auf 4G, aber künftig wird 5G kommen, das AT&T in den USA bereits einführt und mit dem der C-V2X Standard kompatibel ist. Vorbereitungstests wurden bereits auf dem digitalen Testfeld auf der A 9 in Bayern durchgeführt.

Bisher testete man mit dem Kommunikationsstandard Warnungen in Echtzeit in Sachen Bremsung und Spurwechsel. Als Nächstes will man die ACC (Automatic Cruise Control) in der Steuerung testen. Dieses System warnt nicht nur, sondern greift aktiv ein und bremst das Fahrzeug beispielsweise ab. Künftig sollen die Fahrzeuge darüber miteinander kommunizieren können und damit auch das autonome Fahren ermöglichen. So können die Sensordaten nicht nur einem Fahrzeug nutzen, sondern allen, die sich in der jeweiligen Verkehrssituation befinden. Diese Informationsübertragung soll in Quasi-Echtzeit geschehen, sodass die Systeme rechtzeitig eingreifen können.

Fazit

Die V2X Technologie ist ein wichtiger Schritt hin zum autonom fahrenden Fahrzeug. Die Kommunikation mit der Umwelt wie auch mit anderen Verkehrsteilnehmern ist ein essentieller Part, um Risiken zu reduzieren. Erkennt beispielsweise ein Sensor die Verkehrssituation nicht korrekt, kann V2V einen drohenden Unfall verhindern. V2X kann das Fahrzeug in kniffligen Situationen wie beispielsweise Baustellen oder einer geänderten Verkehrsführung in Echtzeit unterstützen.

doubleSlash ist aktuell in verschiedenen V2X Projekten im Anforderungsmanagement und in der Software-Entwicklung aktiv. Hierbei ist die Herausforderung, dem Fahrzeug aggregierte Daten aus verschiedenen Quellen (zum Beispiel verschiedene Verkehrsinformationsstellen) in hoher Geschwindigkeit bereitzustellen. Das Fahrzeug muss zu jedem Zeitpunkt die richtigen Informationen erhalten und auch die Daten speichern und verarbeiten, die per Rückkanal vom Fahrzeug kommen. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur –  zum Beispiel AWS – sind die größten Herausforderungen bei einer solchen Infrastruktur.

In Teil 1 beleuchten wir Sensorik und Sensorfusion

In Teil 3 unserer Serie wird auf das Thema Kartenmaterial, 5G sowie Digital Twin und Datenökonomie eingegangen.

Weitere Leistungen rund um das Thema Autonomes Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[2] https://www.qualcomm.com/media/documents/files/cellular-vehicle-to-everything-c-v2x-technologies.pdf

[3] https://www.vda.de/de/themen/innovation-und-technik/vernetzung/v2x-kommunikation-ergebnisse-des-forschungsprojekts-simtd.html

[4] https://www.heise.de/newsticker/meldung/Volkswagen-und-Siemens-testen-Funk-fuer-Ampeln-4183853.html

[5] https://www.daimler.com/innovation/case/connectivity/car-to-x.html

[6] https://www.auto-motor-und-sport.de/verkehr/vehicle-2-x-datenuebertragung-globaler-streit/

[7] https://www.heise.de/newsticker/meldung/Audi-vernetzt-seine-Autos-nun-auch-in-Deutschland-mit-Ampeln-4421702.html

Die entscheidenden Kerntechnologien auf dem Weg zu selbstfahrenden Fahrzeugen – Teil 1: Sensorik und Sensorfusion

In unserer Blogserie wird auf die entscheidenden Kerntechnologien auf dem Weg zum selbst fahrenden Fahrzeug eingegangen. Beim autonomen Fahren gibt es aktuell viele Player: Etablierte Autobauer, den amerikanischen Autobauer Tesla, Branchenzulieferer, Technologiekonzerne wie Alphabet und Apple sowie Mobilitätsdienstleister wie Uber oder Dixi. Zwischen diesen Akteuren ist ein Wettlauf um die Neugestaltung des Fahrzeugmarktes entbrannt (siehe auch: „Zukunftsthema E-Mobility: BMW und Daimler investieren mehr als eine Milliarde Euro in gemeinsame Mobilitätsdienste – ein Kommentar“).

Aus Kundensicht ist der Gedanke des autonomen Fahrzeugs reizvoll: Morgens einsteigen, Nachrichten lesen, E-Mails beantworten oder nochmal kurz einen Power-Nap machen, während man sanft durch den dichten Berufsverkehr ins Büro gefahren wird. Geht es nach den Mobilitätsdienstleistern, werden wir in Zukunft keine Autos mehr besitzen, sondern uns Kilometer als Beförderungsleistung kaufen. Die Vision: Das Auto fährt vor und transportiert uns an das gewünschte Ziel.

In modernen Fahrzeugen stecken bereits heute zahlreiche Assistenzsysteme, die alle inneren und äußeren Vorgänge überwachen und dem Fahrer damit viele Aufgaben abnehmen: Brems- und Spurhalteassistent, Abstandsmesser oder Geschwindigkeitsregler. Doch trotz der Technik liegt im Moment noch die Entscheidungshoheit beim Fahrzeugführer, also beim Menschen.

Genau das soll sich in naher Zukunft ändern: „Wir sind schon nahe dran, denn IT- und Automobilhersteller führen gemeinsam mit Zulieferern bereits erste Tests durch. Und zwar nicht etwa auf Sonderstrecken, sondern sogar auf regulären Autobahnen wie auf der A9 zwischen Ingolstadt und Nürnberg – und mitten im Berufsverkehr“ sagt Rahman Jamal von National Instruments. Aktuell ist das autonome Fahren mit dem sogenannten Staupiloten bereits für mehrere Minuten möglich.[1]

Dieser Beitrag gibt einen Überblick über verschiedene Kerntechnologien, die das autonome Fahren reif für den Einsatz auf unseren Straßen machen sollen – im Berufsverkehr, aber auch in wesentlich komplexeren Umgebungen wie auf der Landstraße oder in der Stadt. Dazu gehören:

  • Sensorik (Teil 1)
  • Sensorfusion (Teil 1)
  • Virtuelle Testzentren (Teil 1)
  • Vehicle-to-everything – V2X (Teil 2)
  • Kartenmaterial (Teil 3)
  • Konnektivität und 5G (Teil 3)
  • Digital Twin und Daten-Ökonomie (Teil 3)

Sensorik – Die Sinnesorgane für das autonome Fahrzeug

Für ein autonom agierendes Fahrzeug sind Laser- und radargestützte Sensoren und Kameras mit 360° Rundblick, die alles in der näheren Umgebung, aber auch auf Entfernung analysieren, zwingend notwendig. Denn es muss eine Vielzahl an Parametern und Einflüssen aller Art berücksichtigen. Vereinfacht gesagt: Alles, was der Mensch über seine Sinnesorgane wahrnimmt. Je nach Konfiguration für das autonome Fahren reden wir über 15 benötigte Sensoren. Ihre Zahl steigt mit wachsender Komplexität der Anforderungen. Ein Radar etwa detektiert nicht mehr nur, dass etwas da ist und sich bewegt, sondern spezifiziert auch, um welches Objekt es sich handelt. „Erst wenn die Sensorik sehr genau ist, kann man die Verantwortung reduzieren und vom Fahrer an das System abgeben“, betont ein Experte von Audi.“[2]

Die Mehrheit der Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen ein weiterer unabhängiger Sensortyp, der Lidar, benötigt wird.

Lidarsysteme sind für vollautonomes Fahren ab Level 3 eine wichtige Voraussetzung. Mehrfach redundante Kamera- oder Radarsysteme erhöhen zwar die Zuverlässigkeit, doch Objekte, die das erste Radar/Kamerasystem womöglich systembedingt nicht erfasst, erfasst auch das zweite nicht. Hier braucht es einen weiteren Sensor – und das ist Lidar. Primär soll das System Entfernungen zu ruhenden und bewegten Objekten messen, aber auch durch besondere Verfahren dreidimensionale Bilder der erkannten Objekte liefern.[3]

Der Lidar empfängt die mit Laser ausgesendeten Signale mittels Multispektralkameras, die das Licht in mehreren Wellenlängen aufnehmen können. Das zurückfallende Licht des Lasers von der Oberfläche des Objekts lässt Rückschlüsse auf dessen Geschwindigkeit und Position zu. Mit diesen Daten kann man beispielsweise einen möglichen Kollisionskurs identifizieren und dem entgegnen.[4]

Bei den teils bereits verwendeten Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 und 250 Metern. Diese Kameras benutzen unter anderem Machine Learning Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und ihre Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Erkennung von Verkehrszeichen und Signalen verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.[5]

Radarsysteme sind schon länger in Fahrzeugen verfügbar und übernehmen unter anderem bereits heute folgende Aufgaben:

  • Blindspot Detection (Totwinkel-Überwachung)
  • Spurhalte- und Spurwechselassistent
  • Rückschauendes Radar zur Kollisionswarnung beziehungsweise Kollisionsvermeidung
  • Parkassistent
  • Querverkehr-Überwachung
  • Bremsassistent
  • Notbremsung
  • Automatische Abstandsregulierung

 

Sensorfusion – Zusammenspiel der Sensoren fürs autonome Fahren

Zum Erkennen der Vorgänge auf der Straße müssen die Daten von Kamera, Radar, Ultraschall, Laser usw. abgeglichen werden – Stichwort „Sensorfusion“. Viele Sensoren müssen zusammenspielen, um zu wissen, wo sich das Fahrzeug befindet und was vor und hinter dem Fahrzeug ist, um eine Risikoabschätzung vorzunehmen. Mithilfe von Sensorfusionen lassen sich nicht nur Schwächen einzelner Sensorsysteme ausgleichen, sondern auch eine höhere Ausfallssicherheit (Robustheit) mittels Redundanz gewährleisten. Ziele der Sensorfusion sind außerdem:

  • Verbessern der Genauigkeit
  • Verbessern der Objektklassifikation
  • Verfügbarkeit
  • Vergrößern des Gesamterfassungsbereichs
  • Detailreiche Objektbeschreibung

Darüber hinaus sollten Sensoren in der Lage sein, selbstständig per Algorithmen zu erkennen, wenn sie durch Temperatur, Sonneneinstrahlung, Dunkelheit, Regen oder Schnee außer Gefecht gesetzt werden. Ebenso müssen Marktspezifika wie etwa unterschiedliche Straßenschilder, Meilen statt Kilometer oder Sandverwehungen berücksichtigt werden.

Im folgenden Video lässt sich gut nachvollziehen, wie das Fahrzeug die Straße sieht und warum eine Sensorfusion benötigt wird:

Nicht zu vernachlässigen ist übrigens, dass der Abstimmungsaufwand, also die erforderliche Rechenleistung, um zu sachgerechten Entscheidungen zu kommen, komplexer wird, je mehr Sensorik eingebunden ist.

Virtuelle Testsimulation – Der Weg zu Millionen von Testkilometern

Die gesammelten Daten der Sensorik sind elementar, um virtuelle Testszenarien zu kreieren. Immer mehr OEMs und Automobilzulieferer setzen hier auf die Möglichkeit von Simulationen. Die virtuelle Welt der Simulation ist in Bezug auf Assistenzsysteme von zweifacher Bedeutung. Erstens: Die Tests können über Tage bis hin zu Wochen in allen denkbaren Situationen durchgeführt werden, unabhängig von Testfahrzeugen. Das kann die Entwicklungszeit enorm beschleunigen. Zweitens: die Sicherheit. Das selbstfahrende Auto muss sämtliche Verkehrssituationen bewerten können, sollten sie auch noch so unwahrscheinlich sein. So können zum Beispiel alle Wettereinflüsse simuliert werden. Solche Szenarien lassen sich allein aus Sicherheitsgründen nicht auf öffentlichen Straßen testen, wenn beispielsweise viele Teilnehmer im komplexen Innenstadtverkehr involviert sind.[6]

Mithilfe von Simulationen kann man statt 10.000 Kilometer pro Monat virtuell 8.000 Kilometer pro Stunde zurücklegen. Das spart nicht nur Zeit und Geld, sondern schont auch die Umwelt. Außerdem lassen sich Situationen exakt reproduzieren und beispielsweise neue Versionen eines Algorithmus unter den identischen Bedingungen erneut testen. Fehler werden somit reproduzierbar – und Lösungen schneller gefunden.[7]

Doch wie viele Testkilometer sind notwendig, um ein Auto zum eigenständigen Fahren zu befähigen? BMW etwa beziffert den Testaufwand auf 230 Millionen Kilometer. „Rund 95 Prozent der Testkilometer werden per Simulation absolviert“, schätzt Martin Peller, Leiter der Fahrsimulation bei BMW.[8]

Fazit

Schon heute gibt es verschiedenste Assistenzsysteme, die den Autofahrer unterstützen. Für das autonome Fahren werden jedoch ganz neue, wesentlich komplexere Anforderungen an die Sensorik gestellt. Während der Fahrer heute ein Fehlverhalten der Sensorik erkennt und entsprechend handelt, muss dies künftig durch die Sensorfusion erkannt werden. Um dies zu perfektionieren, ist die Simulation eine kostengünstige Möglichkeit.

Für uns als IT Dienstleister stecken im Thema autonomes Fahren insbesondere bei der Konzeption und Entwicklung von Backend Systemen in der Cloud spannende Herausforderungen. Die gesamte Sensorik generiert terabyteweise Daten, die gespeichert, klassifiziert und zu Trainingszwecken wie in der angesprochenen Simulationsumgebung in unterschiedlichsten Szenarien wieder verwendet werden können. Die hohen nicht funktionalen Anforderungen an die Performanz und Skalierung solcher Backend Systeme über eine Cloud Infrastruktur etwa von AWS sind die größten Herausforderungen bei einer solchen Infrastruktur.

Zu Teil 2 mit dem Thema: V2X – Vehicle-to-everything

 

Weitere Informationen rund um das autonome Fahren finden sich hier.

Du interessierst Dich für den Bereich Future Mobility? Dann bewirb Dich jetzt bei uns als Consultant oder Software Entwickler.

 


[1] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[2] https://www.etz.de/8335-0-Autonomes+Fahren+Anforderungen+an+die+Technologie+dahinter.html

[3] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[4] https://www.autonomes-fahren.de/lidar-licht-radar/

[5] https://www.all-electronics.de/welche-rolle-spielt-lidar-fuer-autonomes-fahren-und-welche-radar-und-kamera-ein-vergleich/

[6] https://www.autonomes-fahren.de/vw-simulation-fuer-assistenzsysteme/

[7] https://www.autonomes-fahren.de/continental-kooperiert-mit-aai-fuer-autonomes-fahren/

[8] https://www.automotiveit.eu/virtuelle-kilometerfresser/entwicklung/id-0064486

 

Oerlikon Hackathon powered by doubleSlash Experten

Am Wochenende des 08.11.2019 bis 10.11.2019 hat doubleSlash eine tolle Veranstaltung als Experten begleiten dürfen: Den ersten Hackathon der Oerlikon Group in toller Atmosphäre des Oerlikon Digital Hub. Neben Workshop Räumen und sogar einem Kino ist das technische Setup exzellent und erleichterte allen Teilnehmern die Arbeit.

Hackathon? Pures Wissen in agiler Lösungskompetenz

Pragmatisch und agil in einem: Ziel ist es, innerhalb der Dauer einer Hackathon Veranstaltung gemeinsam nützliche, kreative oder unterhaltsame IT – oder Software Produkte oder –Anwendungen herzustellen und so Lösungen für bestehende Probleme zu finden.

Ein breiter Mix an talentierten Personen

Die Zielgruppe des Events war ein sehr breiter Mix an talentierten Personen: von Softwareentwicklern über Data Scientists bis hin zu Spezialisten der Industrie. Die rund 80 Teilnehmer setzten sich zusammen aus Studenten, Softwareentwicklern bis hin zu Data Scientists und Oerlikon Mitarbeiter.

Die Challenges waren in 4 Kategorien aufgeteilt: IoT, Computer Vision, Data Science und Waste Reduction – wobei die letzte Kategorie sich wohl auch in die Data Science Aufgaben einsortieren lässt. Unter diesen Kategorien gab es je bis zu zwei Challenges – in Summe 7 Challenges. Für jede Challenge konnten sich nur eine definierte Zahl Teams anmelden, um sicher zu stellen, dass alle Challenges angegangen wurden.

Fünf doubleSlash IoT und KI Experten vor Ort

Auf Anfrage von Oerlikon beschloss doubleSlash das Event als Sponsor in Form von fünf Experten zur Unterstützung der Teilnehmer zu stärken: Vincenzo Crimi, Nico Mutter, Andreas Nuber, Timo Demler und Ralf Richter. Wir gaben Hilfestellung in den Bereichen Consulting, Coding, Architektur, technischer Spezialisierung mit PTC und Microsoft Azure, aber auch im Bereich Organisation und Strukturierung. Unsere Experten standen den Teams zur Seite, indem sie sie berieten und bei der Entwicklung weiterhalfen, ohne dabei Einfluss auf den Lösungsweg zu nehmen.

Gemeinsam mit unserem Partner PTC beschlossen wir bereits zu Beginn des Hackathons, unsere gewohnte enge Zusammenarbeit für den Support an den Teams zu leisten. Neben dem Mentoring für die Teams lieferten wir zwei tolle Workshops in den Bereichen Ideation und Pitch Training. Beide Workshops wurden ein toller Erfolg und leisteten einen wertvollen Beitrag für das Gelingen des Hackathon.

 

 

 

 

 

Fazit

Das Engagement unserer Experten für die Teams war beachtlich und ging über die Grenzen eines normalen Arbeitstages hinaus. Alle Teilnehmerteams schätzten diesen Support  spürbar, auch während der Pitches kam positives Feedback. Wir haben auch in anderen Formaten sehr positive Erfahrungen mit diesem agilen Veranstaltungsformat gemacht und sehen hier den deutlichen Mehrwert: Schwarmintelligenz in agiler Atmosphäre schafft gemeinsam innovative Lösungen zu konkreten Problemen.
Besonders stolz sind wir darauf, dass alle Teams, die von der doubleSlash Hilfe aktiv Gebrauch machten, in die Finals kamen. Besonders freuen wir uns über den Erfolg unseres doubleSlash-Studenten-Teams: Sie haben von 17 Teams einen sehr guten Platz 4 erarbeitet. Wir freuen uns auf kommende Events, die wir als doubleSlash begleiten können oder sogar selbst ausrichten werden.

 


Mehr zur KI und IoT Kompetenz von doubleSlash

Mehr zum Oerlikon Digital Hub

Buzzword Dschungel Künstliche Intelligenz (KI) – die wichtigsten Begriffe auf einen Blick

In unseren Gesprächen mit Kunden und Partnern werden häufig Begriffe wie Künstliche Intelligenz (KI), Data Science oder Machine Learning in einem Atemzug genannt. Dabei schwirren zahlreiche Schlagworte durch die Gegend, die häufig gar nicht so klar voneinander abgrenzbar sind oder als Synonyme verwendet werden. Hier möchten wir Licht ins Dunkel bringen und einen kurzen und klaren Überblick über die wichtigsten Begriffe geben, diese kurz erläutern und zueinander abgrenzen.

Künstliche Intelligenz, Machine Learning, Neuronale Netze

KI bezeichnet die Automatisierung von menschlichem Verhalten. Man unterscheidet hierbei zwischen der starken und schwachen KI.

Vergleich Starke-Schwache KI
Vergleich Starke-Schwache KI

Von einer starken KI mit eigenem Bewusstsein und Empathie ist die Wissenschaft noch meilenweit entfernt. Wenn heutzutage von Künstlicher Intelligenz gesprochen wird, dann bezieht sich dies auf Anwendungsfälle im Bereich der schwachen KI. Diese Systeme sind in der Lage einzelne, klar abgegrenzte Aufgaben, wie z.B. Bilderkennung, gut zu lösen. Sie erlangen dabei aber kein tiefergehendes Verständnis des dahinterliegenden Problems und erscheinen dadurch nur nach außen intelligent.

Teilmengen Künstliche Intelligenz
Teilmengen Künstliche Intelligenz

Die schwache KI basiert dabei auf Methoden der Mathematik und Informatik. Ein wichtiges Subset von Methoden in diesem Bereich wird unter dem Begriff Machine Learning zusammengefasst. Neuronale Netze wiederum sind innerhalb des „Werkzeugkastens“ Machine Learning eine Methode bzw. ein Tool das eingesetzt werden kann. Innerhalb dieser Methode stellt das Deep Learning eine ganz spezielle Ausprägung eines neuronalen Netzes dar.

Das könnte Dich auch interessieren: DFKI-Projekt soll Deep-Learning-Verfahren verlässlicher machen (elektroniknet.de)

Data Analytics, Data Science, Data Mining

Unter Data Analytics versteht man zunächst alles was mit einer zielgerichteten Analyse von Daten zu tun hat. Auf Basis des Ergebnisses dieser Analyse sollen neue Schlussfolgerungen und Handlungsempfehlungen ermöglicht werden. Unter dem Begriff Data Analytics haben sich über die Zeit weitere Disziplinen, wie beispielsweise Data Science entwickelt.

Data Science ist der Überbegriff für eine Reihe an Methoden und Algorithmen mit denen man aus Daten Wissen generieren kann. Hierzu kommen ausgereifte Verfahren aus dem Bereich Mathematik, Statistik und Informatik zum Einsatz. Um die Ergebnisse dieser Verfahren auch korrekt interpretieren zu können, ist es notwendig, dass ein Data Scientist auch ein entsprechendes fachliches Wissen (z.B. über die Funktionsweise einer Windkraftanlage) mitbringt bzw. im Verlauf eines Projekts aufbaut. Mit Data Science ist man in der Lage, sowohl strukturierte Daten (z.B. eine Tabelle mit fest definierten Attributen wie Alter, Name, etc.), unstrukturierte Daten (z.B. ein komplexer Text in natürlicher Sprache) und semistrukturierte Daten (ein Mix aus strukturierten und unstrukturierten Daten) zu analysieren.

Data Science

Data Mining ist als ein Teilbereich innerhalb von Data Science zu verstehen. Ziel ist es, bisher unbekannter Querverbindungen, Trends oder Muster in großen Datenmengen zu finden. Dabei werden auch Methoden eingesetzt, die im Bereich Machine Learning Anwendung finden (z.B. Clustering). Da diese Methoden aber quasi „von Hand“ durch einen Menschen auf Daten angewendet werden, bringen Data Mining Techniken (im Gegensatz zu Machine Learning) keine selbstlernenden Mechanismen mit. Bildlich gesprochen lernt der Mensch und nicht die Maschine.

Rollen in einem Data Science Projekt

Innerhalb von Data Analytics Projekten benötigt man ganz unterschiedliche Skills und Experten. Die zugehörigen Rollen sind dabei sehr breit gefächert und oft nicht ganz klar voneinander abzugrenzen. Ein Data Scientist kann beispielsweise auch Aufgaben übernehmen, die man eher einem Data Engineer zuordnen würde und umgekehrt. So muss ein Data Scientist auch häufig Daten aufbereiten, da dies ein elementarer Bestandteil von vielen Datenanalyse-Projekten ist.

Data Science Projekt Rollen
Data Science Projekt Rollen

 

Im Data Analytics gibt es vier verschiedene Stufen, um große Datenmengen zu analysieren.

Analyseansätze im Data Analytics

Analyseansätze im Data Analytics

 

Jede Stufe ist mit einer bestimmten Fragestellung verknüpft – die es gilt zu beantworten. Dabei steigt die Komplexität, um zu einer zielgerichteten Antwort auf die jeweilige Frage zu kommen. Gleichzeitig steigt aber auch der entsprechende Mehrwert der damit verbunden ist.

Machine Learning- Business Value und Komplexität

 

Business Intelligence, Advanced Analytics

Sowohl Business Intelligence als auch Advanced Analytics sind häufig verwendete Begriffe, die Verfahren und Prozesse zur Analyse von Daten des eigenen Unternehmens bezeichnen.

Business Intelligence ist der Vorreiter von Advanced Analytics, wo man durch Datenanalysen vergangene Ereignisse untersucht. Man kann Business Intelligence in den Analyseverfahren Descriptive und Diagnostic Analytics einordnen, da Fragen wie „Wie viele Produkte habe ich zu welchem Preis in welcher Region verkauft?“ beantwortet werden können.

Im Gegensatz zu Business Intelligence wird mit Advanced Analytics Methoden der Blick gezielt in die Zukunft gerichtet¹. Dadurch können Prognosen über zukünftige Ereignisse aufgestellt werden. Fragen wie „Wie viele Produkte sollen wir produzieren?“ oder „Wann soll eine Wartung durchgeführt werden?“ können beantwortet werden. So ist Advanced Analytics unter den Predictive und Prescriptive Analytics Verfahren einzuordnen.

ETL, Big Data, Data Lake, Data Discovery, Data Exploration

ETL bedeutet Extract, Transform und Load und ist die Grundlage für die Befüllung von Data Warehouse und eine Basistechnologie zur Datenintegration. Zuerst werden die Daten extrahiert aus ein oder mehreren Quellen, dann transformiert in ein gewünschtes Zielformat und zuletzt an einen Zielort abgelegt.

Volume, Variety und Velocity sind die drei Dimensionen von Big Data. Was bedeutet, dass dieses Phänomen sich aus rasant (Velocity) steigender (Volume) Daten unterschiedlicher Art (Variety) ergibt. Daraus ergeben sich sowohl Herausforderungen wie das Speichern, Verwalten, als auch Chancen wie Möglichkeiten diese Daten auszuwerten.

In einem Data Lakewerden strukturierte und unstrukturierte Daten aus verschiedenen Datenquellen zusammengeführt mit dem Ziel, die verschiedenen, isolierten Datensilos eines Unternehmens aufzubrechen und die Daten an einen zentralen Ort zusammenzuführen. Auf diesen, dort gespeicherten Rohdaten können dann weitergehende, komplexe Datenanalysen durchgeführt werden.

Der Discovery Prozess im Bereich Data Discovery deckt die Erforschung und die Vorbereitung der Daten ab. Der Prozess kann mit einem initialen Qualitätscheck starten. Um eine erste Einschätzung zum Potential der Daten zu erhalten, kann ein simples Machine Learning Model angewandt werden. Der Discovery Prozess dient dazu erste Hypothese, Ideen oder Datenpotential ausfindig zu machen.

Als Weiterführung von Data Discovery wird in Data Exploration nach „tieferen“ Entdeckungen gesucht, welche zu einem ersten Prototyp führen können. Ziel ist es die gewünschte Lösung festzulegen, damit sie nicht vom Ziel abweicht.

 

FAZIT: Buzzword Dschungel KI – viele Wege führen zum Mehrwert aus Daten

Im Laufe der Zeit ist eine Vielzahl an Begrifflichkeiten rundum KI entstanden, die sich häufig in Teilen überlappen und auch nicht immer ganz 100% klar voneinander abgegrenzt werden können. Bei genauerer Betrachtung stellt man fest, dass sich hinter jedem Buzzword eine eigene, häufig sehr spezialisierte Wissensdomäne versteckt, die mit einem entsprechenden technologischen und methodischen Know-How verbunden ist. Sie alle haben aber gemein, dass sie versuchen, neue Informationen und damit einen Mehrwert aus Daten zu generieren. Mit diesem Beitrag haben wir versucht, die Abgrenzungen und auch die Überschneidungen deutlich zu machen.

Co-Autorin Christina Reiter


¹https://www.alexanderthamm.com/de/artikel/advanced-analytics-theorie-und-praxis/

 

Wollen Sie mehr Durchblick im KI Dschungel? Hier entlang …

Die Top 3 Business Intelligence Tools – eine Kurzgeschichte

Es waren einmal drei Hersteller für Business Intelligence Tools: Qlik, Tableau und Microsoft. In den Jahren 1993 bis 2013 brachten diese drei – jeweils mit zehn Jahren Abstand – Business Intelligence Tools auf den Markt. Den Anfang machte Qlik 1993 mit seinem Produkt QlikView. Darauf folgte Tableau im Jahre 2003 mit seinem gleichnamigen Produkt, und schließlich brachte Microsoft im Jahre 2013 ein modernes Business Intelligence Tool namens Power BI auf den Markt.

Ein Ziel hatten alle drei Hersteller beziehungsweise Tools gemeinsam: Die Datenexploration, -analyse und Visualisierung sollte so einfach wie möglich sein. Ein Otto-Normalverbraucher ohne spezielle IT oder Programmierkenntnisse sollte seine Daten selbst analysieren und visuell aufbereiten können, um einen maximalen Mehrwert aus den eigenen Daten ziehen zu können.

Der Aufstieg zu den Business Intelligence Leaders im magischen Quadranten von Gartner

Im magischen Quadranten von Gartner für Analytics und Business Intelligence Plattformen stiegen diese drei Hersteller über die Jahre hinweg zu den Leadern auf. Und während sich bis zum Jahr 2015 noch viele Anbieter an der Spitze tummelten, positionierte sich das Trio in den Jahren 2016 bis 2018 sogar als alleinige Leader für Analytics und Business Intelligence Plattformen.

Gartner Magic Quadrant for Analytics and Business Intelligence Platforms Gartner Magic Quadrant for Analytics and Business Intelligence Platforms

Alle drei Hersteller müssen sich dabei jährlich in den Disziplinen Analysis und Content Creation, Sharing of Findings, Infrastruktur, Data Management und übergreifende Plattform-Funktionen ihren Konkurrenten stellen.

Das Viz Wiz Funktionsprinzip

Aber wie funktioniert das ganze Wunderwerk denn nun? Ganz einfach, immer nach dem Viz Wiz Prinzip. Ein Visualization Wizzard bindet mit Hilfe einer Desktop-Applikation unterschiedlichste Datenquellen an. Das können Server, Datenbanken, Files, Online Content und vieles andere mehr sein. Diese Quellen verbindet er in der Applikation und kann so Dashboards mit den verschiedensten Diagrammen erstellen. Diese Dashboards werden dann auf einen Server oder direkt ins Web gepublisht, um so die generierten Informationen mit anderen User zu teilen. Das Ganze funktioniert natürlich auch auf mobilen Endgeräten.

Big 3 BI

Quelle: Eigene Darstellung

Dabei bieten QlikView, Power BI und Tableau eine echte Vielzahl an standardisierten Schnittstellen, um Datenquellen anzuzapfen. Hier stellt Qlik der Anzahl nach derzeit mit ganzen 115 Schnittstellen den Spitzenreiter, gefolgt von Microsoft mit 81 Schnittstellen und Tableau mit 54 Schnittstellen. Es lohnt sich also immer, doch nochmal einen Blick auf die Konnektoren zu werfen, die der jeweilige Hersteller anbietet.

 

Die Leader-Qualitäten von Tableau, Qlik und Power BI im Detail

Qlik bietet neben einer Vielzahl an Daten-Konnektoren auch eine Datenaufbereitung mittels eigener Skriptsprache an. Was ein äußerst mächtiges Werkzeug sein kann für denjenigen, der dieser Sprache auch mächtig ist. Für manchen nicht ganz so IT-affinen Anwender ist diese Art der Datenintegration allerdings schon wieder ein „Wunder der Natur“ an sich.

Qlik - Datenaufbereitung

Quelle: Eigener Screenshot aus Qlik Sense Desktop

 

Das neueste Wunderwerk von Tableau ist Tableau Prep. Hier bietet der Hersteller endlich eine ausgeprägte ETL Funktion an, mit deren Hilfe sich komplizierte Workflows zur Datenaufbereitung modellieren und mittels Tableau Server und der Tableau Prep Conductor Komponente auch automatisieren lassen.

Tableau Prep

Quelle: Eigener Screenshot eines Tableau Prep Workflows

Auch Microsoft greift mit Power BI gerne tief in die Trickkiste und bietet derzeit als einziger der drei Hersteller eine Streaming Funktion an, über die Dashboards mit Echtzeitdaten versorgt werden. Hier geschieht der Datenimport sozusagen wie von Zauberhand.

Qlik Sense ist ein Tool, das man als Prinzessin der Geschichte bezeichnen könnte. Es ist nutzerfreundlich, leicht zu erlernen und hübsch anzuschauen.

Quelle: Eigener Workflow aus Qlik Sense

Was das Visuelle anbelangt bietet Power BI schon deutlich mehr Funktionalität als Qlik Sense. Dennoch ist es leicht anzuwenden, da es einer ähnlichen Logik folgt wie andere Microsoft Produkte wie etwa Excel.

Während man sich in die Visualisierungslogik von Tableau erst eindenken muss, ist Tableau aber mit Sicherheit die Königin der Visualisierung. Fast alles liegt hier im Bereich des Möglichen, und der Phantasie sind kaum Grenzen gesetzt. Damit setzt Tableau der Visualisierung sozusagen die Krone auf.

Tableau Vis King

Quelle: Eigener Screenshot aus Tableau Desktop

„Wimmelt auf der Erde und mehret euch auf ihr“ (Genesis 9:7). Getreu diesem Bibelzitat besteht eine der wesentlichen Funktionen der drei Tools darin, dass erstellte Dashboards verteilt und Wissen vermehrt werden kann. Wenn man sein Dashboard teilen möchte, ist das am einfachsten mit Power BI zu bewerkstelligen. Einfach aus der Power BI Desktop Applikation heraus publishen und dann per Email-Sharing Funktion online freigeben – und schon wimmelt es von Klicks.

Power BI Publish

Quelle: Eigner Screenshot aus Power BI Desktop

Mit Qlik und Power BI ist das Erstellen von Dashboards kostenlos. Die Software muss einfach nur auf den PC heruntergeladen und installiert werden, schon kann das Dashboarding beginnen. Erst wenn es ans Publishen und Verteilen beziehungsweise Sharen in größerem Umfang geht, wird das Ganze kostenpflichtig. Tableau bietet (außer für Studenten) leider keine kostenlose Desktopapplikation an. Wer mit Tableau Dashboards auf dem Desktop erstellen möchte, muss sich auf klassischem Wege Lizenzen erwerben.

astrologer

 

Und die Moral von der Geschicht ….

Damit steht der Datenvisualisierung eigentlich nichts mehr im Wege. Jeder kann nun anfangen, das Gold in seinen Daten ganz einfach mit einem BI Tool seiner Wahl zu heben. Im Bedarfsfall natürlich immer mit freundlicher Unterstützung seines favorisierten Visualization Wizzards.

Gold in Daten

 

Und wenn sie nicht gestorben sind, dann visualisieren sie noch heute …

 

THE END.

 

 

 

 

 

 

Lust auf mehr Datenvisualisierung mit BI bekommen? Hier entlang …

Wie starte ich ein Machine Learning Projekt

Die Digitalisierung und Vernetzung unserer Systeme schreitet mit wachsender Dynamik fort. Die Folge: Fast täglich entstehen neue Möglichkeiten und Trends. Ein weiterer Effekt ist das steigende Volumen an Daten, die von Systemen und Menschen erzeugt und gesammelt werden. Auf dieser Basis hat sich neben Big Data auch die Künstliche Intelligenz zu einem Trend entwickelt, der immer mehr an Bedeutung gewinnt.

Wer im Web zum Thema Künstliche Intelligenz oder zu Machine Learning recherchiert, findet viele Suchergebnisse, Tendenz steigend. Die unten dargestellte Entwicklung der Google-Suchergebnisse zu „Maschinelles Lernen“ im Trend zeigt dies deutlich.

Google Trend – Maschinelles Lernen Machine Learning (ML) ist keine brandneue Technologie. Vielmehr wird auf diesem Gebiet schon seit einigen Jahren geforscht, Frameworks wie Tensorflow oder Keras sind mittlerweile aus dieser Forschung entstanden. In jüngster Zeit nimmt das Thema auch in der Praxis richtig Fahrt auf. Das liegt unter anderem an den folgenden Faktoren:

  • Die rasante Steigerung der Rechenleistung in den letzten Jahren.
  • Es liegen mittlerweile in vielen Bereichen ausreichend Daten vor, weil Unternehmen mehr Daten erfassen – aus Interaktionen mit Kunden und aus ihren Maschinen.
  • KI (Künstliche Intelligenz) hat sich im Consumer-Bereich schon deutlich bewährt, die Kunden erwarten jetzt von Unternehmen in jeder Hinsicht dieselben komfortablen digitalen Optionen.

Wenn wir vom Consumer-Bereich sprechen, sind Anwendungen gemeint, mit denen nahezu jeder von uns bereits Kontakt hatte. Durch Sprachassistenten auf Mobiletelefonen etwa oder durch Soundboxen zuhause wie Alexa oder Siri. Diese Systeme werden von Machine Learning Algorithmen gesteuert, um uns im Alltag zu unterstützen.

Machine Learning – was ist das eigentlich?

Betrachtet man das Thema Machine Learning sehr abstrahiert, könnte man sagen: Es geht darum, dass intelligente Computer oder Server selbstständig Sachverhalte erkennen und adäquate Maßnahmen daraus ableiten oder ausführen. Der Computer soll in die Lage versetzt werden, wie wir Menschen eigenständig und intelligent Daten/Ereignisse miteinander zu verknüpfen und daraus Lösungen für neue, noch nicht gelöste Probleme zu generieren.

Aber wie soll das ein Computer machen?

Basis ist eine Software, die mit selbstlernenden Algorithmen ausgestattet ist und damit versucht, Muster in Daten zu erkennen.  Diese Muster nutzt das Programm für weitere Entscheidungen. Die Grundlage müssen wir an dieser Stelle jedoch der Software übermitteln, sie geht sozusagen bei uns in die Schule. Mittels Daten bringen wir der Software bei, welche Muster es gibt und welche möglichen Maßnahmen davon ausgehend durchgeführt werden können. Darauf bauen die selbstlernenden Algorithmen auf und entwickeln neue Muster.

Diese recht abstrahierte Beschreibung verdeutlicht schon sehr gut, was die wesentliche Grundlage für Machine Learning ist: Daten, Daten und nochmals Daten. Dies ist mitunter auch einer der wesentlichen Unterschiede zu anderen Projekten im IT-Bereich. In ML-Projekten müssen wir zu Beginn einen sehr klaren Fokus auf Daten legen und versuchen, diese bestmöglich zu verarbeiten. Je besser wir darin sind, desto besser werden unsere Ergebnisse sein.

Sehr häufig wird der Aufwand unterschätzt, der in die Analyse der Daten und in die Auswahl der entsprechenden Algorithmen gesteckt werden muss. Aus diesem Grund gibt es mittlerweile auch Berufe, die sich ausschließlich mit diesem Thema befassen. So fühlt sich der Data Engineer im Umfeld von Daten zuhause und ist kompetent darin, Daten zu analysieren und entsprechend aufzubereiten. Der Data Scientist hingegen ist für die Auswahl der passenden Algorithmen zuständig: Er bringt Daten, Use Case und Frameworks zusammen und erstellt eine Architektur, die anschließend von Softwareentwicklern umgesetzt wird.

Das nachfolgende Schaubild fasst die beiden Berufsbilder nochmals zusammen:

Abbildung: doubleSlash Net-Business – Profile Data Scientist und Data Engineer

Wo gehört Machine Learning hin und was gibt es noch?

Künstliche Intelligenz (KI):

Das Forschungsgebiet der Künstlichen Intelligenz (KI) befasst sich allgemein mit dem Transfer menschlicher Fähigkeiten auf Maschinen. Hierbei sollen Maschinen unter anderem Aufgaben lösen, die bislang bestimmte kognitive Fähigkeiten des Menschen voraussetzen. Darunter zählt beispielsweise das Erkennen von Sprache, Text und Bildinhalten. Künstliche Intelligenz wird oft als Oberbegriff für Teildisziplinen wie Maschine Learning und Deep Learning genutzt.

Machine Learning (ML):

Hier ermöglicht die Bereitstellung von Daten, dass eine Maschine neue Sachverhalte und eine adäquate Reaktion anhand von Beispielfällen erlernt. Unterschieden wird hierbei zwischen Supervised Machine Learning und Unsupervised Machine Learning. Beim Supervised Machine Learning wird dem Algorithmus während der Lernphase die Bedeutung der bereitgestellten Daten, genauer: die Antwort auf die ihm gestellte konkrete Frage mitgeteilt. Nach der Lernphase kann der Algorithmus dann das Erlernte auf neue, unbekannte Daten übertragen. Unsupervised Machine Learning kommt ohne diese Hilfestellung aus. Der Algorithmus erkennt selbständig wichtige Muster in den Daten und erlernt allgemeine Vorschriften beziehungsweise Regeln unabhängig von einer konkreten Fragestellung.

Deep Learning (DL):

Deep Learning ermöglicht es Maschinen, über die ihnen bereitgestellten Daten hinaus Fähigkeiten zu erlernen. Dabei muss die Maschine beziehungsweise die Software beispielsweise Daten analysieren und bewerten, um daraus logische Schlüsse zu ziehen. Dadurch lassen sich effizientere Lösungswege ermitteln, aus Fehlern kann gelernt werden. Die Anzahl und Qualität der bereitgestellten Daten beeinflusst hierbei stark den Erfolg des Lernvorgangs.

Wie läuft ein Machine Learning Projekt bei doubleSlash ab?

Machine Learning Projekte laufen bei doubleSlash in einem standardisierten Prozess ab, der eine kontinuierliche Verbesserung des entwickelten Machine Learning Modells anstrebt.

Im initialen Discovery Process liegt der Fokus darauf, ein tiefgehendes Verständnis für die vorliegende Problemstellung und die bereitgestellten Daten zu erlangen. Es ist auch bei Machine Learning essenziell, dass man sich über die Problemstellung ausreichend Gedanken macht und daraus Ziele ableitet. Neben der Problemstellung ist es wie erwähnt auch sehr wichtig, die zu verarbeitenden Daten zu verstehen. Dieses Verständnis hat einen wesentlichen Einfluss auf den Erfolg oder Misserfolg eines Machine Learning Projekts. Bei doubleSlash erfolgt beides durch einen Proof of Concept (PoC). Das Ziel des PoC ist es, über die Fortführung des Prozesses auf Basis dieses Verständnisses fundiert zu entscheiden.

Ist die Machbarkeit mittels eines PoC nachgewiesen, folgt im nächsten Schritt die Datenintegration. Das System wird an eine oder mehrere Datenquellen wie beispielsweise Datenbanken oder Maschinen angebunden. Ehe die gesammelten Daten verarbeitet werden können, müssen diese in der Regel eine Datenaufbereitung durchlaufen – zum Beispiel durch Normalisierung, Filterung, Partitionierung und Transformierung.

Um die Komplexität des entstehenden Machine Learning Modells zu verringern, werden die Eingabedaten im Rahmen der Modellimplementierung auf bestimmte Zielattribute beziehungsweise repräsentative Teilmengen reduziert. Das hiernach trainierte Modell wird anschließend validiert, indem Vorhersagen, die das Modell getroffen hat, mit bereits existierenden Daten verglichen werden. Abweichungen zwischen Vorhersage und Realität lassen sich durch das Anpassen unterschiedlicher Parameter und erneutes Training nach und nach minimieren.

Ist die Qualität des Modells zufriedenstellend, fungieren dessen Vorhersagen als Grundlage unternehmerischer Entscheidungen. Das Modell kann in eine produktiv einsetzbare Lösung überführt werden.

Zu beachten: Die bereitgestellten Daten zum Beispiel können sich stets verändern. Eine Überwachung der Performance im produktiven Betrieb ist deshalb unverzichtbar, um das Modell gegebenenfalls rechtzeitig an neue Gegebenheiten anzupassen. Hier schließt sich der Kreis und eine neue Iteration beginnt.

Die nachfolgende Grafik visualisiert dieses angepasste Vorgehensmodell.

Fazit

Machine Learning bietet viel Potenzial, um in Unternehmen bestehende Prozesse zu optimieren und neue Prozesse zu entwickeln. Dieses Potenzial ist keinesfalls auf ein Unternehmenssegment begrenzt, vielmehr lässt es sich in allen Bereichen eines Unternehmens integrieren. Dadurch ergibt sich eine Vielzahl an Anwendungsfällen für Machine Learning. Bei der Planung von Machine Learning Projekten sollte allerdings wie oben beschrieben ein starker Fokus auf die Daten gelegt werden, denn diese haben einen entscheidenden Einfluss auf den Erfolg oder Misserfolg eines ML-Projekts. Zu den Daten kommen die Kenntnisse und Kompetenzen des Projektteams. Beide zusammen sind die für den Verlauf und damit auch den Erfolg des Projekts zentralen Faktoren.

Wollen Sie mehr erfahren oder das angepasste Vorgehensmodell für Ihr Machine Learning Projekt nutzen?