Datenanalyse im Unternehmen

Data-Analytics-Erfolgsstories

12.09.2017 von Clint Boulton und Florian Maier
CIOs versuchen mit Hilfe von Datenanalysen Effizienz und Wachstum anzukurbeln. Das ist nicht immer von Erfolg gekrönt. Damit das bei Ihnen besser läuft, zeigen wir Ihnen einige Data-Analytics-Erfolgsbespiele.

Wenn Daten tatsächlich das neue Öl sind, liegt der Schlüssel zur Nutzung ihres vollen Potenzials in dem Wissen darüber, wie man sie in greifbare Insights umwandelt. Zu diesem Zweck spielen IT-Entscheider mit Predictive Analytics Tools, erschaffen Machine-Learning-Algorithmen und testen viele weitere Lösungen in Dauerschleife. Das Ziel: Mehr Effizienz für’s Business und neue Wege und Ideen, um Services an den Mann, beziehungsweise Kunden, zu bringen.

Mit Datenanalyse zum Erfolg: Wir zeigen Ihnen sechs Unternehmen, die das geschafft haben.
Foto: SFIO CRACHO - shutterstock.com

Inzwischen geben CIOs sogar mehr als je zuvor für Technologien aus, die die Data-Science-Abteilung unterstützen sollen. Dabei ist ihnen natürlich auch bewusst, welch positiven Effekt reduzierte Kosten und gesteigerte Einnahmen für ihr eigenes Ansehen bei C-Level und Vorstand haben können.

Big Data Analytics - Grundpfeiler der Transformation

Laut den Analysten von IDC werden die weltweiten Einnahmen im Bereich Big Data und Analytics im Jahr 2017 um 12,4 Prozent (im Vergleich zum Vorjahr) auf 150,8 Milliarden Dollar ansteigen. Für den kommerziellen Verkauf von Hardware, Software und Services in diesem Bereich rechnet IDC mit einer Summe von 210 Milliarden Dollar. Big-Data-Analytics-Lösungen sind laut Dan Vesset von IDC inzwischen zum Grundpfeiler der digitalen Transformation geworden - weltweit und branchenübergreifend.

Studie Analytics Readiness













Aber diese wahnwitzigen Investitionen haben auch eine Schattenseite: Die meisten Data-Analytics-Projekte bringen keinen messbaren Mehrwert. Legacy-Systeme und unternehmensinterne Bürokratie haben für die Entstehung von Datensilos gesorgt und schlechte Datenqualität begünstigt. Und die CIOs kämpfen immer noch mit dem Fachkräftemangel und suchen händeringend nach Menschen, die die Daten auswerten können. Der Kampf um die Datenwissenschaftler wird hart geführt, Personal-Nachschub kann gar nicht schnell genug "produziert" werden.

Doch hin und wieder gibt es auch Unternehmen, die in Sachen Datenanalyse eine Erfolgsgeschichte schreiben. Wir stellen Ihnen sechs Firmen vor, die Sie sich zum Data-Analytics-Vorbild nehmen sollten.

Merck bringt Analytics zum Laufen

Merck hat sich über die Jahre zum milliardenschweren, international agierenden Healthcare-Konzern entwickelt und ist in 140 Märkten vertreten. Das Unternehmen wollte die Daten, die es in seinem ERP und den Kernsystemen für Produktion und Inventarisierung gesammelt hat, nutzen, um daraus wichtige Business Insights zu generieren.

"Wir haben Daten lange Zeit nicht als praktikables, dauerhaftes und wertvolles Asset gesehen", gibt Michelle Alessandro, CIO bei Merck, zu. "Wir wollten eine Unternehmenskultur etablieren, in der wir wesentlich weniger Zeit damit verbringen, Daten herum zu schieben und Reportings zu schreiben. Stattdessen wollen wir mehr Zeit darauf verwenden, die Daten für die Erzielung sinnvoller Geschäftsergebnisse zu nutzen."

Also kreierte Merck kurzerhand MANTIS (Manufacturing and Analytics Intelligence). Dabei handelt es sich um ein Data-Warehousing-System, das In-Memory-Datenbanken und Open-Source-Tools beinhaltet und Daten aus strukturierten und unstrukturierten Systemen erfassen kann. Ein wichtiges Detail: Die technisch nicht-versierten Business Analysten können die Daten jederzeit problemlos über eine Visualisierungssoftware einsehen. Data Scientists können hingegen über Simulationen und Modelling-Tools auf die Informationen zugreifen.

Das MANTIS-System hat Merck dabei geholfen, die Gesamtkosten von Analytics-Projekten um 45 Prozent zu senken. Weitere greifbare Ergebnisse: Die durchschnittliche Bearbeitungszeit konnte um 30 Prozent gesenkt werden, die durchschnittlichen Lagerkosten um 50 Prozent.

Lessons learned: Ein Schlüssel zu ihrem Erfolg, so Alessandro, sei die Identifikation eines Leuchtturm-Projekts in einer Fabrik in Asien gewesen. Nachdem bewiesen war, dass MANTIS dort Erfolg hat, wurde das System auch auf andere Standorte ausgerollt. Eine weitere Lektion, die die IT-Chefin gelernt hat: Nicht zu viel wollen. In einem frühen Experiment habe sie den Bogen etwas überspannt, als sie die Kosten für die Produktionsprozesse bei Merck mit dem Einsatz von Künstlicher Intelligenz und Machine Learning analysieren wollte. "Das lag nicht an mangelndem Budget oder einer Vision - wir konnten es einfach nicht zum Laufen bringen", so Alessandro.

Machine Learning macht Dr. Pepper smart

Über Jahre kamen die Außendienstmitarbeiter bei Dr. Pepper mit einem dicken Ordner - gefüllt mit Kundendaten, Verkaufsnotizen und Promotion-Material - zu Walmart oder Target. Heute sind die Ordner Geschichte - stattdessen haben die Sales-Mitarbeiter bei ihren Kundenterminen nun ein iPad "unter dem Arm". Das sagt ihnen ganz genau, welche Läden sie besuchen müssen, welche Angebote sie machen können - und hält weitere, für den Verkauf wichtige Metriken bereit. "Früher waren unsere Außendienst-Mitarbeiter glorifizierte Annehmer von Bestellungen. Jetzt werden sie zu smarten Sales-Leuten, die mit allen Informationen ausgestattet sind, um ihre Ziele zu erreichen", erklärt Tom Farrah, CIO der Dr. Pepper Snapple Group.

Die dazu geschaffene Plattform heißt MyDPS und nutzt Machine Learning und weitere Analytics Tools, um für jeden Mitarbeiter eine tägliche Scorecard zu erstellen, sobald diese die App öffnen. Algorithmen sorgen dafür, dass jeder Mitarbeiter bei Bedarf direkt einsehen kann, wie sich seine bisherige Leistung im Vergleich zum Soll verhält. Falls ein Mitarbeiter im Plan zurückfällt, zeigt ihm die App auch Wege, seinen Kurs zu korrigieren. "Wenn ich jemanden erfolgreich machen möchte, muss ich dafür sorgen, dass er die Informationen erhält, die in diesem Kontext relevant sind", sagt Farrah.

Lessons learned: Um den Proof-of-Concept für MyDPS zu testen, gab Farrah die Software an vier Mitarbeiter einer Filiale und organisierte anschließend eine Stippvisite des CEOs in dieser Niederlassung. Dabei zeigte sich, dass die Verkaufsquote mit MyDPS im Vergleich zum Vormonat um 50 Prozent angehoben werden konnte. Das überzeugte den Chef dann auch relativ schnell davon, grünes Licht für das Projekt zu geben, wie Farrah erzählt: "Er sah das Ergebnis und war Feuer und Flamme. Es ist wirklich wichtig, nicht nur das Budget für ein Projekt sicherzustellen, sondern auch das Resultat zu kommunizieren, das sich daraus ergibt."

Machine Learning - Technologien und Status quo
Bilderkennung ist wichtigstes Anwendungsgebiet für Machine Learning
Heute kommen Machine-Learning-Algorithmen vor allem im Bereich der Bildanalyse und -erkennung zum Einsatz. In Zukunft werden Spracherkennung und -verarbeitung wichtiger.
Machine Learning im Anwendungsbereich Customer Experience
Heute spielt Machine Learning im Bereich Customer Experience vor allem im Bereich der Kundensegmentierung eine Rolle (hellblau). In Zukunft wird die Spracherkennung wichtiger (dunkelblau).
Machine Learning in den Bereichen Produktion und Prozesse
Unternehmen erhoffen sich im Bereich Produktion/Prozesse heute und in Zukunft (hell-/dunkelblau) vor allem im Bereich Prozessoptimierung positive Effekte durch Machine Learning.
ML im Bereich Kundendienst und Support
Sentiment-Analysen werden eine Kerndisziplin für Machine Learning im Bereich Kundendienst und Support
Auch IT-Abteilungen profitieren
Schon heute wird Machine Learning für die E-Mail-Klassifizierung und Spam-Erkennung genutzt. In Zukunft (dunkelblau) werden Diagnosesysteme wichtiger.
Was Management, Finance und HR von Machine Learning erwarten
Heute und in Zukunft ist in diesem Bereich das Risikomanagement eine vorrangige ML-Disziplin. In Zukunft soll auch das Talent-Management beflügelt werden.
Massive Effekte für Einkauf und Supply Chain Management
Machine Learning wird sich auf verschiedenste Bereiche des Procurements und des Supply Managements auswirken (hellblau = heute; dunkelblau= in Zukunft)
Diese Lernstile sind bekannt
Beim bekanntesten Lernstil, dem Überwachten Lernen (Supervised Learning), werden Bildern oder Dokumenten von Hand eine gewisse Menge an Tags oder Labeln zugewiesen. So werden die ML-Algorithmen trainiert.
Diese Lernstile verwenden Branchen
Während Autobauer eher auf "Semi-supervised Learning" setzen, sammeln andere Branchen mit Supervised Learning Erfahrung.
Machine-Learning-Algorithmen
Die meisten Unternehmen setzen auf einen Mix von Verfahren, um ihre vielfältigen Aufgaben zu lösen.
Einsatz von Machine-Learning-Algorithmen nach Branchen
Neuronale-Netzwerk-Algorithmen finden vor allem im Automotive-Sektor Verwendung - und natürlich in der ITK-Branche selbst.
Diese Programmiersprachen und Frameworks kommen im ML-Umfeld zum Einsatz
Mit knapp 70 Prozent Einsatzgrad ist Java die führende Programmiersprache im Bereich ML. Allerdings holen speziellere Sprachen und Frameworks auf.
Deep-Learning- und Machine-Learning-Packages
DeepLearn Toolbox, Deeplearning4j, das Computational Network Toolkit und Gensim werden auf Dauer die führenden Pakete sein.
Zielinfrastruktur für ML-Workloads
Die Deployments von Machine Learning gehen zunehmend in die Breite und erreichen auch die Cloud und das Internet der Dinge. Auf die Unternehmen kommt mehr Komplexität zu.
Bedenken und Herausforderungen
Datenschutz und Compliance-Themen machen Anwender am meisten zu schaffen, geht es um den Einsatz von Machine Learning. Außerdem vermissen viele einen besseren Überblick über das Marktangebot.
Machine Learning ist Sache der BI- und Analytics-Spezialisten
Die organisatorische Einführung von ML obliegt meistens den BI- und IT-Profis. Viele Anwender holen sich aber auch externe Hilfe.
Wo Externe helfen
Datenexploration, Skill-Aufbau und Implementierung sind die Bereiche, in denen Machine-Learning-Anfänger am häufigsten externe Hilfe suchen.

Bechtel und das Datenanalyse-Zentrum

Die Investitionen in der Baubranche sind über die letzten Jahre stetig angestiegen - dabei habe die Industrie als Ganzes aber in den letzten beiden Jahrzehnten einen Produktivitätszuwachs von lediglich einem Prozent erzielt, wie Carol Zierhoffer, CIO beim größten (Anlagen)Bauunternehmen der USA, der Bechtel Corporation, sagt. Nach Meinung von Experten könnte die Branche ihre Produktivität um 50 bis 60 Prozent erhöhen - unter anderem durch die Erneuerung von Verträgen, die Weiterbildung von Mitarbeitern und die Verbesserung der konkreten Prozesse auf den Baustellen. Bei Bechtel (das Unternehmen hat beispielsweise den Hoover Dam und den Eurotunnel erbaut) begann man deswegen damit, seine verborgenen Datenschätze in verschiedenen Teilen des Unternehmens zu heben.

Um eine grundsätzliche Vorstellung vom weiteren Vorgehen zu bekommen, traf sich CIO Zierhoffer zunächst mit ihren Kollegen von Walmart, Boeing und Lockheed Martin. Im nächsten Schritt baute Bechtel ein eigenes Data Center auf, das einen fünf Petabyte großen Data Lake beherbergt, und startete mit einem Proof-of-Concept. Konkret nutzte das Unternehmen Technologie zur Bilderkennung, um Fotos von den Baustellen im Sinne seiner Kunden zu inspizieren und kategorisieren. So konnten bereits zwei Millionen Dollar eingespart werden. Mit Hilfe von Natural Language Processing (NLP) Tools werden Forderungen, Ausschreibungen und Verträge gemanagt. So dauern Planungsprozesse, die vorher Tage und Wochen in Anspruch genommen haben, nur noch wenige Stunden. Inzwischen wendet Bechtel auch Analytics an, um die Mitarbeiterbindung zu stärken, aber auch um vorhersehen zu können, wann Mitarbeiter das Unternehmen verlassen werden. "Wir glauben, dass wir dieser Produktivitäts-Herausforderung bereits dicht auf der Spur sind", meint CIO Zierhoffer.

Lessons learned: Datensilos und Datenqualität können zur Belastung werden. Obwohl Bechtel große Datenmengen analysieren kann, muss die Datenqualität im ganzen Unternehmen verbessert werden. "Es war nötig, all unsere Prozesse und unsere Arbeitsweisen auf den Prüfstand zu stellen und Datensilos zu überbrücken", gibt Zierhoffer preis.

Mit Machine Learning auf zu neuen Ufern

Das US-Verlagshaus RRD (vormals RR Donnelley) gründete vor einigen Jahren eine Logistik-Abteilung, um seine Printerzeugnisse an Kunden und Unternehmen auszuliefern. Um das Business zu unterstützen, übernahm der Konzern das Management selbst und verschickte im Namen seiner Partner auch Fremdprodukte aller Art - von der Waschmaschine bis hin zum Hundefutter. So entwickelte sich RRD zu einem milliardenschweren Konzern. Die Herausforderung dabei? Die optimalen Frachtsätze zu finden, in einer Welt in der FedEx und UPS die unangefochtenen Könige sind.

Variablen wie Wetter, geografische Begebenheiten und politische Verhältnisse verursachten Kosten für das Business. Mit steigendem Druck, die Frachtsätze vorab bestimmen zu müssen, wandte sich RRD schließlich Machine Learning und Analytics zu, wie CIO Ken O’Brien erzählt. RRD verpflichtete neues Personal und arbeitete mit Universitäten zusammen, um die Algorithmen zu schreiben, die nötig waren, um tausende von Szenarien für über 700 Frachtrouten zu analysieren. Das Ergebnis: Der Konzern kann die Frachtsätze inzwischen sieben Tage im Voraus bestimmen - in Echtzeit und mit einer Treffgenauigkeit von 99 Prozent.

"Die Kosten für das Projekt hatten sich nach weniger als einem Jahr amortisiert und wir sehen immer noch Wachstum in den Geschäftsbereichen, die mit der Fracht zusammenhängen", so O’Brien. Für das Jahr 2017 rechnet RRD damit, dass sein LKW-Fracht-Business von vier Millionen Dollar auf 16 Millionen Dollar Volumen anwächst.

Lessons learned: Commitment ist ein wesentlicher Punkt für den Erfolg solcher Projekte. Wie CIO O’Brien zugibt, wollten einige seiner Mitstreiter zu verschiedenen Zeitpunkten das Handtuch werfen, weil das Management der Technologie bei Prozessen, die traditionell durch Gefühl und persönliche Einschätzung getrieben werden, nicht getraut habe. "Sie werden straucheln und sich vielen Herausforderungen stellen müssen, aber es lohnt sich geduldig durchzuhalten", empfiehlt der RRD CIO.

Entwickler-Frameworks für Machine Learning
Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert.
Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen.
Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können.
Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen.
Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen.
Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen.
Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten.
Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen.
Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster.
Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit.
mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte.
Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung.
Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.

Monsanto und der Ackerbau-Algorithmus

Eine Sache bereitet Bauern seit jeher Kopfzerbrechen: Welche Saat pflanzt man in welcher Menge zu welcher Zeit an welchem Ort? Der Agrarkonzern Monsanto ist der Antwort auf diese Frage bereits auf der Spur - mit Hilfe von Data Science. Mathematische und statistische Modelle sollen künftig Auskunft darüber geben, wann und wo männliche und weibliche Pflanzen gesetzt werden.

Das Ziel: Maximaler Ertrag und optimale Flächennutzung. Der Machine-Learning-Algorithmus von Monsanto "durchpflügt" dazu täglich mehr als 90 Milliarden Datenpunkte. Ein Vorgang der zuvor Wochen oder Monate in Anspruch genommen hätte, wie Adrian Cartier, Director of Global IT Analytics bei Monsanto, weiß. Die Benefits für das Business? Im Jahr 2016 sparte Monsanto sechs Millionen Dollar ein und konnte den ökologischen Fußabdruck seiner Supply Chain um vier Prozent reduzieren. "Eine Reduktion der Landnutzung in Nordamerika um vier Prozent heißt große ungenutzte Flächen und sehr viel Geld im Sparstrumpf", verdeutlicht Cartier.

Lessons learned: Für Monsanto war das oberste Ziel, eine durchgängige Kollaboration zwischen IT und Lieferkette herzustellen. "Die Kombination aus deren Supply Chain Know-how und agrarwirtschaftlicher Expertise mit unserem Wissen in Sachen Mathematik und Statistik hat diesen Mehrwert erst ermöglicht", ist sich Cartier sicher.

Predictive Analytics gegen den "Amazon Impact"

Die Logistik-Branche sieht sich laut Scott Sullivan, CIO beim US-Transportunternehmen Pitt Ohio, zunehmend mit dem "Amazon Impact" konfrontiert. Das bezeichnet die heutige Erwartung der Kunden, die Ware nicht erst am nächsten Tag zu erhalten, sondern am selben (Same Day Delivery). Gleichzeitig erwarten die Kunden aber auch mehr Informationen über ihre Sendungen.

Mit Hilfe von bereits bestehenden Daten, Predictive Analytics und Algorithmen, die das Gewicht jedes Frachtstücks, die Entfernung zum Bestimmungsort und andere Faktoren in Echtzeit errechnen, kann Pitt Ohio inzwischen die Ankunftszeit ihrer Fahrer mit einer Wahrscheinlichkeit von 99 Prozent vorhersagen. Das Unternehmen schätzt den so erzielten Gewinn auf circa 50.000 Dollar pro Jahr. Auch die Kosten für beschädigte oder verlorene Sendungen will das Unternehmen um 60.000 Dollar gesenkt haben.

Lessons learned: Laut Sullivan war das Projekt ein abteilungsübergreifendes: Research, Sales und IT haben hierbei zusammengearbeitet und durch gegenseitige Checks ihre Zielerreichung sichergestellt. "Auch in Ihren vier Wänden gibt es jede Menge Daten - seien Sie innovativ und finden Sie neue Herausforderungen, um diese zu nutzen", appelliert CIO Sullivan.

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation CIO.com.

Vorgehensweise bei Predictive-Analytics-Projekten

5. Integration der neuen analytischen Methoden in die bestehenden Systeme.

4. Pilotprojekt/Prototyp: Auswertung der Daten in entsprechenden Vorhersagemodellen; Modelle und Analyse-Methoden werden ständig verfeinert, kombiniert und evaluiert, um die Qualität der Prognose zu verbessern.

3. Auswahl/Zuschneiden der Datensätze und Kombination mit externen Daten.

2. Business Case festlegen: Definition eines konkreten Ziels mit Kennzahlen (z.B. Umsatz um Summe x steigern, Fehlmenge reduzieren etc.), das mit Hilfe der Prognosen erreicht werden soll.

1. Analyse des Geschäftsmodells, der Geschäftsprozesse und der vorhandenen Daten.