Big Data Analytics

Warum Big-Data-Projekte rote Zahlen schreiben

01.09.2016 von Rüdiger Eberlein
Immer wieder scheitern Unternehmen daran, ihre Big-Data-Vorhaben erfolgreich umzusetzen. Um das zu vermeiden, gilt es vier Stolperfallen zu beachten.

15 Prozent der Big-Data-Projekte in Europa sind kommerziell nicht erfolgreich, so die Ergebnisse der Studie "The Big Data Payoff" von Capgemini und Informatica. Aber was genau bedeutet das? Der Hype um Big Data und Analytics hat sich inzwischen gelegt. Viele Unternehmen haben es ausprobiert, einige auch schon erfolgreich umgesetzt. Andere sind auf die Nase gefallen und haben ihre Lektionen gelernt. Doch warum bleibt trotz der großen Ambitionen in Sachen Big Data noch immer jedes sechste Projekt unprofitabel?

Wie profitabel sind Big-Data-Initiativen?
Foto: Capgemini

Grund Nr. 1: Das Projekt ist nicht vom Fachbereich initiiert

Meist initiiert die IT die Projekte. Aber Big Data und Analytics sind zwei Seiten derselben Medaille. Initiator für das Vorhaben muss der Fachbereich mit seinen strategischen Geschäftszielen sein – er steht für den Part Analytics. Die Rolle der IT ist die des Inspirators, sie muss das Projekt ermöglichen. Es bringt wenig, einfach eine technische Big-Data-Plattform, wie beispielsweise Hadoop oder MongoDB, bereitzustellen. Am Anfang steht immer das Identifizieren und Priorisieren analytischer Anwendungsfälle, die konkrete Insights liefern: für die Kundeninteraktion, den Prozessablauf, die Wettbewerbssituation am Markt oder andere fachliche Bereiche. Projektleiter sollten Big-Data-Projekte immer mit diesem Schritt starten.

Warum Analytics nicht in die IT-Abteilung gehören
Fünf gute Gründe ...
... warum Analytics nicht in die IT-Abteilung, sondern in die Fachbereiche gehören und warum jeder Fachbereichsleiter einen Data Scientist in seinem Team haben sollte.
Analytics können helfen, Unternehmensziele zu erreichen
Analytics dient keinem Selbstzweck. Der Wert von analytischen Services oder Datenprodukten entsteht erst durch die Einbindung in Geschäftsprozesse. Erst durch die Realisierung eines effektiven Nutzens in Form von Effizienzsteigerungen und damit verbundenen Kostensenkungen, der Generierung von Neugeschäft oder eine gesteigerten Kundenloyalität werden tatsächliche Effekte im Geschäftsergebnis messbar.<br /><br /> Fachbereiche sind in ihrer Funktion für die Steigerung von einzelnen Erfolgsfaktoren verantwortlich und haben daher ein Interesse zu verstehen, an welcher Stelle ihnen Analytics helfen kann. Zudem sollten die Mitarbeiter im Fachbereich auch zu einem Stück weit verstehen, wie die Analysen funktionieren, um mit dem Wissen zu ihren Geschäftsproblemen beispielsweise das Transferdenken zu leisten, wie man Daten anreichern sollte oder welche zusätzlichen Analysen durchgeführt werden sollten. Außerhalb des Fachbereichs hat für gewöhnlich niemand das entsprechende Interesse die Unternehmenskennzahlen in dem speziellen Bereich positiv zu beeinflussen und kein anderer kann es besser.
Anwendungsfälle ergeben sich aus den Erfahrungen, die Mitarbeiter im täglichen Betrieb sammeln
Gesunder Menschenverstand, Erfahrungswerte für Abwägungen zwischen Machbarem und Sinnvollem und ein Gespür für die echten Probleme in einem Unternehmensbereich sind relativ seltene Fähigkeiten, schwer zu erlangen und wenn dann über einen längeren Zeitraum im täglichen Geschäft entstanden. Das unverzichtbare Wissen, die sogenannte "Magic Sauce" für eine erfolgreiche Anwendung von analytischen Fähigkeiten ist und bleibt in den Fachbereichen.
Data Scientists brauchen das Know-how des Fachbereichs, um Modelle praxisrelevant zu entwickeln
Ein guter Data Scientist zeichnet sich durch ein breites Wissen von analytischen Methoden, Anwenderkenntnis von analytischen Technologien, Fähigkeiten zur Datenaufbereitung und Kreativität aus. Aber die Arbeit eines Risikoanalysten bei einer Bank und eines Marketinganalysten bei einem Online-Händler unterscheiden sich.<br /><br />Der Grund, warum sie ihre Jobs nicht ohne weiteres tauschen können, ist das Verständnis über ihren Fachbereich und das Wissen was funktioniert und was nicht. So wertvoll Datenprodukte für einzelne Fachbereiche sein können, häufig ist es ein Ansatz aus Testen und Lernen, der aus einem analytisch einwandfreien Modell ein für den praktischen Einsatz wertvolles und nachhaltiges Datenprodukt generiert.
Ergebnisse müssen interpretiert und Maßnahmen abgeleitet werden
Auch wenn der Data Scientist nicht im Fachbereiche angesiedelt ist: Eine enge Zusammenarbeit ist unerlässlich. Spätestens wenn es an das Verstehen von Ergebnissen und Ableiten von Maßnahmen oder die Integration in Geschäftsprozessen geht, nehmen Fachbereiche die Führungsrolle ein. Je enger die Einbindung während der gesamten Entwicklung des analytischen Anwendungsfalls, desto wahrscheinlicher ist die Akzeptanz und Relevanz für die Anwendung in den Fachbereichen.
Ein Data Scientists im eigenen Team schafft Agilität und Vorsprung
Sobald dem Fachbereich bewusst ist, welchen Mehrwert Analytics und die richtige Datenauswertung bietet, können sich Data Scientists häufig nicht mehr vor kurzfristigen Anfragen retten und müssen ihre Kapazität zwischen Fachbereichen balancieren. Arbeitet Data Scientist jedoch im eigenen Team, ist er schneller erreichbar. Analyseprojekte können dauerhaft weiterentwickelt werden und auf die immer schneller wechselnden Prioritäten vieler Fachbereiche kann reagiert werden. Der Data Scientist kann sich mit der Zeit Fachbereichswissen aneignen, entlastet somit andere Fachmitarbeiter und kann sie zugleich in ihren analytischen Fähigkeiten weiterentwickeln – als Hilfe zur Selbsthilfe für die Kollegen im Fachbereich.

Grund Nr. 2: Manager verfolgen zu lange nicht-tragfähige Anwendungsfälle

Nicht jeder Big-Data-Anwendungsfall kommt zum Fliegen. Häufig reichen die Qualität oder Breite der Daten nicht aus. Möglich auch, dass der angedachte Analytics-Ansatz nicht überzeugt. Die Data Scientists melden dann: "Das gefundene Prognosemodell ist nicht hinreichend signifikant oder akkurat." Ändern lässt sich das nicht. Die Antwort auf das Problem heißt hier: "Fail fast!" Versteifen Sie sich nicht auf einen einzigen analytischen Anwendungsfall, sondern verfolgen Sie besser von vornherein mehrere Kandidaten. Das weitere Vorgehen hängt dann stark davon ab, ob die Idee eines Anwendungsfalls trägt oder nicht. Das gilt es rasch zu ermitteln, meist mittels eines Proof of Concepts. Statt Angst vor dem Versagen eines einzelnen Anwendungsfalls zu haben, sollte das Credo der Initiative sein, die tragfähigen Anwendungsfälle möglichst schnell herauszufinden.

Gartner Big Data Survey 2015
Big Data 2015
Zur Praxis von Big Data hat der US-Marktforscher Gartner 437 Teilnehmer seines eigenen Panels ("Gartner Research Circle") befragt. Die Ergebnisse dokumentiert das Papier "Practical challenges mount as Big Data moves to mainstream".
Adaption
Hatten 2012 noch 58 Prozent der Teilnehmer von bereits getätigten oder geplanten Investitionen gesprochen, sind es jetzt 76 Prozent. Gartner bezeichnet das als "Adaptionswelle".
Initiatoren
Gartner wollte auch wissen, wer Big Data-Initiativen anstößt. Hier zeigt sich eine deutliche Verschiebung zuungunsten der IT-Entscheider.
Ziele
In den vergangenen Jahren hat sich herauskristallisiert, welche Ziele die Unternehmen mit Big Data verbinden. An oberster Stelle steht die Kundenerfahrung (Customer Experience). Das war auch 2013 der Spitzenreiter, allerdings mit 55 Prozent der Nennungen.
Messung des ROI
24 Prozent derer, die bereits in Big Data-Lösungen investieren, messen den ROI (Return on Investment) nicht. Die anderen orientieren sich entweder an finanziellen Kennzahlen, an der Steigerung der Effizienz oder besserer Entscheidungsfindung.

Grund Nr. 3: Die Infrastruktur ist oft nicht flexibel genug verfügbar

Für einen Fail-Fast-Ansatz braucht die IT eine Infrastruktur, die sie für einen Anwendungsfall sehr schnell und mit geringen Investitionskosten bereitstellen kann. Dafür sind die IT-Infrastrukturen in klassischen Unternehmen in der Regel aber gar nicht ausgelegt. Deren Maxime sind Verfügbarkeit, Qualitätssicherung und Verlässlichkeit für einen lang laufenden Betrieb von Anwendungen. Aus diesem Grund ist es wichtig, für Big-Data-Analytics-Anwendungsfälle die verschiedenen Optionen zum Arbeiten in der Cloud zu prüfen. Auch das Problem der fehlenden Fertigkeiten rund um den Betrieb neuer Big-Data-Plattformen lässt sich dabei verringern. Denn die bringt der Betreiber selbst mit.

Big Data Tools aus der Cloud
Datenanalyse als Service
Analytics Tools aus der Cloud können den Einstieg in die Datenanalyse erleichtern. Sie erfordern keine Vorabinvestitionen im fünf- oder sechsstelligen Bereich und besitzen teilweise grafische Benutzeroberflächen, die es auch dem weniger versierten Anwender ermöglichen, Analyseprozeduren zu erstellen, die zu aussagefähigen Ergebnissen führen. Wir stellen fünf wichtige Big-Data-Tools vor, die Sie als Service aus der Cloud nutzen können.
AWS Elastic MapReduce
Seit der Version 4.1.0 von Amazon Elastic MapReduce lassen sich Cluster im laufenden Betrieb verkleinern.
Google Cloud Platform
Mit dem Google Cloud Launcher lässt sich ein Hadoop-Cluster mit wenigen Klicks einrichten.
Microsoft Azure
Ein Hadoop-Cluster ist in HDInsight von Microsoft in zirka 10 bis 15 Minuten verfügbar.
IBM Analytics
Beim Einrichten eines Hadoop-Clusters auf IBM Bluemix hat der Anwender die Wahl zwischen drei Cluster-Größen.
SAP HANA Cloud Platform
LubeInsights verknüpft Hadoop im SAP HANA und lädt nur aktuell benötigte Daten in die In-Memory-Datenbank.

Grund Nr. 4: Operationalisierung von Big Data Analytics

Einen Proof of Concept zum Erfolg zu bringen, schaffen noch die Meisten. Ungleich schwerer ist der Schritt hin zur letztlichen Implementierung des Anwendungsfalls in der IT-Anwendungslandschaft und der nachhaltigen Verankerung in den Geschäftsprozessen. Häufig bedenken Projektleiter den Aufwand für diesen Schritt der Operationalisierung nicht. Mitunter eignen sich die Werkzeuge und Plattform des Proof of Concept nicht für den laufenden Betrieb.

In der Regel lohnt sich ein Anwendungsfall finanziell erst, nachdem er in den produktiven Alltag überführt ist. Unternehmen sollten daher einen ganzheitlichen Prozess zur Umsetzung von analytischen Anwendungsfällen schaffen, der von der Idee über den Proof of Concept bis zum Betrieb reicht. Weiterhin sollten sie neben agilen Plattformen für die Entwicklung von Anwendungsfällen separat eine betriebsfähige Plattform etablieren. Sie dient dann dem Betrieb aller Anwendungsfälle.

Kurzum: Sollen Big-Data-Vorhaben profitabel laufen, dann muss zumindest zu Beginn der Fachbereich maßgeblich führen. Am Ende liegt es in den Händen der IT, den erfolgreichen Anwendungsfall auch produktiv zu betreiben. Und zwischendrin gilt es einige Anwendungsfälle von der Liste zu streichen, weil sie sich als nicht tragfähig erwiesen haben.

Capgemini über Operational Analytics ("Going big"-Analyse)
Operational Analytics in Unternehmen
Datenanalyse-Projekte drehen sich mittlerweile weniger um kundenbezogene Prozesse als stärker um operative Abläufe. Dabei haben deutsche Unternehmen Nachholbedarf. Das belegt Capgemini Consulting in der Studie „Going big: Why companies need to focus on operational analytics“. Grundlage sind Angaben von mehr als 600 Unternehmen aus Deutschland sowie China, Frankreich, Großbritannien, den Niederlanden, Skandinavien und den USA.
Vier Kategorien
Die Consultants unterteilen ihre Studienteilnehmer in vier verschiedene Gruppen. Je nach Integrationsgrad der Daten und Erfolg der Initiativen zählen sie zu den Game Changern (18 Prozent), Optimierern (21 Prozent), Kämpfern (20 Prozent) oder Nachzüglern (41 Prozent).
Internationaler Vergleich
Vorreiter stammen typischerweise aus den USA, Nachzügler aus Deutschland und Frankreich.
Erwartete Vorteile
Die Unternehmen versprechen sich von Operational Analytics verschiedene Vorteile in Sachen Produktion, Lieferkette und Asset Management. Sie erstrecken sich von leicht erreichbaren Zielen wie verbessertem Flotten-Management über Optimierung der Logistik bis hin zu vorausschauender Instandhaltung sowie Forecasting und Planung.
Beispiele
Die Supermarktkette Tesco spart pro Jahr Lieferkettenkosten von rund 100 Millionen Pfund. Der Getränkekonzern AmBev verbesserte den Lagerumschlag um 50 Prozent.
Datenintegration
Ein genauerer Blick zeigt, dass selbst unter den Game Changern noch vier Prozent mit Datensilos arbeiten.