Ideen fürs Business fehlen

Sinnloser Big-Data-Aktionismus

31.08.2015 von Christoph Lixenfeld
Big Data ist das aktuell breitgetretendste Buzz-Word der IT-Branche. Dabei wissen viele Anwenderunternehmen selbst noch nicht, warum sie sich damit beschäftigen.
  • Unternehmen sammeln Daten, ohne sich vorher zu überlegen, was sie damit genau anfangen wollen
  • 88 Prozent aller Unternehmen schlagen sich mit schlechter Datenqualität herum und verlieren dadurch bei bis zu 12 Prozent ihres Umsatzes
  • Laut einer Studie werden 52 Prozent aller Investments in Daten-Tools auf Werkzeuge verwandt, die die Infoberge lediglich systematisch strukturieren
  • Bevor man sich um die Daten kümmert, sollte man sich die Unternehmensstrategie vergegenwärtigen und sinnvolle Anwendungsfälle definieren

Businessbegriffe gelangen selten auf diese Liste, und technische, deren Bedeutung 99 Prozent der normalen Zeitungsleser nicht kennen, schon gar nicht.

Doch Big Data hat es geschafft: Unter den "Wörtern des Jahres 2013", zusammengestellt von der altehrwürdigen Gesellschaft für Deutsche Sprache, landete das schwammige Buzz-Word auf Platz 5, umgeben von den Begriffen GroKo, Protz-Bischof, Generation Sandsack, Ausländermaut, falsche Neun und einigen anderen.

Mit Hilfe von Big Data lassen sich alle Arten von Daten zu spannenden Analysen verdichten. Zu guten Ergebnissen führt das aber nur in Verbindung mit entsprechenden Konzepten.
Foto: NAN278 - shutterstock.com

Was uns das sagt? Möglicherweise dass ein Begriff gerade dann inflationär verwendet wird und entsprechende Aufmerksamkeit erregt, wenn seine exakte Bedeutung und konkrete Anwendungsszenarien noch unklar sind. Ursache dieser Unklarheit ist nicht, dass die Verwender des Begriffs sich nicht auskennen, sondern dass er einfach schwammig ist. Am häufigsten verwendet wird "Big Data" für die Analyse des Verhaltens der Nutzer von was auch immer auf Basis der Auswertung großer Datenmengen.

Erfolgsgeschichten sind selten

Solche Analysen gibt es schon mindestens zehn Jahre länger als den Begriff. Allerdings sind heute die technischen Möglichkeiten der Datenauswertung durch massenhaft und preiswert verfügbare Rechenleistung drastisch gewachsen. Außerdem braucht in Zeiten von Hadoop-Clustern nicht jeder, der Analysen will, selbst entsprechende Kapazitäten vorzuhalten.

Spätestens hier stellt sich die Frage, warum es zwar eine Allgegenwärtigkeit des Begriffs in Meetings und Medien gibt, aber kaum aktuelle, konkrete, spannende Erfolgsgeschichten - abgesehen von den üblichen Verdächtigen Netflix, Amazon etc.?

Um Erfolgsgeschichten zu schreiben, müssten Unternehmen sich überlegen, was sie wollen und die Voraussetzungen schaffen.

Die meisten Unternehmen, schrieb Anfang Juli Autor Jeremy Levy auf techcrunch, sitzen aber schlicht auf einem großen Haufen von Datenschrott. Laut einer Untersuchung von Experian, einem Anbieter von Software zur Analyse von Datenqualität, schlagen sich 88 Prozent aller Unternehmen mit schlechter Datenqualität herum und verlieren dadurch bis zu 12 Prozent ihres Umsatzes.

NTT Data über "Big Data Governance - eine Reifegrad-Analyse in Deutschland"
Big Data Governance
NTT untersucht in der Studie "Big Data Governance - eine Reifegrad-Analyse in Deutschland" Big Data-Projekte aus 37 Unternehmen. Es geht dabei um so unterschiedliche Branchen wie Automobil, IT und Banken.
Erreichen der Ziele
Geld spielt eine Rolle: Unternehmen, die mindestens 20 Prozent ihres IT Budgets für Big Data aufwenden, sind erfolgreicher in der Umsetzung von Big Data Projekten.
Technik am wichtigsten
Es hängt an der Technik: die technische Expertise halten die Unternehmen für den wichtigsten Erfolgsfaktor bei Big Data-Projekten.
Risiko Datenschutz
Datenschutz und Compliance gelten als größte Risiken bei der Anwendung von Big Data.
Erfolgsfaktor Integration
Je besser Big Data in die Informationsarchitektur integriert ist, umso höher die Chance, alle Ziele zu erreichen.
Aufgaben von Big Data Governance
Die Befragten erwarten von Big Data Governance vor allem die Bereitstellung von organisatorischen Strukturen, Richtlinien, Prozessen und Standards.

Daten-Schleppnetze mit unermesslich viel Müll

Die zentrale Ursache dieses Problems ist eine historische: Datenbestände sind - zwangsläufig - über die Jahre immer mehr angewachsen und wurden dabei ebenso unvermeidlich in den unterschiedlichsten Formaten und Programmen abgelegt.

Und als vor einigen Jahren die Gerüchte über den nächsten Goldrausch die Runde machten, die Verheißung, möglichst viele Daten führten zwangsläuft zu hohen Gewinnen, da ging die Sammelwut richtig los.

Aber - wie Jeremy Levy so schön formuliert hat - statt mit der Harpune gezielt auf Schmackhaftes zu zielen, zogen die Unternehmen riesige Daten-Schleppnetze hinter sich her, in denen sich unermesslich viel Müll verfing.

Um das Wenige, das davon brauchbar ist, herauszufiltern, mussten anschließend Data Scientist-Teams gebildet werden, die ihre Zeit damit verbrachten, zu sichten, zu reinigen und zu strukturieren, und das nicht selten mit manuellen bis semi-automatischen Mitteln.

Daten aussortieren ist die Hauptbeschäftigung

Wie sagte doch DJ Patil, oberster Data Scientist des Weißen Hauses einmal: "Daten sind nun mal chaotisch, und das Aussortieren wird immer 80 Prozent der Beschäftigung mit ihnen ausmachen. Anders gesagt: Daten sind ein Problem."

Wetterdaten sind ein Beispiel dafür, dass wuchtige Rechner in Verbindung mit Big Data-Tools Analysen liefern, die noch vor fünf Jahren nicht zur Verfügung standen.
Foto: maldesowhat - Fotolia.com

Und dabei suchen Unternehmen darin doch das genaue Gegenteil, nämlich Lösungen. Aber weil sie nicht wissen, wie sie sonst dorthin gelangen sollen, kaufen sie sackweise Tools, multifunktionale Macheten sozusagen, mit denen sich hoffentlich eine Schneise durch den Datendschungel schlagen lässt.

Nach Angaben der US-Analyseplattform Wikibon werden 52 Prozent aller Investments in Daten-Tools auf Werkzeuge verwandt, die die Infoberge lediglich so strukturieren, dass sich systematisch darauf zugreifen lässt. Anders gesagt: Mehr als die Hälfte des Budgets ist bereits verbraucht, bevor eine einzige Auswertung - also Nutzung - der Daten stattgefunden hat.

Big Data - es kann nicht oft genug gesagt werden - ist vor allem Big Business. Und je unklarer die genaue Bedeutung und der Nutzen des dahinter Stehenden, desto besser lassen sich "nützliche" Hard- und Softwarelösungen in die Unternehmen hineinverkaufen.

Wie also sollten CXOs auf den künstlichen Hype und den damit verbundenen Handlungsdruck reagieren, wie am effizientesten davon profitieren?

Keine Datensammlung ohne Sinnfrage

"Wenn es um den intelligenten Umgang mit großen Datenmengen geht, haben deutsche Unternehmen noch viel Luft nach oben. Das Potenzial, das in analytischen Plattformen steckt, schöpfen bisher die Wenigsten aus", sagt Lars Schlömer, Head of Business Intelligence bei Sopra Steria Consulting. "Wichtig ist, dass die Unternehmen vorher überlegen, wofür sie die erhobenen Daten nutzen möchten und zunächst sinnvolle Anwendungsfälle definieren."

Wer tut was wann und wo mit wem? Massen von Konsumenten in ihren Verhalten zu erfassen, ist ein zentrales Ziel von Big Data.
Foto: Splunk Inc.

Klingt banal? Vielleicht. Dennoch scheint hier die zentrale Schwäche der Big Data-Nutzung zu liegen: Unternehmen sammeln Daten, ohne sich vorher zu überlegen, was sie damit genau anfangen wollen.

In drei Schritten zur richtigen Strategie

Nach Ansicht von techcrunch-Big Data-Spezialist Jeremy Levy sollte der erste Schritt in diesem Prozess gar nichts mit Daten zu tun haben - sondern mit der übergeordneten Unternehmensstrategie. Motto: Wo will ich hin? Und: Können mir strukturierte Daten auf diesem Weg helfen? Zitat: "Jede noch so kleine Dateneinheit muss eine analytische Funktion haben, Teil einer Problemlösung sein."

Zweitens: analysieren, welche Art von Daten das Unternehmen zum Erreichen seiner Ziele braucht. Die Sammelwut sollte - wenn überhaupt - erst nach dieser Analyse beginnen.

Wichtig für CXOs ist auch, nicht zu stark zu delegieren in diesem Prozess. Entscheidend ist, dass diejenigen, die mit den Daten am Ende konkret arbeiten, verstehen, wie sie gesammelt und strukturiert werden. Nur so können sie die Möglichkeiten und Grenzen des Ganzen beurteilen.

Drittens: Unternehmen sollten nur die Analysetools kaufen, die sie wirklich brauchen und im Zweifelsfall den potenziellen Nutzen höher bewerten als irgendwelche coolen Features.

Denn am Ende geht es ja nicht darum, sinnlose Sammlungen aufzubauen, sondern smarte, nutzbare Daten zum gewinnbringenden Bestandteil des eigenen Businessmodells zu machen.

Big Data: Neue Berufsbilder
Big Data: Neue Berufsbilder
In den teilweise euphorischen Einschätzungen von Markforschern und IT-Unternehmen ist immer wieder die Rede von neuen Berufsbildern, die Big Data mit sich bringen soll. Dazu zählen unter anderem folgende Tätigkeiten:
Data Scientist
Er legt fest, welche Analyseformen sich am besten dazu eignen, um die gewünschten Erkenntnisse zu erzielen und welche Rohdaten dafür erforderlich sind. Solche Fachleute benötigen solide Kenntnisse in Bereichen wie Statistik und Mathematik. Hinzu kommen Fachkenntnisse über die Branche, in der ein Unternehmen beziehungsweise tätig ist und über IT-Technologien wie Datenbanken, Netzwerktechniken, Programmierung und Business Intelligence-Applikationen. Ebenso gefordert sind Verhandlungsgeschick und emotionale Kompetenz, wenn es um die Zusammenarbeit mit anderen Abteilungen geht.
Data Artist oder Data Visualizer
Sie sind die "Künstler" unter den Big-Data-Experten. Ihre Hauptaufgabe besteht darin, die Auswertungen so zu präsentieren, dass sie für Business-Verantwortliche verständlich sind. Die Fachleute setzen zu diesem Zweck Daten in Grafiken und Diagramme um.
Data Architect
Sie erstellen Datenmodelle und legen fest, wann welche Analyse-Tools Verwendung finden und welche Datenquellen genutzt werden sollen. Auch sie benötigen ein umfassendes Know-how auf Gebieten wie Datenbanken, Datenanalyse und Business Intelligence.
Daten-Ingenieur
Diese Aufgabe ist stark auf die IT-Infrastruktur ausgerichtet. Der Dateningenieur ist das Big-Data-Analysesystem zuständig, also die Hard- und Software sowie Netzwerkkomponenten, die für das Sammeln und Auswerten von Daten benötigt werden. Eine vergleichbare Funktion haben System- und Netzwerkverwalter im IT-Bereich.
Information Broker
Er kann mehrere Rollen spielen, etwa die eines Datenhändlers, der Kunden Informationen zur Verfügung stellt, oder die eines Inhouse-Experten, der Datenbestände von unterschiedlichen Quellen innerhalb und außerhalb des Unternehmens beschafft. Außerdem soll er Ideen entwickeln, wie sich diese Daten nutzbringend verwenden lassen.
Data Change Agents
Diese Fachleute haben eine eher "politische" Funktion. Sie sollen bestehende Prozesse im Unternehmen analysieren und anpassen, sodass sie mit Big-Data-Initiativen kompatibel sind. Nur dann lässt sich aus solchen Projekten der größtmögliche Nutzen ziehen. Wichtig sind daher ausgeprägte Kommunikationsfähigkeiten, Verständnis für Unternehmensprozesse sowie Kenntnisse im Bereich Qualitätssicherung und Qualitätsmanagement (Six Sigma, ISO 9000).