Strategie für Big-Data

Das sollte ein CIO über Data Analytics wissen

12.12.2016 von Söntje Julia Hilberg und Sebastian Leder
Datenanalyse ist weniger das Umkrempeln von Unternehmen. Sie stellt vielmehr ein Instrument zur Steuerung von Prozessen dar und schafft die Möglichkeit, das Unternehmen in eine "Insights Driven Organisation" zu verwandeln.
  • Data Analytics ist eher eine neue Sichtweise auf die Welt und weniger eine neue Form des Wirtschaftens.
  • Die Komplexität liegt im Bereich der Big-Data-Strategie, also Daten auffangen, speichern und verarbeiten. Dagegen liegt die Komplexität nicht so sehr in der Analyse.
  • Ein Bespiel aus der Londoner City demonstriert die Möglichkeiten und den Wert von Datenanalyse.
Daten sind das neue Öl - oder gar der neue Goldstandard.
Foto: Sergey Nivens - shutterstock.com

Daten werden produziert, gespeichert und verarbeitet. Wer sich nicht mit den Methoden und Modellen der Datenanalyse beschäftige, sei in kurzer Zeit nicht mehr wettbewerbsfähig; wer datenanalytische Aussagen nicht zum eigenen Vorteil nutze, sei bald nicht mehr in der Lage, global zu konkurrieren.

Viele mittelständische Unternehmer und CIOs setzen solche Aussagen unter Druck, haben sie doch das Gefühl, eine neue, unbekannte und gegebenenfalls im Bereich der Wirtschaftsfolgenabschätzung unfassbare Technologie einsetzen zu müssen, ohne zu verstehen, was sie kann, was sie will und was sie nützt. Showcases aus Großkonzernen stärken dann eher den Unwillen, rechnet man jenen doch grundsätzlich zu, dass sie sich jede Technologie leisten können und sie immer auch irgendwie nötig hätten.

Komplexität von Welt sichtbar machen

Ob und in welchem Umfang Unternehmen sich für den Einsatz von Analytics entscheiden sollten, kann pauschal nicht beantwortet werden, denn Data Analytics ist eher eine neue Sichtweise auf die Welt und weniger eine neue Form des Wirtschaftens. Da die überwiegende Anzahl technischer Geräte Daten produziert oder produzieren kann, sind diese Daten lediglich abzugreifen und zu speichern. Ab dem Moment, ab dem die Menge der gespeicherten Daten beginnt, die menschliche Wirklichkeitstapete nachzubilden, ergeben sich Beziehungsmuster zwischen den Daten und ihren Bedeutungen.

Sobald die Datenwirklichkeit die Komplexität von Welt erreicht hat, lassen sich Aussagen und Vorhersagen auf technologischer Basis treffen, die der menschlichen Genauigkeit überlegen sind. Klassische Überlegungen sind dann die "Goldnuggets" in Daten, die vorher so nicht bewusst waren, oder die "strukturellen Verflechtungen", die so vorher nicht sichtbar waren.

Daten greifbar machen

Der zweite Schritt von Data Analytics ist dann die Sorge, sie würde mit großem technologischen Aufwand einhergehen. Dem ist zweifelsfrei nicht so. Die Komplexität liegt eher im Bereich der "Big-Data-Strategie" - also dem Auffangen, Speichern und Verarbeiten von Daten - und weniger in der Analyse. Analyse ist menschliche Intelligenz, verbunden mit dem Herausarbeiten entsprechender Fragestellungen an Daten. Hier liegt die Arbeit, da sich CIO und externer Berater - aufgrund der Neutralität gegenüber dem eigenen Haus und der Technologie - darauf verständigen müssen, was die eigentliche Frage ist und nicht die naheliegende.

Use Case: Sicherheit in der Metropole

Der dritte Schritt ist es, den Datenanalysen zu vertrauen.

Ein Showcase aus dem Deloitte Analytics Institute aus Berlin zu den Themen "Public Safety" und "Public Transport" demonstriert die Möglichkeiten und den Wert von Datenanalyse.

2012 feierte Queen Elizabeth II. ihr 60. Thronjubiläum, selbstverständlich mit aller gebotenen Pracht. Einer der Jubiläumshöhepunkte in jenem Jahr war die "Thames Diamond Jubilee Pageant". Dies war die größte Schiffsparade auf der Themse seit 350 Jahren, die erwartungsgemäß auch mehrere Zehntausend Besucher würde anziehen wollen und es - trotz den einsetzenden schlechten Wetters - auch tat.

Fraglich war zu diesem Zeitpunkt, wie einerseits die öffentliche Sicherheit gewährleistet werden könnte und wie andererseits der öffentliche Nahverkehr geregelt werden müsste, um die Menschenmassen weniger zum Ort des Geschehens, als vielmehr - auch aufgrund des Wetters - schnell wieder zu zerstreuen, ohne, dass übermäßige Verkehrsstauungen, Unfälle oder sonstige Störungen der öffentlichen Ordnung vorkommen würden.

Die Lösung war letztendlich einfach, aber technisch etwas komplexer: Es wurde das Normalnull der täglichen Personenanzahl an der Themse und verbundener Örtlichkeiten gemessen, indem der Mobilfunkbetreiber die Quantität je Funkzelle den Sicherheitsbehörden zur Verfügung stellte. Am Tag des Umzuges wurde dann gegen diese "Normalstellung" die dazukommende Personenanzahl ebenfalls quantitativ gemessen.

Sicherheitsbehörden und Nahverkehrsbetreiber bekamen dann über eine Zentrale in regelmäßigen, kürzeren Abständen den aktuellen Bericht über die Personenanzahl und konnten diese mit dem Durchzug der Queen und ihren Begleitpersonen auf dem Fluss abgleichen. Sobald sich die Personenmenge zu bewegen begann, war es möglich, den öffentlichen (Nah-)Verkehr genauso zu dispatchen, wie auch die Sicherheitsbehörden und -mitarbeiter an jene Stellen zu verbringen, die einen über die Erwartung hinausgehenden Besucheransturm zu verzeichnen hatten. Dies betraf im Besonderen die Brücken und Menschen, die die Flottille begleiteten, und weniger den erwarteten Ansturm auf den Einstig der Queen in ihr Schiff.

Macht, Sicherheit und Kontrolle

Warum nun sollte sich ein CIO mit Data Analytics beschäftigen? Die Beispiele von verschlankter Produktion, prädiktiver Ausfallwahrscheinlichkeit und allgemein besserer Planung sind nicht der Urgrund. Ursächlicher Antrieb ist die Trias zwischen Macht über Welt, Sicherheit in der Verantwortung und Kontrolle über eigene Entscheidungen.

Der CIO weiß also einerseits, dass der mittelbare - nach der Big-Data-Strategie - entstehende Mehrwert in der abgestuften Entscheidungsfindung besteht. Andererseits weiß der CIO, dass die Sicherheit über Verantwortung dort entsteht, wo der Handelnde sich der Getriebenheit entzieht und Kontrolle wieder übernehmen kann, sodass Veränderungen endlich wieder greifbar werden und auch empirisch validiert sind.