Engpass Mitarbeiter-Know-how

So funktioniert Big Data in der Praxis

24.06.2013 von Werner Kurzlechner
Wenn es Data Scientists mit Programmierfähigkeiten gäbe, würden nach Expertenmeinung weniger Big Data-Projekt scheitern. Gartner geht indes davon aus, dass die Firmen bis 2016 den sinnvollen Umgang mit komplexen Daten gelernt haben. Bestes Lehrmaterial auf dem Weg dahin sind Wetterberichte.

Übers Wetter wird gerne geredet – sowieso und immer, aber in jüngster Zeit aus besonders eindrucksvollen Gründen. Rekordfluten, ein eisiger Spätlenz, grüne Weihnachten und weiße Ostern, dazwischen Bullenhitze und Hundswetter – die Kapriolen reißen nicht ab. Sie betreffen alle, aber eine Fülle von Firmen ganz besonders. Wer Saisonprodukte anbietet oder auf reibungslosen Transportverkehr angewiesen ist, wüsste wirklich gerne lange vorher und möglichst sicher, wie es denn wird, das Wetter. Unsere amerikanische Schwesterpublikation CIO.com hat kürzlich in einem Artikel eine Reihe von Initiativen in diesem bewegten Sektor vorgestellt. Schließlich ist die Auswertung einer schieren Menge an Wetterdaten ein Feld, auf dem sich das immer noch ungefähre Anwendungspotenzial eines aktuellen IT-Megatrends anschaulich machen lässt. Bryson Koehler, CIO beim Meteorologiedienst The Weather Channel, bringt es auf den Punkt: „Das Wetter ist ein originäres Big Data-Problem."

„Big" heißt in diesem Fall: Jeden Tag werden rund 20 Terabytes an Informationen über Wind, Niederschläge, Temperaturentwicklung sowie Luftdruck und Luftfeuchtigkeit verarbeitet, auf dieser Basis das Risiko für Wirbelstürme, Erdbeben und andere Naturkatastrophen abgeschätzt. Der Trend – nicht nur bei The Weather Channel – geht dahin, die Vielzahl an interessierten Anwendern mit detaillierten Analysen zu versorgen und Wetterberichte via Apps auf die Smartphones dieser Welt zu schicken. Nicht passé ist das seit Menschengedenken gültige Naturgesetz, dass es mit dem Wetter manchmal doch anders kommt als erwartet. Dennoch wächst die Präzision der Vorhersagen. Und die Schar an Unternehmen, für die diese bares Geld wert sind.

Firmen machen Wetterdaten zu Geld

CIO.com nennt als Beispiele unter anderem den Pharmahersteller Merck und die Einkaufskette Wal-Mart, die auf Basis von Wetterdaten genau über den Beginn der Pollensaison Bescheid wussten und so das Antiheuschnupfenmittel Claritin pünktlich in ausreichenden Mengen produzieren und vertreiben konnten. Der Logistiker DHL Express koordiniert täglich etwa 3000 Flüge weltweit und sammelt dafür Daten, die über Sichtverhältnisse und damit über mögliche Flugausfälle Aufschluss geben. Von höchster Wichtigkeit war das beispielsweise 2010, als der isländische Vulkan mit dem unaussprechlichen Namen tagelang die europäischen Flughäfen von der Welt abschottete. Versicherungen überprüfen anhand von Wetterdaten, ob gemeldete Schadensfälle sich so tatsächlich ereignet haben können; Energieversorger benötigen Prognosen für mögliche Katastrophen, um ihre Notfallversorgung entsprechend planen zu können.

Das sind spektakuläre und einleuchtende Beispiele dafür, dass sich Big Data auszahlen kann. Gleichwohl läuft es mit der Analyse großer Datenmenge in der Praxis der IT-Abteilungen nicht überall so nachvollziehbar und rund. Die Analysten von Gartner weisen aktuell daraufhin, dass es bei Big Data vor allem auf die Anwendungsszenarien ankommt und dass dadurch nicht alle anderen Praktiken zur Datenanalyse unwichtig werden. Die Kernbotschaft lautet, dass Firmen ihre Daten als werthaltige Güter begreifen sollten.

Bis 2016 haben die Firmen nach Einschätzung von Gartner diese Lektion weitgehend verstanden. Dann werde auch der Hype um das Schlagwort Big Data vorüber sein. Die entsprechenden Technologien seien dann ausgereift, es werde nur noch und ganz einfach um Daten gehen. Dazu seien breite Ansätze gefragt, um mit der jeweiligen Vielgestaltigkeit, Menge und Geschwindigkeit passend umgehen zu können.

Gartner: Nicht immer Big Data

„Die Quintessenz ist, dass nicht alle Informationen einen Big Data-Ansatz benötigen", sagt Analyst Frank Buytendijk. Es gebe Raum und Bedarf für Innovationen und Experimente, zum Beispiel mit Social Media-Daten oder informations-zentrierten Prozessen. Außerdem müsse Big Data im Zusammenspiel mit anderen IT-Großtrends wie Social Media, Mobile IT und Cloud Computing gesehen werden. Gartner hat für das Zusammenwirken dieser Kräfte bekanntlich das Schlagwort „Nexus of Forces" geprägt.

Big Data in der Praxis
Big Data klingt cool und ist technologisch sexy. Viele CIOs wissen aber nicht so recht, was sich damit in der Praxis sinnvolles anstellen lässt. Unsere Bildergalerie zeigt deshalb einige Anwenderbeispiele.
American Airlines
Wie Forrester Research berichtet, machte American Airlines kürzlich auf einer Konferenz in Texas einige eigene Daten publik. Die Fluglinie zeigte, wie diese sich Routenoptimierung in Echtzeit nutzen lassen. Profitieren können die Passagiere. Sie können sich berechnen lassen, ob und wie sie noch zum gewünschten Gate schaffen können. Den Service soll es künftig auf der Website der Fluglinie und als mobile App geben.
NASDAQ/NYSE Euronext
Gartner geht davon aus, dass sich Firmen zunehmend gegenseitig mit Informationen versorgen, so dass beide Seiten profitieren. Die Börsen NASDAQ und NYSE machen schon vor, was das konkret heißen kann. Über den cloud-basierten Datenaggregator Xignite beliefern sie Investment-Firmen mit Echtzeit- und Referenz-Daten sowie mit historischen Informationen. Die Kunden können auf diese Weise bessere Handelsalgorithmen erstellen und Risiken genauer abschätzen. Das hilft beim Entwickeln neuer Services und Produkte für die jeweiligen Zielgruppen.
New York City
Die Stadt New York teilt zunehmend Daten mit der Öffentlichkeit. Das Kalkül dahinter: Engagierte IT-Experten nutzen das Material, um Innovationen für einen besseren Lebensraum zu entwickeln. Laut Forrester Research konnten auf diesem Wege beispielsweise die Müllentsorgung und die Sicherheitslage verbessert werden. Zwei Apps sind offenbar besonders populär: WorkPlus und ParkAlley helfen bei der Suche nach Parkplätzen und geeigneten Lokalen für die mobile Arbeit.
dm
Die Filialmanager der Drogeriekette dm erledigten früher ihre Mitarbeiterplanung auf Basis einfacher Hochrechnungen - ein Verfahren, das immer an seine Grenzen stieß. Mittlerweile führte man für die Vorhersage der Tagesumsätze die Predictive-Analytics-Suite des Anbieters Blue Yonder ein. Vier bis acht Wochen im Voraus tragen sich die Mitarbeiter der jeweiligen Filiale jetzt nach ihren persönlichen Präferenzen in die anstehenden Tagespläne des Unternehmens ein. Kurzfristige Änderungen sind laut Bitkom selten geworden.
Macys
Die US-amerikanische Handelskette Macy's verarbeitet für die wöchentliche Preisfestsetzung ihrer Produkte rund zwei Terabyte an Daten, die in den Filialen gesammelt wurden. An Rechenzeit nahm das stets an die 30 Stunden in Anspruch. Wie der Bitkom berichtet, war es durch die Umstellung der vorhandenen Infrastruktur auf optimierte Datenhaltung und den Einsatz von In-Memory-Technologie möglich, die Analyse über das gesamte Sortiment auf eine Zeit unter zwei Stunden zu drücken.

So erwarten die User laut Buytendijk mittlerweile, Inhalte über Betriebssystem- und Gerätegrenzen hinweg bearbeiten zu können. Ein „fluides" Nutzererlebnis bedeutet konkret etwa, dass ein Prozess am Desktop gestartet wird, die Kundeninteraktion über das Tablet läuft und auf dem Smartphone Notizen gemacht werden. „Mobile Content Delivery ist aber nicht die einzige Form, in der Mobile IT das Informationsmanagement beeinflusst", so Buytendijk. „Mobile Endgeräte werden sich zu einer Quelle erster Güte für die Datensammlung entwickeln."

Business Analytics entwickelt sich laut Gartner vor diesem Hintergrund rasant, und zwar über die eigenen Firmenwände hinaus, indem Daten – gerne grafisch aufbereitet – auch Kunden zur Verfügung gestellt werden. Sentiment Analysis wiederum zeige den Unternehmen, wie sie im Markt wahrgenommen werden. Anbieter von Enterprise Content Management (ECM) entwickelten dafür neue Interfaces. Darüber lasse sich beispielsweise verfolgen, wie lange mobile User in ECM-Systemen verbleiben und wie Inhalte rezipiert werden.

Trend zu Information-as-a-Service

Beim Cloud Computing bilde sich als Sparte „Information-as-a-Service" heraus, so Gartner. Apps setzen sich mit Apps in der Wolke in Verbindung, um bestimmte Aufgaben zu erfüllen. Überdies sehen die Analysten den Trend, über solche Kanäle eigene Daten mit anderen zu teilen. Im Entstehen begriffen ist demnach eine virtuelle „Bank of Information". Sie basiert darauf auf folgender Logik: Wer offen einige Informationshappen an die Außenwelt verteilt, erhält von draußen Information oder Metadaten zurück. Und zwar mehr, als er gegeben hat – welche Bank nimmt keine Zinsen? Das alles führt, wenn es so kommt, nach Einschätzung von Gartner zu größeren Datenaustauschraten als bisher bekannt.

„Die allen diesen Beispielen zu Grunde liegende Botschaft lautet, dass Daten auf besondere Weise ein Gut sind", konstatiert Buytendijk. „Sie haben einen Wert." Gartner bezeichne die sich herausbildende Disziplin der Informations-Bewertung als „Infonomics" – und diese sei keine Zukunftsmusik. „Schon heute geschieht derlei in diversen Branchen, im Handel und im öffentlichen Sektor, in großen und kleinen Firmen", befindet der Analyst.

Das klingt exakt nach den Beispielen, die CIO.com im Bericht über die Wetterdaten zusammengetragen hat. Aber welchen Einfluss hat das alles auf die CIO-Abteilungen? Möglicherweise einen fundamentalen, wenn Unternehmen nicht nur wie oft im Falle der Wetterdaten auf extern erstellte Big Data-Analysen zurückgreifen. Dann also, wenn aus den vielschichtigen verfügbaren Terabytes selbst sinnvolle Informationen destilliert werden sollen.

Wetterberichterstatter wie The Weather Channel oder dessen Rivale AccuWeather sind dann potenzielle Vorbilder für die eigene Zukunft. Die hauseigenen Analysen erforderten auch eine spezielle Art von IT-Abteilung, sagt Steve Smith, Chief Digital Officer von Accu Weather. „Forschung und Entwicklung macht einen großen Teil unserer IT aus", so Smith. Personell rüstet sich seine Abteilung deshalb mit diversen Data Scientists, die in die Expertenrollen für Kundenbranchen wie Eisenbahngesellschaften oder Retailer schlüpfen.

Projekte scheitern restriktiven Regeln

Big Data kann insofern den Weg in eine spannende Zukunft weisen. In der Gegenwart ist die Lage offensichtlich weniger rosig. Viele Big Data-Projekte scheitern. Darin Bartik, Product Management-Verantwortlicher bei Dell Software, sieht dafür primär drei Gründe. Erstens fehle es am Alignment von Business und IT. Bei Projekten herrsche deshalb eine rein technologische Perspektive vor, statt die zu lösenden Probleme in den Blick zu nehmen. Zweitens seien die benötigten Daten oft unzugänglich, was in weiten Teilen an verkrusteten Silo-Architekturen liege. Der Zugang zu Daten werde überdies in vielen Firmen sehr restriktiv gehandhabt. Deshalb funktioniere ein Big Data-Projekt kaum ohne Unterstützung von ganz oben.

Drittens herrsche ein Mangel an Know-how. Weil viele der mit Big Data verbundenen Technologien und Ansätze neu sind, sind die Projektteams schnell überfordert. „Die Leute wissen nicht, wie sie eigentlich mit den Daten arbeiten sollen und wie sie geschäftlich relevante Ergebnisse erzielen", so Bartik. Die benötigten Skills seien in den IT-Abteilungen momentan rar gesät. Man benötige beispielsweise Mitarbeiter, die sowohl Machine Learning als auch Natural Language Processing verstünden. Das Anheuern von Data Scientists alleine hilft nach Ansicht des Dell-Managers nur begrenzt weiter. Gefordert sei eigentlich eine Rolle, die die Gedankenwelt eines Data Scientists mit den Fertigkeiten eines Programmierers kombiniert. Beides in einem ist momentan aber so schwer zu finden wie die eierlegende Wollmilchsau.

Was also tun? Bartik schlägt als erstes vor, die eigenen Aktivitäten nicht als „Big Data-Projekt" zu bezeichnen. „Ein Projekt, um mehr über unsere Kunden zu erfahren und zu lernen, warum sie in bestimmten Stores einkaufen", sei vermutlich ein besserer Name, weil er den Sinn des Ganzen veranschaulicht. Den Beginn des Projekts sollte deshalb das Erstellen mit den fürs Business wichtigen Fragen markieren, auf die Antworten gesucht werden. Vorab sollte auch die Unterstützung auf Vorstandsebene eingeholt werden. Um das Skill-Mangel-Problem zu lösen, kann es laut Bartik unter Umständen genügen, die richtigen Fragen an die vorhandenen Systeme zu adressieren. „Man kommt schon einen Schritt vorwärts, wenn man den richtigen Leuten im Unternehmen die benötigten Zugänge gewährt."

Lektion in analytischer Kreativität

Glaubt man Tom Davenport, Analyst bei Deloitte und Professor an der Havard Business School, können Wetterdaten als gute Lernhilfe dienen. In Verbindung mit fortgeschrittenen Analytics-Technologien könnten sie eine Lektion in analytischer Kreativität und Exaktheit geben. IT-Abteilungen seien in der Regel gut darin, Daten aus internen Systemen zu fischen und mit externen Daten anzureichern. Aber oft seien sie weniger gut darin, den Kontext dieses Unterfangens zu verstehen.

Im Umgang mit Wetterdaten komme es aber genau darauf an. Schließlich wollen CIOs, die mit derlei Datenmaterial arbeiten, letzten Endes ihrem Unternehmen den Weg zu neuen Produkten und Services erleichtern oder den Betrieb verschlanken. Selbst wenn man das Wetter nicht garantiert vorhersagen könne, ließen sich doch fürs Business wichtige Eindrücke gewinnen. „Man kann das Wetter nicht kontrollieren", so Davenport. „Aber man kann für den Fall der Fälle vorbauen."

Am kommenden Mittwoch, 24. Juni, veranstaltet der Branchenverband Bitkom den Big Data Summit 2013. Weitere Informationen dazu finden sich hier.