Ratschläge von Roland Berger

Experimentieren Sie mit Big Data

10.07.2013 von Curt Cramer und Alexander Türk
Der Schlüssel zum Erfolg eines Big-Data-Projektes liegt in der Strategie, nicht an den Infrastrukturen. Mit richtigen Data-Mining-Fertigkeiten für die experimentelle Datennutzung lässt sich auch die wahre Herausforderung meistern: Die Anwendung statistischer Modellierungsverfahren, erläutern Curt Cramer und Alexander Türk von Roland Berger in ihrer Kolumne.
Curt Cramer ist IT-Experte bei Roland Berger Strategy Consultants.
Foto: Roland Berger

Im Umgang mit Big-Data-Analysen gibt es für Unternehmen kein Patentrezept. Dennoch haben sie derzeit die einmalige Chance, sich mit der richtigen und passgerechten Nutzung großer Datenvolumen einen enormen Wettbewerbsvorteil gegenüber der Konkurrenz zu verschaffen.

In der früheren CIO-Kolumne "Vom Hype zur Umsetzung - Checkliste für die Big-Data-Strategie" haben wir erläutert, wie wichtig es ist, dass Unternehmen sowohl die genaue Strategie von Big-Data-Projekten als auch deren Anwendungen festlegen müssen, bevor sie sich mit der konkreten Umsetzung dieser Projekte befassen.

Immer müssen sie sich zwei Fragen stellen:

Ehrliche und gut begründete Antworten auf diese Fragen sorgen bei der Planung einer Big-Data-Initiative für die nötige Nüchternheit, denn im Moment herrscht regelrechte Goldgräberstimmung bei den IT-Dienstleistern.

Stets auf der Suche nach neuen und profitablen Erlösquellen, wollen Provider ihren potentiellen Kunden weismachen, dass Big-Data-Management nur mit sehr großen Datenmengen und entsprechend mächtigen Werkzeugen zum Erfolg führt.

Volume, Velocity und Variety sind nicht die Kernprobleme

Alexander Türk ist IT-Experte bei Roland Berger Strategy Consultants.
Foto: Roland Berger

Wir bezweifeln, dass "Volume" (große Datenmengen), "Velocity" (dauernd einströmende Daten) und "Variety" (Mischung aus strukturierten und unstrukturierten [Text-]Daten) die drei aktuellen Kernprobleme bei der Umsetzung von Big-Data-Projekten sind, wie häufig behauptet wird.

Beispiel Volumen: Laut einer aktuellen Umfrage des Data-Mining-Portals KDnuggets ist die von Unternehmen durchschnittlich bearbeitete Datenmenge eher bei zehn Gigabyte als im Terabyte-Bereich anzusiedeln - gemessen an heutigen Standards eine wenig problematische Größenordnung. Den Engpass sehen wir vielmehr bei den mathematischen Modellierungsverfahren, auf denen jede Datenanalyse fußt. Diese Verfahren verlieren an Qualität, je mehr Variablen im Spiel sind.

Rechnungen mit Kundendatensätzen etwa, die aus mehreren hundert Variablen bestehen, zum Beispiel zu Wohnort, Einkommen, Alter, bisherigem Kaufverhalten, der Haushaltsgröße und vielen anderen Parametern, verlieren mitunter stark an Anwendbarkeit. Bereits seit 1961 ist dieses Prinzip unter dem Begriff "Curse of Dimensionality" bekannt (Richard Bellman).

Demnach werden Fehlermetriken, die einer möglichst genauen Anpassung des Modells an die Eingabedaten dienen, mit zunehmender Datenmenge weniger aussagekräftig. Gleichzeitig aber benötigen sie für eine valide Modellierung eine deutlich größere Datenmenge, als Unternehmen auf Basis ihrer operativen Daten liefern können.

Deswegen stellt dieser Bellmansche "Fluch" zumindest in der heutigen Unternehmens-IT die größte Herausforderung bei der Umsetzung einer Big-Data-Strategie dar.

Zur Einführung von Big-Data empfiehlt sich ein Vorgehen in vier Schritten – Enabling, Strategiephase, Experimentierphase, Roll-Out.
Foto: Roland Berger

Technische Lösungen solcher Berechnungen können - auch wenn sie derzeit die Big-Data-Diskussion beherrschen - somit nicht der Schlüssel zum Erfolg sein. Ebenso wenig helfen Standardlösungen von IT-Providern, da bereits geringe Unterschiede in Unternehmensbedürfnissen und Ausgangssituationen die Güte von Modellen negativ beeinflussen. Viel wichtiger ist es, dass Data-Mining-Verfahren sinnvoll im Unternehmen eingesetzt und weiterentwickelt werden.

Die Bedingungen für erfolgreiche Data-Mining-Verfahren

Data-Mining - im neuen Jargon der Big-Data-Welle auch oft mit "Predictive Analytics" betitelt - ist seit vielen Jahren erforscht. Die entsprechende Arbeitsgruppe SIGKDD (Association for Computing Machinery) der ACM (Association for Computing Machinery) gibt es inoffiziell bereits seit 1995, formal seit 1998.

Unternehmen, die Data-Mining-Verfahren erfolgreich einsetzen wollen, stehen allerdings vor zwei großen Hürden:

Um Data-Mining-Projekte erfolgreich umsetzen zu können, müssen sich die beteiligten Unternehmensbereiche regelmäßig austauschen und Vertrauen in die gemeinsamen Daten und die daraus gewonnenen Erkenntnisse aufbauen. Außerdem müssen Unternehmen ihre Analysen und Ergebnisse den Stakeholdern kommunizieren. All das setzt neue Denkweisen innerhalb eines Unternehmens voraus.

Big-Data-Lösungen bestehen nicht nur aus skalierbaren Infrastrukturen.
Foto: Roland Berger

Wir empfehlen daher, auf experimenteller Basis mit Big-Data zu arbeiten. Innovative Unternehmen nutzen die Möglichkeiten von Big-Data-Management und führen Versuche mit all ihren Vorteilen (möglicher unkonventioneller Erkenntnisgewinn) und Nachteilen (Verlassen eingetretener Pfade, ungewisser Ausgang, finanzieller Verlust) durch.

Statistische Modelle helfen zudem, Chancen im Vorfeld der Experimente einzuschätzen und später die Ergebnisse der Experimente zur Abschätzung ihres potenziellen Gesamteffekts zu nutzen. Diese Experimente können dabei eine Vielzahl von Facetten annehmen: Etwa die geografische Segmentierung von Testmärkten, die Entwicklung kundenspezifischer Testprodukte und die Durchführung gezielter Testkampagnen. Bestätigt sich dann das Umsatzpotenzial im Experiment, kann die Firma die erprobte Änderung in die Regelprozesse übernehmen. Dieser Zyklus sollte in innovativen Unternehmen die Regel sein.

Praxis: Experimenteller Einsatz beim Finanzdienstleister

Wie das in der Praxis erfolgreich funktioniert, zeigt zum Beispiel ein großer US-Finanzdienstleister: Das Unternehmen hat die Nutzung von Kundendaten perfektioniert, um Kunden gezielt individualisierte Kreditkartenangebote machen zu können. Mehr als 6000 unterschiedliche Kreditkartentypen hat die Firma im Produktportfolio, die sich an den individuellen Kundenprofilen orientieren.

Doch die Verwendung von Big-Data hört nicht bei der Personalisierung des Produktes auf: Marketingkampagnen werden in unterschiedlichen Regionen leicht variiert, um die effektivere Variante festzustellen. Call-Center-Systeme sagen bei einem Anruf mittels Kundenprofil vorher, welche Anfrage am wahrscheinlichsten ist und leiten den Anruf direkt zum passenden Kundenberater weiter.

Und die Customer-Relationship-Management-Systeme (CRM) zeigen dem Kundenberater an, welche Personalisierungsoptionen für den Kunden auf Nachfrage erlaubt sind. Zum Beispiel wenn der Kunde anruft, um seine Kreditkarte zu kündigen, und es sich lohnt, den Kunden weiterhin an das Unternehmen zu binden.

Praxis: Experimenteller Einsatz beim Casino-Betreiber

Ein anderes Praxisbeispiel für die experimentelle Verwendung von Daten liefert ein Casino-Betreiber in den USA. Das Unternehmen wertet über den Einsatz von Loyalty-Karten das Umsatzpotential jedes einzelnen Kunden aus.

Als Kundenbindungsmaßnahmen werden Benefit-Optionen getestet, die das Umsatzpotential weiter steigern. Je nach Bewertungsergebnis bekommen dann die Karteninhaber maßgeschneiderte Benefit-Optionen.

Diese Beispiele zeigen deutlich, dass Organisationen sich nicht nur kulturell verändern müssen, sondern auch ihre operativen Strukturen stärker flexibilisieren müssen. Denn nur so können sie die in den Experimenten gewonnenen Erkenntnisse in Regelprozesse überführen.

In einem zweiten Schritt sollten sich dann Unternehmen für eine technische Lösung entscheiden, um das identifizierte Potential operativ umzusetzen.

Fazit

Dass Big-Data gerade einen großen Erfolg erlebt, liegt vor allem daran, dass die Infrastrukturen, um große Datenmengen zu verarbeiten, kostengünstig und flexibel abrufbar sind. So kann jeder, der über einen Amazon-Account und eine Kreditkarte verfügt, mit wenigen Mausklicks eine große Rechnerfarm mieten.

Der richtige Schlüssel zum Erfolg eines Big-Data-Projektes liegt aber aus unserer Sicht eher in der Strategie. Mithilfe der richtigen Data-Mining-Fertigkeiten für die experimentelle Datennutzung lässt sich auch die wahre Herausforderung meistern: Die Anwendung statistischer Modellierungsverfahren.

Diese wurden in den vergangenen zehn Jahren verfeinert und sind nun einfacher zu nutzen. Die Verfahren erfordern jedoch nach wie vor ein tiefes mathematisches Verständnis sowie Erfahrung mit der Umsetzung. Und schließlich muss jedes Unternehmen, das erfolgreich Big-Data-Management betreiben möchte, kulturell und operativ flexibel aufgestellt sein, um seine Stakeholder vom experimentellen Ansatz und von den Analyseerkenntnissen überzeugen zu können.

Curt Cramer und Alexander Türk sind IT-Experten bei Roland Berger Strategy Consultants.