Tipps von McKinsey

Wie ein Big-Data-Plan aussehen muss

10.05.2013 von Christiane Pütter
Wer die steigende Datenflut bewältigen will, sollte sich auf die drei Elemente Daten, Analyse-Modelle und Tools konzentrieren. Wie man das macht, erklärt der Berater McKinsey in einem Papier.
Big Data-Projekte müssen sorgfältig geplant werden. Das ist nicht nur Aufgabe des CIO.
Foto: Pressmaster - shutterstock.com

Über das Stichwort "Big Data" wird innerhalb der Unternehmen viel diskutiert. Das heißt allerdings nicht, dass jedes Unternehmen einen Plan für den Umgang mit der Datenflut hätte, erklären die Berater von McKinsey in dem Papier "Big Data: What’s your plan?". Sie raten zu einem Vorgehen, das sich auf die Kernbereiche Daten, Analyse-Modelle und Tools konzentriert.

Im Einzelnen heißt das:

1. Die Daten: In vielen Unternehmen liegen die Daten noch immer in Silos, die horizontal über verschiedene Abteilungen und vertikal über verschiedene Funktionen verteilt sind. Entscheider werden Geld in die Hand nehmen müssen, um die Daten-Architektur grundlegend neu zu organisieren. Das beinhaltet Governance und Standards, die für Systematik und Genauigkeit sorgen sollen. Alternative für Unternehmen, die das nicht selbst erledigen können oder wollen: Outsourcen an Daten-Spezialisten.

2. Die Analyse-Modelle: Das Integrieren der Daten allein generiert noch keinen Mehrwert. Den bringt erst der Einsatz intelligenter Analysen. Entscheider müssen bestimmen, welchen Zweck Daten-Analysen erfüllen sollen und wer welche Modelle nutzen wird.

Darüber hinaus geht es um die Frage, wie die unterschiedlichen Analyse-Modelle kombiniert werden sollen. McKinsey sieht hier Potenzial für intelligente Daten-Nutzung, warnt aber zugleich vor zu hohen Ansprüchen. Zuviele Variablen machen die Dinge so komplex, dass sie schwer zu managen sind.

Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen:
Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen.
Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen.
Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc.
Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.

3. Die Tools: Dieser Punkt knüpft an den vorangegangenen an. Werden die Werkzeuge zur Daten-Analyse zu kompliziert, liefern sie nicht den erwarteten Mehrwert. Entscheider müssen bedenken, dass nicht nur Informatiker mit den Tools arbeiten, sondern auch Angestellte aus den Fachbereichen. Dieser Aspekt werde oft unterschätzt, so McKinsey.

Vorarbeit zu Big Data-Initiativen

Die Analysten wissen, dass die praktische Umsetzung häufig hakt. Viele Big Data-Pläne scheitern daran, dass das Unternehmen nicht über die nötigen Skills verfügt. Konkreten Projekten muss daher der Aufbau eines Talent-Pools vorangehen. Die Vorarbeit zu Big Data-Initiativen skizziert McKinsey wiederum in drei Punkten:

- Investitionen an der Geschäftsstrategie ausrichten: Spätestens hier wird deutlich, dass Big Data kein reines CIO-Thema ist. Die Firmenspitze muss ihre Prioritäten setzen - und der oberste IT-Verantwortliche muss sie auf diese Aufgabe vorbereiten.

- Tempo, Kosten und Akzeptanz ausbalancieren: Wenn die Prioritäten stehen, kann es noch nicht losgehen. McKinsey warnt davor, bei der Wahl einer Lösung nur auf den Preis zu achten. Zwar seien gute Software-Packages auf dem Markt, die sich schnell und preiswert installieren lassen. Da liege es nahe, sich für eines dieser Angebote zu entscheiden, statt selbst zu entwickeln.

Entscheider müssten jedoch bedenken, dass Eigenentwicklungen sehr viel genauer auf die Bedürfnisse des jeweiligen Unternehmens zugeschnitten sind. Sie basieren auf realen Business Cases. Hier gilt es, Vor- und Nachteile abzuwägen.

Oracle Audit Vault
Oracle hat neben den in der Datenbank integrierten Sicherheitsfunktionen mit „Audit Vault and Database Firewall“ eine Security-Suite im Programm, die zunehmend als produkt- und herstellerübergreifende Lösung positioniert wird. Die im vergangenen Dezember als Software-Appliance vorgestellte Kombination sammelt Audit- und Log-Daten von verschiedenen Datenbanken. Neben den Oracle-Produkten werden auch IBM DB2, Microsofts SQL Server, SAPs Sybase ASE und MySQL unterstützt.
IBM InfoSphere Guardium
Mit „InfoSphere Guardium“ verspricht der IBM seinen Kunden Echtzeit-Monitoring sowie ein automatisiertes Compliance-Reporting für Hadoop-basierte Systeme wie Cloudera und das IBM-eigene "InfoSphere BigInsights".
Hewlett-Packard ArcSight
Als zentrale Komponente liefert der "Arc- Sight Enterprise Security Manager" (ESM) ein komplettes Set an Überwachungsfunktionen. Mit dem "Application Security Monitor" sollen sich auch Anwendungen in die Sicherheitsarchitektur einbinden lassen.
McAfee NitroSecurity
Security-Spezialist McAfee hat sein Portfolio mit dem Kauf von NitroSecurity Ende 2011 in Richtung SIEM ausgebaut. In der "Enterprise- Security-Manager-Appliance"-Linie werden die SIEM-Funktionen mit dem klassischen Security-Portfolio verknüpft. Dazu gehören beispielsweise ein Network Monitor, Deep-Packet-Inspection-Funktionen für die Einbindung von Daten und Anwendungen sowie ein Database Activity Monitoring (DAM).
RSA (EMC) enVision/NetWitness
Das SIEM-Portfolio EMCs besteht im Wesentlichen aus zwei Komponenten. "enVision" bietet Werkzeuge für das Information- und Event-Management sowie die Verwaltung von Log- Daten. Mit Hilfe von "NetWitness" erhalten Anwender Funktionen an die Hand, mit deren Hilfe sie ihren Security-Status analysieren können.
Symantec SSIM
Wie McAfee kann auch Symantec mit der Kombination seiner klassischen Sicherheits-Tools punkten. Mit integriert sind Werkzeuge wie Security Endpoint Protection (SEP), Governance, Risk and Compliance Management (GRCM) sowie Data-Leakage-Protection-(DLP-)Techniken. Außerdem erhält das System laufend Threat- und Vulnerability-Daten.
Splunk
Der Anbieter baut seine gleichnamige Lösung mehr und mehr vom Log-Management zu einer kompletten SIEM-Suite aus. Die Lösung soll sich flexibel an verschiedene Analyse-Anforderungen anpassen lassen, erfordert allerdings einigen Customizing-Aufwand. Anwender können vordefinierte Suchen, Reports und Dashboards für ein Echtzeit- Monitoring einrichten.
Packetloop
Packetloop hat eine Hadoop- und NoSQL-basierte Plattform gebaut, auf der sich laufend große Mengen an Log-Daten zügig verarbeiten lassen sollen, um schädliche Aktivitäten zu erkennen.
Zettaset
Zettaset bietet mit seinem "Security Data Warehouse" (SDW) eine Ergänzung für SIEM-Systeme an. Das Warehouse basiert auf Hadoop und soll ebenfalls große Mengen von Security-Daten in kurzer Zeit verarbeiten können, um Unregelmäßigkeiten aufzuspüren.

McKinsey geht davon aus, dass die Projekt-Beteiligten Eigenentwicklungen besser annehmen. Auch das sollte eine Rolle spielen. Fazit: Big Data ist nicht nur eine technische Herausforderung, sondern berührt viele Management-Aspekte.

50 Prozent des Geldes für Training und Schulungen ausgeben

- Die Belegschaft mitnehmen: Auch bei Big Data hängt der Nutzen der Werkzeuge letztlich von den Anwendern ab. Wie McKinsey beobachtet, kalkulieren viele Entscheider 95 Prozent ihrer Investition für die Bereiche Data und Modeling ein. Die Analysten halten es für sinnvoll, Data und Modeling einerseits sowie Training und Schulungen andererseits mit jeweils 50 Prozent zu veranschlagen.

Grundsätzlich hält McKinsey das Thema Big Data für zu wichtig, als dass Unternehmen es lange liegen lassen können. Entscheider sollten sich jetzt an die strategischen Planungen machen.