Vom Hype zur Umsetzung

Checkliste für die Big-Data-Strategie

05. September 2012
Von Andreas Dietze und Curt Cramer
Analysen großer Datenmengen etwa auf Basis von Hadoop erfordern neue Herangehensweisen. Was zu tun ist, erklären Andreas Dietze und Curt Cramer von Roland Berger in ihrer Kolumne.
Andreas Dietze ist Partner im Competence Center InfoCom bei Roland Berger Strategy Consultants.
Andreas Dietze ist Partner im Competence Center InfoCom bei Roland Berger Strategy Consultants.
Foto: Roland Berger

Großrechner, Desktop-Clients, SmartphonesSmartphones, Selbstbedienungsautomaten und eingebettete Systeme in Kraftfahrzeugen oder Flugzeugen - all diese Systeme erzeugen enorme Datenmengen, die wertvolle Informationen über Geschäftsprozesse, Produkte und Kunden enthalten. Obwohl günstige Infrastrukturen die Verarbeitung dieser Datenmengen ermöglichen, nutzen Unternehmen diese Informationen noch nicht systematisch, um sich Wettbewerbsvorteile zu verschaffen. Alles zu Smartphones auf CIO.de

Einer der Hauptgründe: Die Datenverarbeitungsprinzipien haben sich nur wenig an die geänderten Rahmenbedingungen angepasst. Die heute in Unternehmen eingesetzten relationalen Datenbanken beruhen auf einem Modell, das bei Schreib- und Lesezugriffen absolut zuverlässig ist. Doch dieses Modell ist für große Datenmengen im Tera- oder sogar Petabyte-Bereich nicht ausgelegt. Derartige Systeme lassen sich nur durch die Erweiterung der Komponenten des Datenbankservers skalieren ("scale up"), wodurch sie in ihrer Größe begrenzt sind.

Big Data geht neue Wege

Big Data bricht mit dieser Tradition und etabliert ein neues Datenverarbeitungsprinzip, das voraussetzt, dass die vorhandene Datenbasis nur gelesen und nicht verändert wird. Die Verarbeitung wird dabei so aufgeteilt, dass die Infrastruktur flexibel an die Problemgröße angepasst werden kann ("scale out"). GoogleGoogle hat diesen Ansatz als Kern seiner Produktionsinfrastruktur unter dem Namen "MapReduce" entwickelt. Daraus entstand das populäre Open-Source-Projekt "Hadoop" - heute der Standard für die Big-Data-Technologie. Alles zu Google auf CIO.de

Die Vorteile dieser Technologie liegen auf der Hand: die Möglichkeit, große Datenvolumina (Petabyte-Bereich) zu verarbeiten, und die Flexibilität bei der Auswahl der Basis-Infrastruktur. Von der einfachen, kostengünstigen Commodity-Hardware bis hin zu einer Cloud-basierten Infrastruktur sind hier keine Grenzen gesetzt. So bieten zum Beispiel "AmazonAmazon Web Services" und in Kürze auch "MicrosoftMicrosoft Azure" vorkonfigurierte Hadoop-Umgebungen an. Alles zu Amazon auf CIO.de Alles zu Microsoft auf CIO.de

Zur Startseite