Forrester zu Business Intelligence

Der neue Hype um Big Data

21.07.2011 von Thomas Pelkmann
Eine neue BI soll riesige Datenmengen in Echtzeit analysieren. Damit sollen Zukunftsprognosen möglich werden. Tools sind allerdings noch Mangelware.
Traditionelles BI reicht nicht mehr aus.
Foto: AA+W - Fotolia.com

Business Intelligence (BI) ist als Verfahren zum systematischen Sammeln und Aufbereiten von Geschäftsdaten weitverbreitet und als Methode anerkannt. Dennoch sind die Unternehmen an einem Punkt angelangt, wo traditionelles BI nicht mehr ausreicht. Das jedenfalls meint der Forrester-Analyst Brian Hopkins in seinem Report Big Opportunities In Big Data.

Verantwortlich für diese Änderungen sind vor allen die explosionsartig wachsenden Datenberge in den Unternehmen. So ist es einerseits möglich, transaktionale Daten aus den Geschäftsvorfällen zu ziehen, andererseits sorgen die immens großen Datenmengen aus den sozialen Netzwerken im Internet für veränderte Ausgangsbedingungen.

Es gebe die Meinung, schreibt Hopkins, traditionelles BI sei gescheitert. Er teile diese Haltung zwar nicht. Aber: "Die Definition, was BI ist, hat sich gewandelt." In der Vergangenheit habe man mit BI eng formulierte Fragen anhand gut strukturierter Daten zu beantworten versucht. "Traditionelle BI war wie Fahren und andauernd in den Rückspiegel gucken, um zu schauen, woher man kommt und was hinter einem liegt", beschreibt Hopkins die BI alter Tage. "Mittlerweile geht die Blickrichtung durch die Windschutzscheibe nach vorne, in die Zukunft."

Anstelle auf das zu reagieren, was geschehen ist, seien moderne BI-Systeme in der Lage, die Zukunft vorwegzunehmen und das Business mit Verhaltenstipps für erwartende Ereignisse zu unterstützen. "Die ganze Idee prophetischer Analysen existiert schon länger und ist keine Erfindung von heute", so Hopkins. Aber neue BI-Anwendungen würden dem Business mehr Möglichkeiten für solche Analysen geben als bisher.

Und was noch besser ist: BI-Anwender müssen sich für ihre Analysen nicht mehr spezielle, eng gefasste Fragen an die Daten ausdenken. Heutzutage reiche es, so Hopkins, eine grobe Idee zu haben und zu versuchen, daraus seine Schlüsse abzuleiten. Bei der neuen BI gewinnen die Fachbereiche ihre Informationen aus rohen, unstrukturierten und ungefilterten Daten - und das weitgehend sogar in Echtzeit.

Zu verabeiten: Daten in Terabyte-Größe

Diese Datensammlungen und -auswertungen sind dabei nicht trivial, meint Hopkins. In sozialen Netzwerken fielen im Handumdrehen Daten in Terabyte-Größe an. Von denen sei überdies nur ein kleiner Bruchteil überhaupt nützlich, weil er das eigene Unternehmen oder die eigenen Produkte betrifft. Allein beim Kurznachrichtendienst Twitter entstehen laut Hopkins pro Monat 24 Milliarden Einträge. Um daraus Kundenwünsche und -bedürfnisse ermitteln zu können, bedarf es leistungsfähiger BI-Tools.

Ähnlich sieht das beim Verfolgen des eigenen Geschäftsgebarens aus: Das Tracken von Transaktionen jedes Produktes in Echtzeit ist ebenfalls sehr aufwändig. Schließlich gibt es auch bei der Wartung von Anlagen und Maschinen Bedarf für den Umgang mit Big Data: Ein moderner Flugzeugmotor etwa produziert rund 20 Terabyte Daten pro Stunde. Wenn Ingenieure diese Daten in Echtzeit auswerten können, ist das für die Sicherheit von Flugzeugen sicher eine ziemlich gute Sache.

Aber so toll moderne BI auch ist: In einen Abgesang auf traditionelles BI möchte Brian Hopkins dennoch nicht einstimmen. Noch immer gebe es im normalen Geschäftsleben genügend Anwendungsfälle für strukturierte Abfragen aus strukturierten Daten. Zudem befindet er, dass die neuen Tools für die Echtzeitanalysen von Big Data noch nicht den gewünschten Reifegrad hätten, der für den Praxiseinsatz nötig sei.

So seien zwar virtuelle Infrastrukturen in verteilten Umgebungen weitgehend verfügbar, die man für die Arbeit mit wechselnden Datenmengen brauche. Dafür fehle es bisher an Tools für intelligentes Workload-Management, also für den Umgang mit wechselnden Anforderungen. Allerdings bessere sich sich die Situation durch Angebote wie Infrastructure-as-a-Service und Cloud-Computing.

Auch die Management Tools für große Datenmengen seien zwar bereits erprobt, aber noch nicht kommerziell einsetzbar. So gebe es etwa Apache Hadoop, das unter anderem mit Googles BigTable NoSQL Datenbank arbeitet. Das funktioniere zwar, aber Konfiguration, Einrichtung und Management dieser Big Data-Anwendung seien noch sehr technisch geprägt und damit sehr arbeitsintensiv.

Abfrage- und Analysetools noch ohne Platzreife

Den größten Nachholbedarf vor der Platzreife sieht Forrester-Analyst Hopkins bei den Tools für Abfragen, Analysen und Transaktionsverarbeitung in verteilten Datenbanken. Wenn die einmal funktionierten, dann seien sie sowohl für neue als auch für traditionelle Formen von BI geeignet. Aber bis das soweit sei, werde es noch dauern, meint Hopkins, der explizit rät, von 1.0-Pre-Release-Versionen derzeit noch die Finger zu lassen. Allerdings seien funktionsfähige Produkte in den kommenden Monaten (also schon bald) zu erwarten.

In der Zwischenzeit, rät der Forrester-Analyst, sollten sich die Unternehmen darauf vorbereiten, ihre großen Datenmengen zu kapitalisieren. IT und Business sollten gemeinsam die neuen Gelegenheiten verstehen und die Daten identifizieren, die sich später für Echtzeitanalysen eigneten. Das sei der Weg, ein Unternehmen angemessen auf Big Data vorzubereiten.