Kosten sparen und den Überblick behalten

Fünf Tipps für BI in der Wolke

22.06.2009 von Christa Manta
Mithilfe von Cloud Computing können CIOs ausufernde BI-Kosten in den Griff bekommen. Fünf Tipps für die Analyse in der Wolke.
Das Hype-Thema Cloud Computing ist auch im BI-Bereich angekommen.
Foto: MEV Verlag

Flexibel, wandelbar, beweglich: Um den Anforderungen und der Dynamik des Marktes zu entsprechen, müssen Unternehmen heutzutage flugs reagieren und sich blitzschnell anpassen. Das gilt für kleine Start-ups ebenso wie für globale Konzerne. Während für kleine Firmen die Kostenbarrieren gesunken sind und der Zugriff auf neue Technologien, auf Daten und Analysetools erschwinglich wurde, sitzen größere Unternehmen häufig in einem Sumpf aus Legacy-Systemen. Altlasten, die sie öfter behindern als unterstützen. Deren Erhaltung einen Haufen Geld kostet, welches wiederum für neue Entwicklungen und Technologien fehlt.

Laut Merv Adrian, Chef der Beratungsfirma IT Market Strategy, wird dieses Dilemma nirgendwo offenkundiger, als im Bereich Business Intelligence (Einen Überblick über den BI-Markt finden Sie hier). CIOs hätten ihre liebe Mühe und Not damit, IT-Kosten im Rahmen zu halten und trotzdem Zeit und Geld für Innovationen bereitzustellen. Gleichzeitig würden die Kosten für proprietäre Server und Speicher-Systeme sowie für ihre Instandhaltung und Verwaltung den CTOs und CFOs nur allzu deutlich ins Auge stechen. Wuchernde Datenmengen, zahlreiche Analyseanwendungen, viele Kopien ein und desselben Datensatzes für jede neue Analyse und nicht zu vergessen die Kosten für neue Analyseanwendungen: Will man den neuen Anforderungen gerecht werden, kann das laut Merv Adrian schnell in die Millionen gehen. Mithilfe von Cloud Computing könne man BI-Systeme kosteneffektiv skalieren und gleichzeitig den Herausforderungen begegnen. (Weitere Informationen finden Sie hier). Für computerworld.com hat er Wege aufgezeichnet, die große Unternehmen gegangen sind, um den Konflikt zu lösen. Fünf Tipps von Merv Adrian:

1. Bleiben Sie mit Commodity Hardware am Ball.

Die meisten aktuellen Analyseanwendungen laufen auf günstiger Commodity Hardware. Das stellt bisherige IT-Kostenmodelle und gängiges Wissen über die Aufwendungen für neue Systeme in Frage. "Wenn Sie proprietäre Hardware einsetzen, kämpfen sie eine verlorene Schlacht", sagt Mark Dunlop, Consultant bei Evergreen Technologies und erfahrener Data-Warehouse-Projektmanager bei Amazon und Fox Interactive. "Früher oder später wird jede Technologie hinterherhinken, egal von welchem Unternehmen sie entwickelt wird. Diese Erfahrung mussten wir immer und immer wieder machen", erklärt Dunlop.

2. Kaufen Sie Kapazität, wenn Sie diese brauchen und nicht als Closed Appliance.

Clint Johnson, Vizepräsident Business Intelligence bei Zions Bancorporation sagt, er würde locked-in Kaufmodelle vermeiden, da seine Abteilung oft riesige Datenmengen in Angriff nehmen muss. "Wir möchten unsere Hardware einfach und schrittweise aufstocken können." Die spezialisierten Appliances, die wir uns angesehen haben, skalieren in sehr grobmaschigen Größeneinheiten. Die neuen Anschaffungen fallen dann nicht nur beträchtlich aus, sondern sind meist auch größer, als der aktuelle Bedarf. Bezahlt wird aber alles und nicht nur, was tatsächlich genutzt wird.

3. Ungenutzte Serverkapazitäten sind unschätzbare Ressourcen, die nicht brachliegen sollten.

Oft liegt die Auslastung bei verteilten Servern für BI-Applikationen oder Analyseanwendungen bei weniger als 20 Prozent. Neure Software kann diese beträchtlichen Ressourcen durch eine effiziente Versorgungsstrategie an die Leine nehmen. Brian Dolan, Chef der Forschungsanalytik bei Fox Audience Network sagt: "Mein Produktivsystem kann sich über 40 Konten mit der Cloud-basierten Greenplum Datenbank verbinden. Ich nutze sie, wenn ich sie brauche und gebe sie dann frei. Ich generiere Sandboxes, wenn nötig - ordne Datenbanken und Server (Cores) in benötigter Form einander zu - und löse damit die anstehenden Aufgaben effizienter." So würde ein gut designter Serverpool mit der richtigen Software, die flexibel verteilt, zur internen Cloud.

4. Bleiben Sie offen, bleiben Sie beweglich, aber behalten Sie Ihre Daten.

Neue BI-Strategien orientieren sich an der Methode des Agilen Programmierens. Komplexe Technologien, statistische Analysen und neue Analysemodelle kommen auf und verschwinden auch wieder. So mussten beispielsweise Ryan Hawk, T-Mobile-Chef im Bereich Datenverwaltung und sein Analyse-Team Modelle der Telefon-Nutzung erstellen, und dabei feststellen, dass Datensicherung ein Business Case ist: "Wir mussten entscheiden, was wir auf unseren MPP-Systemen bereithalten können", erzählt er. "Die größte Schwierigkeit besteht darin, dass die Daten alle 60 Tage bereinigt werden müssen, da bleibt nicht viel Raum für Hochrechnungen."

Doch seit das Data Warehouse in eine agile und virtualisierte Umgebung eingebunden sei, kann T-Mobile flexibler auf größere Datenmengen zurückgreifen und nach Belieben neu analysieren. Hawk und sein Team können nun - wie auch die Leute bei Fox - Analyseanwendungen in Sandboxes ausführen, nach Bedarf Daten laden, um neue Fragen zu eruieren, abbrechen und wieder von vorne anfangen. Die Daten sind das zweite Element in der Wolke. Sie liegen, wo sie gebraucht werden und werden nach Bedarf genutzt.

5. Führen Sie die Anwendungen in der Nähe der Daten aus.

Dolans Team bei Fox muss 100 Milliarden Programmierzeilen und Dutzende Terabyte Daten exportieren, transformieren, weitergeben und in Datenblöcke teilen (Extrahieren, Transformieren, Laden: ETL-Prozesse). Das Ganze konnte - im Würgegriff von Bandbreite und Systemladezeiten - schon mal drei bis vier Tage dauern und kostete weitere ein bis zwei Tage, um Tabellenverknüpfungen, Indexe und andere Strukturen wiederherzustellen. Doch mit neuen Analyseanwendungen, die in der Datenbank ausgeführt werden, beseitigt Fox den Engpass, der zwischen seinem Team und den Geschäftsanforderungen stand. So lässt sich die Arbeit von mehreren Tagen auf zwanzig Minuten verkürzen.