Business Intelligence

Wo Datenverarbeitung in Echtzeit sinnvoll ist

18.05.2012 von Martin Bayer
Agil und flexibel müssen Unternehmen sein, die im Wettbewerb bestehen wollen. Daher werden Realtime-Informationen wichtiger. Doch nicht immer ist klar, wo Echtzeitverarbeitung sinnvoll ist und was das für die BI-Systeme bedeutet.

Fast zehn Jahre ist es jetzt her, dass die Analysten von Gartner Ende 2002 das Realtime Enterprise ausriefen. "Alles muss schnell gehen. Wir leben in einer Jetzt-Wirtschaft", postulierte Research Director Mark Raskino damals auf dem Gartner-Symposium in Cannes. Zeit entwickele sich immer mehr zu einem Wettbewerbsfaktor.

Raskinos flammendes Realtime-Plädoyer war als Weckruf für die gesamte Wirtschaft gedacht - nicht nur für die IT-Branche. Nach dem Platzen der Dotcom-Blase im März 2000 lag die weltweite Wirtschaft am Boden. Bilanzskandale und Pleiten wie die von Enron und Worldcom hatten die Börsen bis in die Grundfesten erschüttert. Angesichts des angezählten Finanzsystems herrschte in vielen Firmen ein strenges Spardiktat. Mehr leisten für weniger Geld - das war die Maßgabe die fast jeder CIO von seinem Finanzchef zu hören bekam.

Realtime für mehr Effizienz

Mit ihrer Idee vom Realtime-Business wollten die Gartner-Analysten zwei Fliegen mit einer Klappe schlagen: Auf Echtzeit getrimmte Prozesse sollten die Abläufe in den Unternehmen optimieren und so die Reaktionsgeschwindigkeit erhöhen. Die dafür nötige IT-Unterstützung sollte darüber hinaus die in Folge der Krise deutlich eingebrochenen Geschäfte der IT-Anbieter wieder ankurbeln.

Auch wenn der Begriff des Realtime-Enterprise in der Zwischenzeit nicht mehr so in Mode ist, hat das Thema nichts von seiner Aktualität eingebüßt. In gewisser Weise lassen sich sogar Parallelen erkennen. Auch heute stehen die von der Finanz- und Schuldenkrise gebeutelten Unternehmen unter dem Druck, ihr Business möglichst effizient abzuwickeln. In den Rankings der Business-Prioritäten, die Gartner regelmäßig veröffentlicht, dominieren seit Jahren Anforderungen wie:

Damit korrespondieren die Herausforderungen an die IT, mit denen sich die CIOs konfrontiert sehen. Im Hinblick auf eine bessere und effizientere Unterstützung aller Geschäftsabläufe steht vor allem das Thema Analytics und Business Intelligence seit Jahren ganz weit vorne in den Hausaufgabenheften der IT-Abteilungen. Dabei müssen die Verantwortlichen viele unterschiedliche Faktoren im Auge behalten.

Zehn IT-Bereiche mit Handlungsbedarf
Zehn IT-Bereiche mit Handlungsbedarf
Client-Strategie, Virtualisierung, Cloud oder Business Intelligence - viele IT-Leiter sind in diesen Bereichen nicht auf der Höhe der Zeit. Experton-Analyst Luis Praxmarer hat 10 Technologiebereiche identifiziert, für die im Jahr 2012 unbedingt Handlungsbedarf besteht.
1. Traditionelle Clients
Für WINTEL Client-Installationen steht im Jahr 2012 eigentlich die Migration nach Windows 7 an. Für ein Hinausschieben und Verzögern dieser Migration spricht nicht viel. Die Auswahl der richtigen Lizenzierungs- und Wartungsstrategie ist sehr wichtig. Dieser Bereich ist zwar nicht von strategischer Bedeutung, hat aber starke Auswirkungen auf die Client- und Supportkosten. Windows 8 kommt in Einzelfällen bereits zum Einsatz; eine Bereinigung der Betriebssystemlandschaft ist sehr zu empfehlen.
2. Neue Client-Strategie
Parallel zur Migration und Bereinigung der Windows-Umgebung verzeichnen Smartphones und Tablets einen stark steigenden Nutzungsgrad. Deshalb stehen eine Evaluierung einer BYOD- (Bring Your Own Device) Strategie und Tests für eine ausgewählte Gruppe an. Wegen der schnellen Veränderungen im Markt, der vielen Betriebssysteme und der hohen Komplexität sollten nicht gar zu viele gerätespezifische Apps entwickelt werden.
3. Virtualisierung
Nachdem die meisten Unternehmen die Servervirtualisierung in Angriff genommen haben - auch wenn die Durchdringungsrate in vielen Fällen bei nicht einmal 30 Prozent liegt - stehen nun Client- und Storage-Virtualisierung an. Die Client-Virtualisierung soll die Kontrolle über und das Management von BYOD-Umgebungen ermöglichen und gleichzeitig auch in Zukunft die Sicherheit der Unternehmens-Apps gewährleisten. Mit der Applikationsvirtualisierung wurde bislang nur in wenigen Unternehmen begonnen.
4. Cloud Computing
Cloud Computing wird in allen IT-Bereichen vorangetrieben, von IaaS oder Storage as a Service im Unternehmensumfeld bis hin zu eher privaten Nutzungsszenarien und SaaS-Applikationen. Die IT-Abteilung muss Technologien für den gesamten Stack einer Untersuchung unterziehen, die bestehende Architektur sowie die Unternehmensanforderungen auf den Prüfstand stellen und eine entsprechend angepasste Strategie entwickeln. Anhand von Pilotprojekten können erste Erfahrungen gewonnen werden.
5. Enterprise 2.0
Web 2.0 hält in den Unternehmen Einzug und wird bereits von einigen genutzt; viele sind damit aber eher überfordert. Anstatt auf statischen Webseiten eine Fülle an Informationen anzubieten, hat sich das Spiel jetzt drastisch verändert. Die meisten Unternehmen haben Schwierigkeiten damit, die damit verbundenen Möglichkeiten zu verstehen und sie in ihre IT-Systeme mit einzubeziehen oder gar eine Integration ins Auge zu fassen.
6. BI/EPM/BPM, Big Data
Dieses Thema spielt aus einer anderen Perspektive auch bei den CIO-Prioritäten eine Rolle, muss aber auch aus technologischer Sicht analysiert werden. In den meisten Unternehmen finden sich isolierte BI-Lösungen, hinter denen keine klare Stammdatendefinition steht; damit ist es schwierig, den nächsten Schritt zu tun und diese Insellösungen in eine unternehmensweite Enterprise Performance Lösung zu integrieren. Im Bereich Big Data bzw. große Datenvolumen müssen eine ganze Reihe von technologischen Herausforderungen untersucht werden.
7. Identitätsmanagement
Das Thema Identitätsmanagement steht schon seit einer ganzen Weile auf den Prioritätenlisten ganz weit oben; jetzt gewinnt es auch im Zuge der Cloud-Implementierung eine fundamentale Bedeutung. Hier muss ein Framework entwickelt werden, um unter anderem Themen wie Single Sign-On, Provisioning, Rückverrechnung und Sicherheit zu adressieren. Identitätsmanagement ist ein Schwerpunktthema für das Computing der Zukunft, denn der Zugriff erfolgt von überall aus und über alle Arten von Endgeräten.
8. ERP, CRM, SCM Future
In den meisten IT-Organisationen existiert mittlerweile eine solide und stabile ERP-Umgebung. Sie funktioniert, aber agil ist sie nicht, und was noch schlimmer ist, sie kostet ein Vermögen. In manchen Unternehmen wird bis zu ein Prozent des Gesamtumsatzes in den ERP-Betrieb gesteckt. Das ist in Zukunft nicht mehr akzeptabel und muss im Laufe der nächsten Jahre signifikant verbessert werden. Die vorhandenen ERP-Lösungen sind zudem veraltet und müssen nach und nach modernisiert werden.
9. Software as a Service
Software as a Service ist Bestandteil des Cloud Computings, muss aber auch aus einer anderen Perspektive angegangen werden. Viele IT-Organisationen haben mit IaaS (Infrastructure as a Service) so ihr Probleme, doch die Nutzer profitieren von SaaS. Viele Lösungen, die oft nur für eine kleine Gruppe von Anwendern benötigt werden, können jetzt sehr schnell und kostengünstig genutzt werden und sorgen so für einen unmittelbaren Mehrwert und Nutzeneffekt. Hinzu kommt, dass die Generation der "Digital Natives" mit dieser Art des Computings voll und ganz vertraut ist.
10. Konsumerisierung
Mit der Einführung des iPods hat Apple das traditionelle Computer-Geschäft verlassen. Durch den Fokus auf die Verbraucher wurde Apple zur Computerfirma mit dem höchsten Unternehmenswert und hat mit dem iPhone und dem iPad den Weg zurück ins Unternehmen geschafft. ARM Chips, wie sie in Smartphones zum Einsatz kommen, verfügen über ein besseres Preis-Leistungs-Verhältnis im Serverumfeld und bieten Intel als Konkurrenz die Stirn. Google und Amazon sind weitere Beispiele für den zunehmenden Konsumerisierungstrend, der von der IT berücksichtigt werden muss.

Faktor 1: Zeit

Zumindest in Teilen haben die Firmen ihre Aufgaben bereits gelöst, lobt Arnold Picot, Lehrstuhlinhaber am Institut für Information, Organisation und Management an der Ludwig-Maximilians-Universität (LMU) München. "Was sich Unternehmen früher im Umfeld von Realtime nicht auszumalen wagten, ist heute schon weitgehend zur Normalität geworden." Gerade in B2C-Märkten sei es gang und gäbe, Informationen in Echtzeit zu erhalten und schnell darauf zu reagieren. Picot nennt als Beispiel das Einspielen kontextbezogener Werbung im Internet. Doch auch firmenintern sei ein Trend zu beobachten, Prozesse realtime auszurichten, beispielsweise in der Produktion durch die Verwendung von RFID-Tags oder den verstärkten Einsatz von Sensoren. Zudem nähere sich beispielsweise in der Logistik die Filialsteuerung einem Realtime-ähnlichen Modus an. Über moderne Scanner-Kassen im Handel würden die Lieferanten laufend darüber informiert, welche Waren verkauft werden, und könnten dementsprechend den Nachschub organisieren.

Manager müssen schnell reagieren

"Der zeitliche Abstand zwischen dem Entstehen einer Information und der Reaktion darauf sollte möglichst gering sein, sagt Arnold Picot, Professor an der LMU München.
Foto: LMU München

"Wir sehen viele Tendenzen, die stark in Richtung Realtime gehen", lautet die Bilanz von Picot. Das sei auch sinnvoll: "Grundsätzlich sollte der zeitliche Abstand zwischen dem Entstehen einer Information und der Reaktion darauf möglichst gering sein." Früher hätten die Verantwortlichen in den Unternehmen wichtige Zahlen erst mit großer Verzögerung zu Gesicht bekommen und damit erst spät erkennen können, in welchen Bereichen etwas schieflief. Liegen solche Zahlen zeitnah vor, kann das Management deutlich schneller reagieren und gegensteuern.

"Es ist aber nicht so, dass Unternehmen per se über alle Prozesse und Unternehmensbereiche hinweg realtime agieren müssen", schränkt Alexander Martin, Principal bei A.T. Kearney, ein. Ausgangspunkt müssten die Fragestellungen sein, die die Verantwortlichen gelöst haben möchten. Dafür gelte es zu überlegen, welche Daten notwendig seien - von jetzt, von gestern oder von vor einem Monat? "Es gibt Fälle, in denen Daten von gestern, wie man sie aus den allseits bekannten Batch-Prozessen kennt, völlig ausreichen", sagt Martin.

Realtime muss man erst lernen

Damit Realtime funktioniert, müssen verschiedene Rädchen innerhalb der Firmenabläufe passgenau ineinandergreifen, mahnt Picot. "Schnelligkeit in der technischen Informationserfassung und -verbreitung alleine bringt nichts, wenn man das nicht mit den entsprechenden Management-Prozessen verknüpft und in Einklang bringt." Das erfordere ein Umdenken. Viele Prozesse seien über die Jahre gewachsen und hätten sich eingeschliffen. Reaktionsfreudigkeit, Agilität und Flexibilität müssten Unternehmen deshalb auch erst lernen. "Realtime erhöht die Intensität" - Picot zufolge sind Mitarbeiter in aller Regel aus der Vergangenheit langsamere Reaktionen gewohnt. Sie müssten außerdem erst lernen, Wichtiges von Unwichtigem zu unterscheiden: "Nicht jede kleine Veränderung, die die Systeme anzeigen, ist wichtig."

Faktor 2: Daten und Information

Die Frage, wie Unternehmen an die wirklich relevanten Informationen kommen, bildet auch für Sebastian Hetzler, ehemals Berater am Malik Management Zentrum St. Gallen und heute Vorstand der Tonbeller AG, den Dreh- und Angelpunkt aller Realtime-Überlegungen: "Wir bekommen immer schneller immer mehr Daten." Doch damit wachse in erster Linie auch die Menge an irrelevanten Daten. Daher sei es für die Unternehmen umso wichtiger, aus den größer werdenden Datenströmen die relevanten Informationen herauszufiltern.

Der Stoff, aus dem die Infos sind

"Daten sind der Stoff, aus dem Information entstehen kann. Aber Daten an sich sind noch keine Information." Sebastian Hetzler, Vorstand Tonbeller.
Foto: Tonbeller

Dabei sei das herkömmliche Mainstream-BI allerdings meist wenig hilfreich, moniert Hetzler. Diese Lösungen seien vor allem darauf getrimmt, mehr Daten zur Verfügung zu stellen. In diesem Kontext sei es von Nachteil, dass Daten und Information zwei grundlegend unterschiedliche Dinge seien. "Daten sind der Stoff, aus dem Information entstehen kann", stellt der BI-Experte klar. "Aber Daten an sich sind noch keine Information."

Information ist für den Tonbeller-Vorstand das, was handlungsrelevant ist. Das scheint allerdings auf Anwenderseite teilweise noch nicht angekommen zu sein. Nach wie vor landeten auf den Tischen der Führungskräfte die altbekannten, zeitlich fix getakteten Reports, die genauso aussähen wie früher. "Wenn ich dort jedoch nichts Handlungsrelevantes finde, bringen mir meine ganzen Reports nichts", zieht Hetzler Bilanz.

Das Problem liege darin, dass mit dem heutigen Standard-Reporting die wirklich handlungsrelevanten Informationen eigentlich herausgeschnitten würden. "Vor lauter Durchschnittem und Verdichtungen sieht man das wirklich Wichtige nicht mehr", sagt Hetzler. Für ein effizientes Reporting müssten die BI-Systeme jedoch so ausgelegt sein, dass sie dem Management die wichtigen Veränderungen bewusst machen. Dafür sei wichtig, zunächst die maßgeblichen Kennzahlen zu definieren. Im nächsten Schritt müssten dann die Systeme so ausgerichtet werden, dass diese Kennzahlen derart dargestellt würden, dass für das Business handlungsrelevante Entwicklungen realtime zu erkennen seien.

Faktor 3: Automatisierung

"Faktenbasierte Entscheidungsfindung ist primär ein Governance-Thema, das die Unternehmen häufig vergessen." Andreas Hufenstuhl, Head of BI bei CSC.
Foto: CSC

In der organisatorischen Umsetzung von Realtime sieht Andreas Hufenstuhl, Head of BI bei CSC in der Central Region, indes noch Defizite: "Unternehmen sind meist intern dafür noch gar nicht aufgestellt." Technisch sei Realtime-Reporting zwar möglich. "Sitzt am Ende jedoch noch ein Mensch, der diesen Report erst lesen muss, dann funktioniert das Ganze schon nicht mehr." Realtime oder nicht - das hänge von den damit verbundenen Geschäftsprozessen ab. Nur wenn es der Prozess erlaube, ihn vollständig zu automatisieren, wie beispielsweise der Aktienverkauf oder -kauf bei Erreichen bestimmter Schwellwerte durch ein Broker-System, könne man von Realtime sprechen. Das bedeutet aus Sicht von Hufenstuhl allerdings auch, dass die Verantwortlichen Handlungsbefugnisse abgeben und in eine technische Komponente, nämlich das BI-System, verlagern. "Faktenbasierte Entscheidungsfindung ist primär ein Governance-Thema, das die Unternehmen häufig vergessen."

Auch aus Sicht von Matthias Kaiserswerth, Director und Vice President IBM Research, spielt der Aspekt der Automatisierung eine zunehmend wichtigere Rolle. Es werde in Zukunft darum gehen, viele Erkenntnisse möglichst automatisiert zu gewinnen und auf Basis der zur Verfügung stehenden Daten komplette Geschäftsprozesse zu automatisieren. Kaiserswerth nennt als Beispiel die intelligente Lagerverwaltung eines Einzelhändlers, die automatisch bei der Warenbestellung Faktoren wie das Wetter berücksichtigt.

Fingerspitzengefühl ist gefragt

In Sachen Automatisierung müssten die Verantwortlichen jedoch Fingerspitzengefühl beweisen, warnt Picot. Es gelte genau zu überlegen, welche Prozesse automatisiert ablaufen sollten und an welchen Stellen besser noch ein Mitarbeiter eingreifen können sollte. Außerdem führten Automatismen nur das aus, was vorher in die Systeme eingegeben werde, warnt der Professor. Da könne es immer wieder passieren, dass die Verantwortlichen Regeln revidieren und neu justieren müssen. "Unternehmen müssen sich auf der Metaebene viel mehr Gedanken machen."

Auch Tonbeller-Vorstand Hetzler mahnt die Unternehmen in Sachen Automatisierung zur Vorsicht. Sicher gebe es Bereiche, in denen der Rechner auch auf einer operativen Ebene entscheiden könne, beispielsweise beim Pricing von Flugtickets. Das seien keine Angebote, die jemand händisch autorisiere, dahinter steckten ausgefeilte Algorithmen. "In strategischen Entscheidungen des Managements lässt sich jedoch nichts automatisieren", stellt der Manager klar. Dennoch sei auch an dieser Stelle IT-Unterstützung wichtig. Die Systeme sollten Veränderungen im Idealfall realtime anzeigen. Außerdem ließen sich mit Hilfe von Simulationen verschiedene Handlungsoptionen evaluieren.

Faktor 4: Predictive Analytics

Die BI-Systeme könnten sich also grundsätzlich wandeln. "Wir werden in Zukunft nicht mehr von Business Intelligence sprechen", prognostiziert IBM-Mann Kaiserswerth. BI sei im Grunde nur eine gute Visualisierung von Daten. "Die Zukunft heißt Analytics und Optimization."

CSC-Manager Hufenstuhl geht davon aus, dass sich BI stark in Richtung Predictive Analytics, also Vorhersagen und Prognosen, bewegen wird. Viele Unternehmen hätten festgestellt, dass es gar nicht so wichtig sei, drei Tage nach Monatsende die exakte Kundenzahl zu wissen. Viel interessanter sei es dagegen, schon Mitte des Monats zu erfahren, ob es mehr oder weniger würden. "Es gilt, früh Entwicklungen zu erkennen, in welche Richtung sich Kennzahlen bewegen", sagt der CSC-Experte. "Dann kann man auch rechtzeitig darauf reagieren."

Auch für Hetzler bilden Realtime-Informationen den Schlüssel dafür, in einem komplexer werdenden Umfeld bestehen zu können: "In einer Welt, die sich immer schneller verändert, ist der Wert von Vergangenheitsinformation sehr gering." Nur in stabilen Phasen lasse sich gut mit Daten aus der Vergangenheit arbeiten.

Doch gerade im Big-Data-Zeitalter müsse es schnell gehen, fordert CSC-Experte Hufenstuhl. "Daten haben eine sehr kurze Halbwertszeit", sagt der BI-Experte. "Analystenbewertungen und Facebook-Einträge von vor zwei Wochen sind uninteressant." Information sei nur für einen begrenzten Zeitraum nutzbar. Für die Unternehmen gehe es deshalb in erster Linie darum, Echtzeitdaten zu verarbeiten.

Faktor 5: Big Data

Für Hufenstuhl spielt daher das Thema Realtime-BI eher eine Nebenrolle. Wichtiger sei für ihn in Bezug auf das rasante Wachstum strukturierter und unstrukturierter Daten das Thema Realtime Data. Gerade hinsichtlich der aktuellen Trends rund um Big Data dürften Anwender diesen Aspekt nicht unterschätzen. Unter dem Schlagwort Big Data lassen sich zwei Punkte zusammenfassen:

Aus Sicht von Kaiserswerth wird es für das kommende Big-Data-Zeitalter neue Systeme und Technik brauchen: "Um mit der Komplexität und den riesigen Datenmengen umgehen zu können, werden wir Computer bauen müssen, die in der Lage sind, selbständig zu lernen, wie sie Erkenntnisse aus diesen Daten gewinnen können." Dafür arbeitet IBM dem Wissenschaftler zufolge an einer komplett neuen Prozessorgeneration. Neuronale Chips sollen dem menschlichen Gehirn aus Neuronen und Synapsen ähneln und entsprechend funktionieren. Kaiserswerth nennt als Beispiel den assoziativen Speicher bei der Mustererkennung: "Ich sehe einen Bekannten und weiß sofort, wer das ist." Der Mensch suche nicht erst in einer Datenbank, "so funktioniert das menschliche Gehirn nicht". Das auch in der IT umzusetzen werde in Zukunft verstärkt der Trend sein.

Big Data braucht Business Case

Allerdings gibt es bereits heute etliche IT-Lösungen für Big Data, sagt Hufenstuhl, mit denen sich beispielsweise Internet-Kanäle anbinden oder strukturierte mit unstrukturierten Daten verknüpfen ließen. Darüber hinaus verweist der CSC-Manager auf großvolumige Storage-Systeme, leistungsfähige In-Memory-Lösungen und Cloud-Angebote, die hohe Rechenkapazitäten für Analysen anbieten. Viele Anbieter stimmten ihre Lösungen auf Big-Data-Anforderungen ab. Als Beispiele nennt er Oracle Exadata oder Netezza von IBM. Diese Lösungen, schränkt Hufenstuhl ein, sind jedoch nicht preisgünstig: "Es geht dabei um relativ hohe Investitionen", und das ist das Problem für die Anwender. Zwar gebe es durchaus Anwendungen und Konstellationen, bei denen sich die Investition in Big-Data-Lösungen rentieren könne, "es ist aber nicht einfach, die lohnenden Anwendungsfelder zu finden". Ein solches Feld könnten beispielsweise anonymisierte Bewegungsmuster von Mobilfunkgeräten sein, die sich für Verkehrsprognosen auswerten ließen. Dieser mögliche Anwendungsfall sei aber unter BI-Gesichtspunkten noch gar nicht analysiert worden.

Faktor 6: Das BI-System

Welchen Einfluss die neuen Analytics-Paradigmen auf die klassischen BI-Architekturen haben werden, ist noch nicht abzusehen. Anwender stellten Komponenten wie das Data Warehouse jedoch zunehmend in Frage. Eine Zeit lang habe man versucht, allwissende Data Warehouses (DWs) zu bauen, in denen alle Daten zusammenfließen sollten, so Volker Bay, Leiter des Bereichs Information Management bei Accenture. "Heute hat sich die Erkenntnis durchgesetzt, dass es so etwas nicht gibt."

Aus Sicht von Hufenstuhl passt das klassische DW auch nicht zum Realtime-Paradigma. "Jedes Mal, wenn das System Daten kopieren muss, geht Zeit verloren - und seien es nur Sekunden." Jede Form von Redundanz erzeuge Kosten und ein Zeitdefizit. "Die Realtime-Bewegung wird sich auf die Architektur der bestehenden DW-Lösungen auswirken und stellt höhere Anforderungen an die Ladeprozesse." Echtzeitverarbeitung bedeute, einfache Analytics wieder stärker in die operativen Systeme zu verlagern. Hufenstuhl verweist in diesem Zusammenhang auf In-Memory-Lösungen wie SAPs HANA, die Daten direkt aus den operativen Systemen verarbeiten. "Letztlich braucht man dann für viele Realtime-Berichte kein Data Warehouse mehr." (Computerwoche)