Schwerpunkt Data Warehousing: Technik kanalisiert Informationsfluss

Die Datenklempner

02.06.2003 von Horst Ellermann
IT-Mitarbeiter, die Handwerker im Data Warehouse, werden wenig beachtet, obwohl ohne sie nichts läuft. Jetzt können sie sich profilieren: Großunternehmen konsolidieren ihre zunehmend standardisierte Technik. Die Uni St. Gallen plant erste Benchmarks.

"Der föderative Ansatz ist der einzige, der sich in einem Großunternehmen durchsetzen lässt", resümiert Stephan Paschedag, Vizedirektor für Architektur und Design, nach zehn Jahren Data Warehousing im Schweizer Bankkonzern UBS. Seine Zuhörer im Data-WarehouseForum der Uni St. Gallen nicken; sie kennen das Problem: Zentral ließen sich Data Warehouses viel einfacher regeln, wären da nicht die vielen Controller, Manager und Marketingexperten ferner Länder, die sich nicht vorschreiben lassen, wie sie welche Information aufzubereiten haben. Die IT-Mitarbeiter werden in diesen Fällen auf die Rolle des Klempners reduziert: Sie sorgen dafür, dass die Daten aus den unterschiedlichsten Systemen zur Aufbereitungsanlage abfließen. Wahrgenommen wird ihre Arbeit erst, wenn die Spülung verstopft ist.

Man könnte hadern mit diesem Schicksal. Bernd Ulrich Kaiser, Leiter des Knowledge Management bei Bayer, klagt denn auch: "Das Data Warehouse verkommt zur Grabbelkiste von Sachbearbeitern und Controllern." Die wertvollsten Informationen hätten sich längst andere angeeignet, die damit im Topmanagement reüssierten. Kaisers Beschreibung ist wenig schmeichelhaft: "Die Assistenten der Geschäftsleitung sind die Grabräuber des Data Warehouse. Die laufen mit Excel- und Powerpoint-Folien zum Vorstand und sagen: 'Schau, was ich Schönes für dich gefunden habe!"

Den Handwerkern im Data-Warehouse-Prozess raubt dieser Informationsfluss die Aufstiegschancen. "Die Arbeit an der Infrastruktur und der Datenintegration ist kein Karriereturbo", sagt Carsten Bange, Geschäftsführer des Business Application Research Center (Barc). Wenn er in diesen Tagen mit der zweiten Auflage seiner Studie "Data Warehousing und Datenintegration - 15 Werkzeuge im Vergleich" auf Roadshow geht (Termine siehe S. 22), dann rät er seinen Zuhörern zwei Dinge, damit diese sich nicht wie "Reporting- Sklaven" fühlen müssen. Erstens: die Informationskette nach oben zu verlängern und Topmanagern Analyse-Tools anzubieten, die diese selbstständig nutzen können; Bange sieht darin eine gute Möglichkeit für Datenklempner, ihr Business-Verständnis unter Beweis zu stellen und den Wert ihrer Arbeit transparent zu machen. Zweitens: die Arbeit durch Konsolidierung der Data Warehouses und die Auswahl der richtigen Werkzeuge möglichst einfach zu gestalten.

Eine wichtige Rolle spielt in der Untersuchung wie bei der Optimierung des Data Warehousing insgesamt der Umgang mit so genannten Metadaten. Sie informieren in technischer Sicht die Entwickler, von welchen Quellsystemen welche Daten wann bezogen und wie transformiert werden. Fachliche Metadaten dagegen helfen, Begriffe zu standardisieren. Üblicherweise liegt dieses Wissen bei den einzelnen Fachabteilungen, die auch eigene Analyse-Tools einsetzen, um die relevanten Daten zusammenzutragen. Zeigt sich eine andere Fachabteilung an ähnlichen Informationen interessiert, so fängt sie im schlimmsten Fall mit wieder anderen Tools an, eigene Lösungswege zu definieren. "Metadaten muss man aber nicht jedes Mal neu erfinden", so Professor Winter. "Die haben ein hohes Wiederverwertungspotenzial."

Das wissen natürlich auch die Anbieter von Data-Warehousing-Lösungen. Nur: "Solange es keinerlei Standards für Metadaten gab, hat jeder Anbieter seine eigenen Strukturen definiert", sagt Markus Menke, Leiter des technischen Produktmanagements bei SAS. Seit etwa 2001 hat sich jedoch das CommonWarehouse-Metamodell (CWM) als Standard etabliert, das neben SAS auch andere namhafte Anbieter wie Oracle angeschoben haben. Beim Extrahieren, Laden und Transformieren reiche vielen Anbietern von ETL-Tools der Standard zwar nicht aus, gibt Carsten Bange von Barc zu bedenken.

Dennoch: "CWM hat sich gut entwickelt", bestätigt Professor Winter. "Allerdings ist das ein internes Geschäft. Das wird kein Anwender je merken." Datenklempner vereinfachen damit selbst ihre Arbeit, ohne dass das Topmanagement etwas davon erfährt. Manchmal kann es eben auch von Vorteil sein, wenn man im Dunkeln wirkt.