Deutsche Bank

Flexible Ressourcen

28.01.2006 von Rolf Roewekamp
Mit einer Technology Roadmap baut die Bank äußerst flexible, stabile und kosteneffiziente IT-Plattformen. Das Ziel: möglichst viel standardisieren, virtualisieren und verbrauchsabhängig zahlen.

Der Wettbewerbsvorteil durch ausgefeilte selbst entwickelte IT nimmt ab, meint Rolf Riemenschnitter, CTO Architecture & Engineering und End User Services. Weil sich Anwendungen, Hardware und Systeme zur Commodity entwickeln, differenzieren sich Unternehmen im Markt immer weniger durch die IT. Nicholas Carr scheint mit seiner These, Recht zu bekommen: „IT doesn’t matter“.

Auch Bankprodukte geraten zur schnell auswechselbaren Ware: Wettbewerber kopieren Produkte in kürzester Zeit. Der IT kommt die Rolle zu, das Business dabei zu unterstützen, neue Finanzprodukte möglichst schnell und kostengünstig auf den Markt zu bringen. Allerdings geht eine Schere immer weiter auf: Während die Margengewinne bei Finanzprodukten schnell sinken, wachsen Transaktionsvolumina und IT-Ressourcenbedarf rasant – die IT-Kosten steigen.„Wir wollen deswegen sehr flexible, stabile und kosteneffiziente IT-Plattformen schaffen“, erklärt Riemenschnitter, der an Group-CTO Clemens Jochum berichtet. „Das Ziel erreichen wir nur mit einer stark standardisierten Infrastruktur.“

Dazu hat sich die Deutsche Bank auf den Weg gemacht und eine Technology Roadmap entwickelt. Sie legt alle Standards in der Infrastruktur fest. Um aber überhaupt Standards festlegen zu können, musste die IT zunächst ihre Umgebungen genau kennen lernen. Welche Anwendungen auf welchen Infrastrukturelementen laufen und wie alles zusammenhängt, war schwierig zu ermitteln, weil die Bank in den vergangenen Jahren stark gewachsen ist und es keine zentralen Verantwortungen für Infrastrukturelemente gab.

Abhängigkeiten durchschauen

Die enorme Komplexität in einem globalen Unternehmen lässt sich nur schwer bewältigen und sicherstellen, sodass überall die gleichen Tools, Versionen und Prozesse laufen. Zusätzlich verändert sich das System täglich durch neue Soft-, Hardware und Prozesse. In Projekten setzt die IT deshalb Tools ein, die das Management von Abhängigkeiten von Hard- und Softwarekomponenten unterstützen. „Allein den Bestand auf dem Laufenden zu halten und die Provider zu steuern ist eine riesige Herausforderung“, sagt Riemenschnitter.

Die bisher in der Roadmap festgelegten Standards sind für Mitarbeiter im Intranet bis auf die Versionsnummer heruntergebrochen einsehbar. Mit Beginn von Phase zwei der Roadmap soll die rein technische Auflistung der Infrastrukturelemente Mitte 2006 durch eine Business-Sicht abgelöst werden. Dann können CIOs ihre Business-Anforderungen angeben und erhalten dazu die passenden und abgestimmten Infrastrukturelemente angezeigt.

Governance Boards überwachen Standards und entscheiden über neue. Das 2004 neu geschaffene „Technology Governance Committee“ entscheidet mit Architekten der CIO- und Infrastrukturbereiche über neue Technologien. „Das führt von einer reinen Applikations- und Komponentenbetrachtung zu einem Gesamtblick auf die verwendete Infrastruktur“, sagt Riemenschnitter. Im nächsten Schritt kann die IT dann Business-Services und Produktpakete anbieten.

Auch externe Dienstleister bindet die IT mit ein, weil sie wie IBM in Kontinentaleuropa Teile der Infrastruktur betreiben und auch für sie die Roadmap gilt. „Mit allen unseren Governance-Maßnahmen haben wir 2005 unter anderem das bisher hohe Wachstum bei Servern global deutlich verringert“, bilanziert Riemenschnitter.

Auch beim Thema Storage senkte die IT durch teils kostengünstigere Speichermedien und ein mehrstufiges Speichermodell die Kosten erheblich: Guidelines legen nun fest, welche Speichertypen für welche Daten genutzt werden sollen. In anderen Projekten standardisierte die IT global alle Desktop-Betriebssysteme und die Mail-Umgebung zusammen mit wesentlichen Prozessen und Tools. Nach dem globalen XP-Roll-out gingen deutlich weniger Problem-Calls ein, und Patches lassen sich seitdem weltweit in 48 Stunden ausrollen.

Allerdings setzt die Transformation hin zu einer flexiblen IT neben der Technik auch das Verständnis der Geschäftsprozesse voraus. „Wir müssen verstehen, welche Leistungsspitzen bei einzelnen Anwendungen am Tag, in der Woche, im Monat und im Jahr auftreten“, so Riemenschnitter. „So können wir entscheiden, welche Anwendungen wir in gemeinsamen Umgebungen betreiben können und wo ein Pay-per-Use-Modell für die Bank ökonomisch sinnvoll ist.“ Durch eine stärkere Virtualisierung will die Bank die Leistungs-Peaks besser abfangen. „Dazu haben wir 2005 einige Piloten gestartet.“

Wo dies noch nicht der Fall ist, will die IT im nächsten Schritt nach dem Standardisieren und Virtualisieren möglichst flexible und transparente Preise definieren sowie IT-Service-Level einführen. „Wir wollen unseren Business-Einheiten‚ viel stärker Pay-per-usage-Modelle schaffen. Damit geben wir den Abteilungen mehr Flexibilität etwa bei schwankendem Ressourcenbedarf“, erläutert Riemenschnitter.

Parallel arbeitet Riemenschnitter eng mit Providern zusammen. Er will sehen, welche Aufgaben künftig externe Dienstleister übernehmen können und wie sie die Themen Virtualisierung und Verbrauchsmodell vorantreiben. Langfristig sucht er auch den richtigen Mix von internen und externen Dienstleistern, um die Infrastruktur optimal zu flexibilisieren: „Das brauchen wir, um flexibler zusätzliche Leistung schnell hinzuschalten zu können.“

IT auf Knopfdruck nicht möglich

Die komplette Umgebung auf Knopfdruck werde es allerdings wohl niemals für Unternehmen wie die Deutsche Bank geben, ist sich der CTO sicher. Dafür seien die Landschaften zu komplex. „Man kommt mit der Automatisierung aber sehr weit, wenn man auf der unteren Technologieschicht Schritt für Schritt beginnt und damit eine stabile Basis legt.“ So will er beispielsweise in den nächsten drei Jahren Desktops deutlich stärker zentralisieren und verstärkt Thin-Client-Lösungen einsetzen. „Wenn man zu weit oben bei Anwendungen und Architektur ansetzt, wird man scheitern“, sagt er.

Foto:

Banken unterscheiden sich im Wettbewerb künftig also kaum noch durch ausgefeilte und selbstgestrickte Systeme. Doch Nicholas Carr behält trotzdem nicht Recht. Denn Banken differenzieren sich künftig über den geschickten Einsatz von IT mit möglichst vielen Standardkomponenten.