Performance-Management

Messfühler im Epizentrum

04.10.2004 von Andreas Schmitz
Infrastruktur-Management ist nicht die Paradedisziplin von CIOs. 30 Prozent ihres Budgets stecken sie in das Monitoring der Hardware. Dabei entsteht fast die Hälfte der Fehler in den Anwendungen. Inzwischen setzen CIOs vermehrt auf Daten-Seismographen-Messpunkte im Netzwerk.

Immer wieder beschwerten sich die Nutzer aus den Zweigstellen des Schweizer Logistikers Kühne und Nagel über eine neue webgestützte Anwendung: Die Antwortzeiten seien zu lang, und das Bild des Frachtverfolgungssystems würde sich erst nach zwei Minuten aufbauen. Das neue Kundenmanagement-System sei derart breitbandhungrig, dass zwei Mitarbeiter aus dem CRM-Bereich nahezu den gesamten Datenstrom "klauen" würden.

"Es waren die täglichen Vorkommnisse", sagt Michael Dembeck, Manager Corporate Network, die seinen Arbeitgeber Kühne und Nagel vor zwei Jahren zu einem neuen Konzept des Performance-Management zwangen. "Immer wieder gab es Überlastsituationen - das Netz war langsam, Bandbreiten stimmten nicht", sagt Dembeck, den meist erst die Nutzer informierten.

Für den Analysten Thomas Mendel vom US-Marktforschungsinstitut Forrester kommen derartige Schilderungen nicht überraschend. Laut einer ForresterUmfrage unter 430 leitenden IT-Angestellten in Europa und den USA Anfang des Jahres geben Unternehmen 30 Prozent des Infrastruktur-Budgets für das Monitoring der Netz-Hardware aus, obwohl dort nur zwei Prozent der Probleme entstehen. In das Monitoring der Anwendungen hingegen fließen nur zehn Prozent des Geldes, obwohl dort mit 44 Prozent fast die Hälfte der Probleme auftauchen.

Das kann Dembeck von Kühne und Nagel aus eigener Erfahrung bestätigen: "Wir waren vorher stark auf das Netzwerk konzentriert, das Problem liegt allerdings häufig in den Anwendungen." Das kann Dembeck nach Implementierung eines neuen PerformanceManagement-Systems jetzt viel besser handlen: "Wir haben jetzt eine fundierte Entscheidungsgrundlage für Investitionen im Netzwerk", erläutert Dembeck. Eine "Priorisierung der Dienste im Netz" sei nun möglich. "Die Verteilung des Netzverkehrs läuft erheblich besser. Immer seltener sind teure Bandbreiten-Upgrades nötig", so der NetzManager. Außerdem erfährt er jetzt vor seinen Kunden, wenn irgendwo ein Engpass entstehen sollte.

Damit zählt Dembeck zur gut informierten Minderheit. "Die Mehrzahl der Probleme wird nach wie vor nicht vom Infrastruktur-Management erkannt, sondern vom User", weiß der Principal-Analyst Mendel zu berichten. Deren Prozentsatz sei sogar gestiegen - von etwa 50 auf knapp 80 Prozent.

Ein weiteres Ergebnis der Forrester-Studie: Abgesehen von finanziellen Aspekten konnte nicht einmal jeder dritte IT-Manager Anwendungen, Anwender, Standorte oder Transaktionen nennen, die von einem Problem betroffen sind. Auch über die Dauer des Problems bekamen sie keine Auskunft.

Eine große Hürde liegt darin, dass die Transparenz gegenüber der Geschäftsführung oder dem Vorstand nicht in allen Ebenen des Unternehmens gewollt ist: "Bei Vorständen rennen Sie offene Türen ein", sagt Robert Gerick, Leiter des Qualitätsmanagements bei AMB Generali Informatik, der IT-Tochter von AMB Generali. "Schon auf Abteilungsleiterebene bis in die niedrigeren Chargen werden die Mängel deutlich. Abteilungs- oder Fachbereichsleiter reden doch lieber über MVS, über IMS oder Citrix-Farmen."

Gericks Resümee aus den letzten Jahren bei seinen Kunden ist ernüchternd: "Dass sich PerformanceManagement in den Unternehmen noch in den Kinderschuhen befinde, ist noch geschmeichelt", meint der 56-jährige gelernte Radio- und Fernsehtechniker, der nach 27 IBM-Jahren vor sechs Jahren begann, sich mit Performance-Management zu beschäftigen. Das Problem aus Gericks Sicht: "Die IT-Spezialisten haben ein falsches Verständnis von Service. Jeder kennt seinen Host bis aufs Bit, aber es fehlen Service-Manager, die die Sicht des End-Users einnehmen", sagt AMB, Generali-Mann Gerick. Er möchte möglichst vermeiden, dass sich ein Kunde mit einer Störung selbst beim Provider melden muss.

CIO muss die Sicht der Nutzer einnehmen

Dass es hiermit wirklich im Argen liegt, stellte der Qualitätsexperte Gerick letztens bei einem Beratungsgespräch bei einer der größten Deutschen Banken in Frankfurt fest. Über so genannte Metrix-Messungen dokumentierten die IT-Spezialisten der Bank, dass innerhalb eines Jahres höchstens ein bis zwei Mal ein System für ein bis zwei Stunden ausfalle - ausgezeichnete 99,9 Prozent Verfügbarkeit. Nach Gericks Darstellung war das Ergebnis für den End-User viel schlechter: "Zahlen nenne ich nicht. Nur so viel: Die Verantwortlichen sind buchstäblich nach hinten rübergekippt. Da braucht doch nur ein Bagger ein Kabel aus der Erde zu reißen, und schon fällt eine ganze Filiale aus. Diese Ausfallzeiten wurden in der obigen Zahl überhaupt nicht berücksichtigt."

Forrester-Mann Mendel bestätigt das: "Performance-Management ist nicht mehr nur das Überwachen aller Infrastrukturobjekte. Auch der Service wird heute definiert, das Business fordert heute immer öfter einen Service Level für den Gesamtservice. Der sollte etwa ein katalogartiges Beschreiben der Services und deren automatisierte Erfassung enthalten."

Der Grund für die Weiterentwicklung des Performance-Managements in der Praxis liegt nach Ansicht von Forrester-Analyst Mendel mit darin, dass viele Unternehmen innerhalb der vergangenen drei bis vier Jahren, weg von lokalen hin zu globalen Anwendungen gegangen seien. "Besonders in Hinsicht auf Infrastruktur-Management hat ein Umdenken stattgefunden", so der Marktbeobachter. "Es reicht nicht mehr, lokale Server zu monitoren, wenn man als Manager den Anspruch hat, von einer Zweigstelle in der USA auf einen Host in Frankfurt zugreifen zu können. Bis vor zwölf Monaten ist das Management sehr zurückhaltend mit dem Problem umgegangen. Jetzt tut sich was."

Global einsetzbar sollte das System bei Kühne und Nagel deshalb sein, zudem aber Daten an einer Stelle konsolidieren können - einen "Overall-View" über alle Messstationen bieten. So lautete die Forderung von Kühne-und-Nagel-Mann Dembeck. Heute hat er vom Hamburger IT-Zentrum aus mit Hilfe von 17 "Probes" ständig die Kulminationspunkte des Netzes im Blickfeld. Im Juli 2002 entschied Kühne-und-Nagel-CIO Thomas Engel, dass ein Performance-Management-System her müsste. Die ersten fünf Messpunkte waren im Feburar 2003 gesteckt. Derzeit arbeitet Kühne und Nagel in seinem Netzwerk für 600 Geschäftsstellen in 96 Ländern mit 17 Messstationen, von denen zwei flexibel eingesetzt werden können - "Fly-In-Probes". "Jetzt ist klar, wie sich der Netzverkehr an einem Knotenpunkt zusammensetzt", meint sein SystemIngenieur Oliver Bartolain, der die Probleme meist beheben musste.

Mit einer Art Lupe kann sich Bartolain nun die Informationen darüber holen, welche Anwendungen welche Bandbreite nutzen, wo die Daten herkommen und wo sie hinwollen. "Wir können bis auf die Ebene unserer Lokationen runterklicken", erläutert Bartolain, "und erhalten Aufklärung über den Traffic nach Arten und Regionen". Nun weiß er mit Hilfe der Software "Vantage", eines Performance-Management-Systems des Anbieters Compuware, und der selbst programmierten Reporting-Lösung, wie viel Prozent des Datenverkehrs etwa auf das Konto der E-Mails, der Produktivsysteme, der Buchhaltung oder des Kundenmanagement-Systems gehen.

"Für neue Anwendungen machen wir nun vorab ein Profiling", erläutert Bartolain, "dann wissen wir sofort, wie geschwätzig sie sind - wie viel Bandbreite sie also benötigen." Größere Ausschläge sollten die 17 Seismographen dann erheblich seltener aufzeichnen.