Analysten-Kolumne

Server-Konsolidierung: Wie sich die angestrebten Kosteneffekte realisieren lassen

31.10.2007
Von Siegward Sanden
Die Entwicklung der Kosten pro Leistungseinheit und Prozessor.
Die Entwicklung der Kosten pro Leistungseinheit und Prozessor.

Eng verbunden mit der Server-Konsolidierung ist die Applikations-Konsolidierung. Auf diese hat jedoch das Business einen wesentlichen Einfluss. Die Konsolidierung ist deshalb Teil des Applikationsportfolio-Managements. IT und Fachbereiche müssen eine gemeinsame Strategie entwickeln und zusammen in Projekten festlegen, welche Anwendungen unverändert weiterlaufen, welche auf eine neue technische Basis migriert, neu entwickelt oder abgeschaltet werden und auf welche Systemumgebungen sich das Unternehmen konzentrieren möchte. Wegen der damit gegebenenfalls verbundenen aufwändigen Migration können auf dieser Ebene in der Regel keine schnellen Konsolidierungseffekte erreicht werden. Hier ist die langfristige Planung wichtig.

Virtualisierung verlangt adäquate Preismodelle

Wesentlich kurzfristiger lassen sich die reinen Server-Kosten senken. Dazu müssen allerdings neue Preismodelle entwickelt werden, die vor allem das Ziel einer höheren Auslastung aktiv unterstützen. Zum einen sollten sie die (externen wie internen) IT-Service-Provider motivieren, die Auslastungsrate tatsächlich zu erhöhen. Heute werden die anfallenden Hardware-Kosten meist noch komplett durchgereicht, zum Teil per "Open Book": Dabei legen die Provider offen, wieviel sie für Hardware ausgegeben haben, und geben diese Position dann inklusive einer Bearbeitungsgebühr an den Kunden weiter. Das Preismodell muss so modifiziert werden, dass nur die zugewiesene Rechnerkapazität oder der tatsächliche Verbrauch abgerechnet wird. Dazu muss das Unternehmen messen können, welche Server-Leistungen eine Applikation in Anspruch nimmt.

Das durchschnittliche Verhältnis von logischen zu physischen Servern (y-Achse) ist in den letzten Jahren deutlich angestiegen.
Das durchschnittliche Verhältnis von logischen zu physischen Servern (y-Achse) ist in den letzten Jahren deutlich angestiegen.

Zum anderen sollten die Preismodelle auch das Business zur Mitwirkung motivieren, denn es präjudiziert wesentlich die Dimensionierung der Server-Kapazität. Wenn die Fachbereiche beispielsweise darauf bestehen, dass Legacy-Applikationen weiterbetrieben werden, die nur auf bestimmten Betriebssystemen laufen, wird der Ressourcen-Verbrauch deutlich höher ausfallen. Das Preismodell sorgt dafür, dass dann auch die Ursachen der Mehrkosten erkannt und diese verursachergerecht umgelegt werden.

Nun ist die Verbrauchsabrechnung im Server-Bereich recht komplex. Das gilt vor allem bei bedarfsabhängiger dynamischer Zuordnung der Server-Leistung, weil hier ein permanentes Monitoring des Ressourcenverbrauchs einer Applikation notwendig ist.

Hinzu kommt, dass es noch keine einheitlichen Messgrößen gibt. Während etwa beim Mainframe mit "MIPS" eine relativ einfache Einheit zur Verfügung steht, werden im Server-Bereich derzeit unterschiedliche Ansätze praktiziert. Die Messgrößen basieren meist auf Standard-Benchmarks: SAPS (SAP-Bereich), tpmC (Transaktionen pro Minute nach definierten Standard) oder RPE2 (Benchmark von IDEAS, der oft bei IBM-Anwendern eingesetzt wird). Sie alle sagen auch etwas aus über die Leistungsfähigkeit von Servern. Die Problematik: Diese Messeinheiten sind unterschiedlich aufgebaut, und bisher hat sich noch kein Standard etabliert. Außerdem wird auch noch nach CPUs beziehungsweise Cores abgerechnet.

Zur Startseite