Analysten-Kolumne

Server-Konsolidierung: Wie sich die angestrebten Kosteneffekte realisieren lassen

31.10.2007 von Siegward Sanden
Viele Unternehmen wollen durch Server-Konsolidierung und -Virtualisierung ihre IT-Kosten senken. Um die angestrebten Effekte tatsächlich zu realisieren, sollten sie allerdings wichtige Rahmenbedingungen und Implikationen beachten. Die wichtigsten: Einbettung von Konsolidierungsprojekten in eine übergreifende Standardisierungs-Strategie, Entwicklung passender Preismodelle und Erfolgskontrolle.
Compass-Geschäftsführer Siegward Sanden: "Eine Konsolidierung durch Virtualisierung erhöht für viele IT-Verantwortliche die operative Effizienz ihrer IT."

Angesichts des weit verbreiteten Server-Wildwuchses im IT-Betrieb erscheint eine Konsolidierung durch Virtualisierung vielen IT-Verantwortlichen heute als ein Königsweg, um die operative Effizienz ihrer IT zu erhöhen. Fast in jedem Rechenzentrum trifft man mittlerweile auf entsprechende Projekte.

In der Tat: Indem durch Virtualisierungs-Software mehrere logische Systeme gleichzeitig auf einem Server ausgeführt und administriert werden, lässt sich die Anzahl der Maschinen reduzieren. So beträgt das Verhältnis von physischen zu logischen Servern - das 2002 im Durchschnitt noch bei 1:1 lag - mittlerweile bis 1:2. Noch wichtiger ist, dass die Auslastung des physischen Rechners deutlich erhöht werden kann. Das ist insbesondere dann der Fall, wenn Volumenbedarfs-Prognosen des Business - aufgrund derer die Server-Größe festgelegt wird - sich im Nachhinein als zu optimistisch erweisen. Beim klassischen Ansatz nach dem Prinzip "eine Applikation pro Server" bleiben die Kapazitäten des dedizierten Rechners dann zum großen Teil ungenutzt. Die Virtualisierung hingegen erlaubt es, Ressourcen bedarfsgerecht zuzuordnen.

Allerdings werden viele Projekte heute noch zu sehr nach dem Prinzip Hoffnung angegangen. Die Verantwortlichen beginnen mit der Konsolidierung und hoffen auf einen Abwärtstrend bei den Gesamtkosten im Server-Bereich. Um die potenziellen Effekte wirklich zu erreichen, sollten die Projekte jedoch in eine übergreifende Standardisierungs-Strategie eingebettet und die Resultate kontinuierlich überwacht werden.

Applikationen und Server gemeinsam standardisieren

Ziel sollte es sein, die Standardisierung des Datenzentrums insgesamt voranzutreiben. Das betrifft zunächst die Herstellerstrategie und die eingesetzten Server-Modelle. Schon heute pflegen viele Unternehmen einen "Warenkorb" mit Listen der primär zu verwendenden Hardware-Modelle, die regelmäßig überprüft werden, mit dem Ziel, deren Bandbreite zu reduzieren. Aber auch die Anzahl der Betriebssysteme sowie der Software-Tools sollte gesenkt werden.

Die Entwicklung der Kosten pro Leistungseinheit und Prozessor.

Eng verbunden mit der Server-Konsolidierung ist die Applikations-Konsolidierung. Auf diese hat jedoch das Business einen wesentlichen Einfluss. Die Konsolidierung ist deshalb Teil des Applikationsportfolio-Managements. IT und Fachbereiche müssen eine gemeinsame Strategie entwickeln und zusammen in Projekten festlegen, welche Anwendungen unverändert weiterlaufen, welche auf eine neue technische Basis migriert, neu entwickelt oder abgeschaltet werden und auf welche Systemumgebungen sich das Unternehmen konzentrieren möchte. Wegen der damit gegebenenfalls verbundenen aufwändigen Migration können auf dieser Ebene in der Regel keine schnellen Konsolidierungseffekte erreicht werden. Hier ist die langfristige Planung wichtig.

Virtualisierung verlangt adäquate Preismodelle

Wesentlich kurzfristiger lassen sich die reinen Server-Kosten senken. Dazu müssen allerdings neue Preismodelle entwickelt werden, die vor allem das Ziel einer höheren Auslastung aktiv unterstützen. Zum einen sollten sie die (externen wie internen) IT-Service-Provider motivieren, die Auslastungsrate tatsächlich zu erhöhen. Heute werden die anfallenden Hardware-Kosten meist noch komplett durchgereicht, zum Teil per "Open Book": Dabei legen die Provider offen, wieviel sie für Hardware ausgegeben haben, und geben diese Position dann inklusive einer Bearbeitungsgebühr an den Kunden weiter. Das Preismodell muss so modifiziert werden, dass nur die zugewiesene Rechnerkapazität oder der tatsächliche Verbrauch abgerechnet wird. Dazu muss das Unternehmen messen können, welche Server-Leistungen eine Applikation in Anspruch nimmt.

Das durchschnittliche Verhältnis von logischen zu physischen Servern (y-Achse) ist in den letzten Jahren deutlich angestiegen.

Zum anderen sollten die Preismodelle auch das Business zur Mitwirkung motivieren, denn es präjudiziert wesentlich die Dimensionierung der Server-Kapazität. Wenn die Fachbereiche beispielsweise darauf bestehen, dass Legacy-Applikationen weiterbetrieben werden, die nur auf bestimmten Betriebssystemen laufen, wird der Ressourcen-Verbrauch deutlich höher ausfallen. Das Preismodell sorgt dafür, dass dann auch die Ursachen der Mehrkosten erkannt und diese verursachergerecht umgelegt werden.

Nun ist die Verbrauchsabrechnung im Server-Bereich recht komplex. Das gilt vor allem bei bedarfsabhängiger dynamischer Zuordnung der Server-Leistung, weil hier ein permanentes Monitoring des Ressourcenverbrauchs einer Applikation notwendig ist.

Hinzu kommt, dass es noch keine einheitlichen Messgrößen gibt. Während etwa beim Mainframe mit "MIPS" eine relativ einfache Einheit zur Verfügung steht, werden im Server-Bereich derzeit unterschiedliche Ansätze praktiziert. Die Messgrößen basieren meist auf Standard-Benchmarks: SAPS (SAP-Bereich), tpmC (Transaktionen pro Minute nach definierten Standard) oder RPE2 (Benchmark von IDEAS, der oft bei IBM-Anwendern eingesetzt wird). Sie alle sagen auch etwas aus über die Leistungsfähigkeit von Servern. Die Problematik: Diese Messeinheiten sind unterschiedlich aufgebaut, und bisher hat sich noch kein Standard etabliert. Außerdem wird auch noch nach CPUs beziehungsweise Cores abgerechnet.

SAPS-Zahlen sind zumindest in Deutschland weit verbreitet und deshalb eine mögliche Basis für ein Preismodell. Bei dynamischer Zuordnung von Server-Leistung ist die "zugesicherte" Performance ein guter Ausgangspunkt. Welche Größe man auch wählt - entscheidend ist ein transparentes Preismodell, das die in Anspruch genommene Server-Leistung pro virtueller Umgebung in einer beliebigen Einheit möglichst gut widerspiegelt.

Von Bedeutung ist auch, wie die Investitionskosten des Service-Providers in die neue, bei der Virtualisierung verwandte Hardware auf den Kunden umgelegt werden. Auch bei verbrauchsabhängiger Abrechnung wird der Stückpreis pro Leistungseinheit heute entweder fix für die üblichen drei bis fünf Jahre Einsatzzeit vereinbart, oder er senkt sich während der Laufzeit dynamisch, wobei eine Mischkalkulation mit verschiedenen Umgebungen zugrunde gelegt wird. Im nächsten Schritt wäre dann zu untersuchen, wie viele SAPS-, RPE2- oder andere Einheiten eine Applikation verbraucht. Nach diesem Wert wird dann abgerechnet - unabhängig davon, welche Hardware konkret zugrunde liegt. So gewinnt man Flexibilität: Service-Provider können sich weiter optimieren, und die Fachbereiche können den Ressourcen-Verbrauch während der Vertragslaufzeit beeinflussen.

Die Konsolidierungseffekte stetig messen

Die durchschnittliche Server-Auslastung kann durch Konsolidierung deutlich verbessert werden.

Um Konsolidierungsprojekte optimal zu steuern, sollten Unternehmen Messmethoden zur kontinuierlichen Erfolgskontrolle einführen. Zunächst sollten in einer Standortbestimmung Kapazität, Nennleistung und heutige Auslastungsrate der einzelnen Server und die damit verbundenen Gesamtkosten bestimmt werden. Dem wird das entsprechende Einsparungspotenzial bei Konsolidierung und Virtualisierung gegenübergestellt.

Das Kennzahlensystem sollte sowohl messen, inwieweit die Ziele bezüglich Auslastung und Kosten während des Projektverlaufs erreicht werden, als auch die Governance des Veränderungsprozesses selbst unterstützen. Es sollte dazu technische und wirtschaftliche Größen verknüpfen sowie - durch Aggregieren und Drill-Down - bei Bedarf jedem Bereich passende KPIs an die Hand geben, die den Ursache-Wirkungs-Zusammenhang erkennen lassen. Damit sollte es möglich sein, die Effekte der eingeleiteten Maßnahmen kontinuierlich zu verfolgen und bei Bedarf korrigierend einzugreifen. Das betrifft unter anderem:

Siegward Sanden ist Geschäftsführer der Compass Deutschland GmbH, Wiesbaden.