Server-Virtualisierung

Vom Mainframe lernen

29.06.2006 von Holger Eriksdotter
Was in homogenen Mainframe-Umgebungen ein alter Hut ist, findet langsam Eingang in die heterogene Serverwelt. Die dafür notwendige Virtualisierungstechnik ist reif geworden.

Nach Jahren der Konsolidierung spielt die Flexibilität der IT heute wieder eine wichtige Rolle für die Wettbewerbsfähigkeit von Unternehmen. Die IT soll schnell und zuverlässig auf Geschäftsanforderungen reagieren, Applikationen und Funktionen rasch und effizient bereitstellen. Für den IT-Betrieb sind aus diesem Grund anpassbare Strukturen und insbesondere kurze Inbetriebnahmezeiten gefordert. Aber während viele Unternehmen schon lange in die Optimierung des Prozess-Managements investieren, haben sie die Flexibilisierung der Plattform oft vernachlässigt. Nicht selten verzehrt allein der laufende IT-Betrieb 80 bis 90 Prozent des IT-Budgets.

„Um Mittel für Investitionen in IT-Neuentwicklungen zu gewinnen, müssen die Unternehmen ihre IT-Betriebskosten senken. Zudem werden vom IT-Betrieb zunehmende Geschwindigkeit beim Deployment und größere Flexibilität erwartet. Die meisten Rechenzentren sind darauf noch nicht eingestellt“, sagt Ricco Deutscher vom Beratungsunternehmen McKinsey.

Ein erheblicher Teil der Kosten für den Betrieb von Server-Farmen sei dadurch bedingt, dass die insgesamt bereitgestellte Rechenleistung nur zu einem kleinen Anteil tatsächlich abgefordert wird. „Üblicherweise werden in einem Rechenzentrum weniger als 20 Prozent der verfügbaren Server-Kapazität genutzt. Die traditionellen Hebel zur besseren Auslastung wie Rightsizing und Application Stacking haben oft ihre Grenzen erreicht“, hat Deutscher beobachtet, der auf geschäftsbezogene Fragen der IT-Architektur spezialisiert ist.

Um die Auslastung zu erhöhen, soll Virtualisierung helfen. „Virtualisierung bietet ein enormes Potenzial für die Optimierung von Server-Landschaften und die Flexibilisierung der IT-Architektur“, sagt McKinsey-Berater Deutscher. Die Theorie: Durch Virtualisierung werden Applikationen und ihre Daten von den Hardware-Ressourcen entkoppelt. Auf diese Weise wird es möglich, diese Ressourcen in einem Pool zu sammeln und den Applikationen nach Bedarf zuzuweisen. Die Server können dann nicht nur schneller und flexibler eingesetzt werden, auch die Auslastung lässt sich erheblich verbessern. Eine Steigerung von jetzt um die zehn bis 20 Prozent auf X86-Maschinen bis zur Größenordung von Mainframes – also 60 bis 80 Prozent – ist nach der Einschätzung von Experten realistisch.

Dass die Technik das Experimentierstadium längst verlassen hat, sagt auch Thomas Meyer, Director EMEA Enterprise Server Solutions beim Marktforschungs- und Beratungsunternehmen IDC. Aus einer Umfrage im vergangenen Jahr unter 420 IT-Verantwortlichen ging hervor, dass Server-Virtualisierung in Unternehmen schon weit verbreitet ist. „Auf rund 50 Prozent der virtuellen Maschinen laufen sogar unternehmenskritische Anwendungen. Die Technik ist also ohne Zweifel praxistauglich“, stellt Meyer fest. Treibende Kraft für den zunehmenden Einsatz von Virtualisierungs- und Dynamisierungstechnologien ist der Druck auf die CIOs: Sie sollen die IT über einzelne Projekte und den Betrieb der Anwendungslandschaft hinaus zu einem strategischen Mittel entwickeln, das die Wettbewerbsposition des Unternehmens stärkt.

Die großen Spieler auf dem Markt

Eine Vielzahl von Herstellern bietet bereits Lösungen für Server-Virtualisierung an. Zu den Marktführern auf der Softwareseite zählen vor allem VMware mit „ESX Server“ und Microsoft mit „Virtual Server“. Aus dem Open-Source-Umfeld kommt das Produkt Xen, das sich zunehmend in kommerziellen Umgebungen durchsetzt. Philip Dawson, Senior Analyst bei der Gartner-Group, betont den Zusammenhang von Infrastruktur und der Fähigkeit von Unternehmen, schnell auf sich ändernde Geschäftsanforderungen zu reagieren: „Die Vision des Realtime-Business ist nur mit Realtime IT-Architekturen zu verwirklichen“, sagt Dawson. Als weltweit große Player, die diese Vision auf der Hardwareseite umsetzen könnten, nennt der Gartner-Mann IBM mit dem „On-Demand-Konzept“, HP mit dem „Adaptive Enterprise“ und FSC mit dem „Dynamic Data Center“.

Nach Einschätzung des IDC-Experten Meyer ist die Blade-Technologie ein wichtiger Wegbereiter der Virtualisierung. Das Marktsegment der Blade-Server wächst weit schneller als das anderer Server-Typen. Auf 2,1 Milliarden Dollar beziffert Meyer den weltweiten Umsatz im Jahr 2005 – das sind 63 Prozent mehr als im Vorjahr. Deutschland ist nach den USA, Japan und England der viertgrößte Blade-Server-Markt weltweit. „Wir wissen aus unseren Studien, dass Blade-Architekturen viermal häufiger als andere Servertypen im so genannten Standard-Server-Segment in virtualisierten Architekturen eingesetzt werden“, sagt Meyer.

Blades eignen sich aus mehreren Gründen besser für virtualisierte und automatisierte IT-Architekturen: „Möchte man auf standardisierte Technologie setzen – und der Trend geht ganz klar in diese Richtung – sind Blades durch die inzwischen mehrjährige Erfahrung und Entwicklung von Lösungen oftmals einfacher zu installieren, leichter zu managen und besser skalierbar als andere Server-Typen“, erläutert Marktkenner Meyer. Weil Blade-Racks als Gesamtsystem verwaltet werden könnten und in fast allen Fällen an Netzwerk-Speichersysteme angeschlossen seien, trügen sie gleichzeitig zur Netzwerk-und Storage-Konsolidierung bei.

Aber Virtualisierungslösungen sind immer eng mit der Hardwareplattform verknüpft. Oft gingen die Virtualisierungs-und Dynamisierungskonzepte der Anbieter an den Anforderungen der Kunden vorbei, weil sie einen Komplettumbau der gesamten Architektur verlangen, bemängelt Meyer. „Anwender haben in der Regel historisch gewachsene, heterogene IT-Landschaften. Wichtig ist, dass sich dynamische Lösungen schrittweise, das heißt ohne Hauruck-Effekt, integrieren lassen“, sagte der IDC-Server-Experte. Hier seien eindeutig Anbieter im Vorteil, die modulare, vorgefertigte und einfach integrierbare Lösungen anbieten.

Noch nicht alle Tools ausgereift

Meyer sieht noch Lücken bei Herstellern: „Es sind mit Sicherheit noch Verbesserungen im Bereich der Automatisierungs- und Managementtools möglich.“ Denn je mehr sich die Virtualisierung verbreite, desto wichtiger werde die Unterstützung solcher Szenarien für Hardwareanbieter. Der Support – oder die fehlende Unterstützung – wird dann schnell transparent. Aber es sei immer ein Zeichen für einen reifenden Markt, wenn Anwender nach besseren und robusteren Tools verlangen.

Ob und in welcher Weise sich Virtualisierungstechniken in einem Unternehmen lohnen, muss in jedem Einzelfall geprüft werden, zumal die heute vorhandenen Lösungen noch eng an die individuelle Hardwareplattform gekoppelt sind. „Klar definierte Evaluierungskriterien sind unabdingbar, um den Nutzen der Virtualisierungslösungen für die konkreten Geschäftsanforderungen zu bewerten“, sagt Berater Deutscher.

Deshalb hat McKinsey eine Bewertungsmetrik entwickelt (siehe Tabelle Seite 55), mit der es zunächst entscheidet, ob eine Virtualisierung unter Verwendung der vorhandenen Assets kurzfristig ökonomisch und technisch sinnvoll ist. „Aber jede langfristige strategische Plattformentscheidung sollte künftig auch die Qualität der dafür vorhandenen Virtualisierungslösung berücksichtigen“, betont Deutscher. CIOs übersehen das meistens.

IDC-Experte Meyer sieht viel versprechende Ansätze und konstatiert ein allmähliches Umdenken – bei Anbietern wie Anwendern. „Virtualisierung als Voraussetzung für dynamischere IT-Strukturen ist für Unternehmen aller Größen ein wichtiges Instrument, ihre IT effizienter, leistungsfähiger und kostengünstiger zu machen – das wird in den Rechenzentren zunehmend erkannt.“ Und auch die Anbieter hätten aus der Erfahrung gelernt. Hier beobachtet er in jüngster Zeit einen Trend: Statt visionärer Komplettlösungen würden zunehmend modulare, einfach integrierbare Lösungen auf den Markt gebracht,
die eine schrittweise Virtualisierung und Flexibilisierung ermöglichten.