Desktop, Applikationen, Storage

Was nach Server-Virtualisierung kommt

19.01.2010 von Hartmut  Wiehr
Die Server-Virtualisierung stagniert. Zwar schießen VMware, Citrix und Microsoft ein Dauerfeuerwerk an neuen Angeboten ab. Doch noch dominieren Software-Anbieter, die sich mehr für teure Einzel-Lizenzen und noch einträglicheren Service-Leistungen interessieren.
VMware (hier die VMware World 2009) ist bisher vor allem bei Server-Virtualisierung erfolgreich. Dieser Markt stagniert. Doch was kommt danach?

Anbieter wie VMware erklären die Phase der Server-Konsolidierung schon für beendet. Aus ihrer Sicht heraus haben sie auch allen Grund dazu. Denn erst ein kleinerer Teil der Unternehmen hat sich auf den Pfad der Virtualisierung begeben, der Markt ist zum Stillstand gekommen – die Schätzungen von Gartner oder IDC bewegen sich zwischen 15 und 30 Prozent. Noch dazu: Viele Anwender beschränken sich bei Virtualisierung auf Test- und Entwicklungsumgebungen, lassen also ihre klassischen Anwendungen brav auf einzelnen physikalischen Maschinen laufen.

Die herkömmliche Silo- oder Spaghettilandschaft in den Rechenzentren lebt also fast unbehelligt weiter. Weiteres Wachstum für die Server-Konsolidierung ist nur schwer zu sehen. Und es kommt hinzu, dass die Server-Hersteller gar nicht so viel Interesse daran haben, wenn ihre Kunden stärker auf Virtualisierung setzen. Die Rechnung ist einfach: je mehr virtualisierte Server, desto weniger physikalische Server.

Kein Wunder, dass VMware und seine größeren Konkurrenten wie Citrix und Microsoft ein Dauerfeuerwerk an neuen Virtualisierungsangeboten abschiessen, um wenigstens so eine größere Marktdurchdringung zu erreichen – und sei es auch nur, dass sich die bereits real existierenden Virtualisierer auf Anwenderseite für zusätzliche Features oder Lösungen begeistern und mehr Geld ausgeben.

Zukunft 1: Desktop-Virtualisierung

Eine Möglichkeit ist die Desktop-Virtualisierung. Bei ihr geht es darum, dass die Unternehmen ihre bestehenden Einzel-PCs an den Arbeitsplätzen der Mitarbeiter mit ihren lokal gespeicherten Applikationen, Daten und Sicherheitsrisiken durch zentral verwaltete „dünne" Rechner ablösen, auf denen nur noch Images der zentralen Applikationen und Daten ablaufen. Entsprechend belastbare Netzwerkverbindungen vorausgesetzt, ist dies ein gangbarer Weg für viele Unternehmen – sofern sie es ihren Mitarbeitern, die individuelle Gestaltungsmöglichkeiten verlieren, schmackhaft machen können. (Zu den verschiedenen Varianten von Desktop-Virtualisierung siehe auch den CIO-Artikel: Was ist eigentlich Desktop-Virtualisierung?)

Zukunft 2: Storage-Virtualisierung

Storage-Virtualisierung, die den Servern oder Anwendungen einen gemeinsamen („virtuellen") Pool von heterogener Speicher-Hardware zur Verfügung stellt, existiert im Grunde genommen schon länger als die erst vor fünf oder sechs Jahren populär gewordene Server-Virtualisierung. Da aber jeder Speicherhersteller hierzu ein eigenes Konzept vorgelegt hat, gibt es sie wiederum in unterschiedlichen Flavours. Ein gemeinsamer, auf verbindlichen Standardisierungen bestehender Ansatz fehlt bis heute.

Bewegung in diese eher verkrusteten Umgebungen könnte durch neue Entwicklungen bei den Anbietern von Virtualisierungs-Software kommen: VMware zum Beispiel sieht bereits die Phase der Konsolidierung bei Servern für nahezu beendet und promotet jetzt mehr weitere Ausformungen von Virtualisierung wie neue Backup-Möglichkeiten, Business Continuity/Disaster Recovery oder Flexibilisierung von Anwendungen.

Zukunft 3: Business Continuity / Disaster Recovery

Mit dem Ansatz von Disaster Recovery will VMware eine Alternative zu den traditionellen, sehr aufwändigen und sehr teuren Lösungen für Rechenzentren anbieten, die in der Regel ein Ausweichrechenzentrum mit identischer Hard- und Software sowie ausgeklügelte Netzwerkverbindungen in Echtzeit- oder Fast-Echtzeit-Datenspiegelung erfordern. In der Folge leisten sich so etwas auch nur wenige Unternehmen, abgesehen von der Welt der Top 500 oder Top 2000.

Disaster Recovery mit der neuen Version von vSphere erlaubt laut VMware einen einfacheren (und billigeren) Weg: In virtuelle Maschine gekapselte Applikationen lassen sich je nach verlangter Hochverfügbarkeit zwischen physikalischen Servern, die auch in einem zweiten Rechenzentrum stehen können, verschieben und wieder zurückholen, ohne dass Hard- und Software wie in dem klassischen Szenario doppelt vorhanden sein müssen. Der Side Recovery Manager (SRM) soll für einen automatisierten Austausch der zu sichernden Applikationsumgebungen sorgen.

Zukunft 4: Applikations-Virtualisierung

Bisher hat sich Virtualisierung noch kaum auf die Betriebssysteme und Applikationen selbst ausgewirkt. Doch mit der Beschränkung auf eine verbesserte Hardware-Auslastung werden Möglichkeiten der Virtualisierung verschenkt. Dabei sind auch auf Software-Ebene unzählige, kosten- und zeitaufwändige Einzelprozesse und -arbeitsschritte von Nöten, bis das gewünschte Ziel – ein reibungsloses Laufen der Applikationen – schließlich erreicht ist. Außerdem müssen Netzwerk- und Speicherressourcen an die jeweiligen Anwendungen und ihre Umgebungsbedingungen angepasst werden.

Ähnlich wie bei den Images auf Desktop-Ebene könnten vorgefertigte, virtuelle Software-Container für Applikationen, die auf beliebiger Hardware-Unterlage und an verschiedenen Orten zum Einsatz gebracht werden, neue Formen der Vereinfachung und Flexibilisierung erbringen. VMware bietet hierzu inzwischen vApp an. Auf Betriebssystemebene wären abgespeckte Versionen denkbar, die nur zusammen mit einer spezifisch abgestimmten Anwendung in einem Container bereitgestellt werden. In der Welt von Open Source gibt es solche virtuellen Appliances aus Betriebssystem und Anwendung schon länger, um dem Anwender eine umständliche Implementierung abzunehmen.

Lizenzgeschäft wichtiger als Virtualisierung

Noch haben die Software-Anbieter ein Übergewicht, die mehr an teuren Einzel-Lizenzen und noch einträglicheren Beratungs-, Wartungs- und Service-Leistungen interessiert sind. Doch je mehr sich Microsoft bei Virtualisierung engagiert, desto schneller könnte sich das Blatt wenden.

Schon jetzt deutet sich mit dem Cloud-Engagement des Software-Riesen eine andere, alternative Strategie an: Sich selbst an die Spitze von Software as a Service und Cloud-Angeboten mit ausgearbeiteten Service Level Agreements zu setzen, bedeutet eben auch eine Abkehr von dem bisherigen Lizenzmodell.

Cloud Computing wird, wenn es sich durchsetzt, mehr auf vorfabrizierte Hard- und Software-Container setzen, die schnell einzelnen Kunden zugewiesen werden können. Was wiederum einen Schub für Virtualisierung auf verschiedenen Ebenen bedeuten könnte.