Mehr Server als Anwendungen

Server-Virtualisierung findet kaum statt

03. Dezember 2009
Von Hartmut  Wiehr
Hersteller vermitteln gerne den Eindruck, dass Virtualisierung zum Alltag der Unternehmen zählt. Doch dem ist keineswegs so. Nur 10 bis 20 Prozent setzen überhaupt virtuelle Server ein - und wenn, dann meistens für Test- und Entwicklungsumgebungen.

Im Prinzip gilt Server-Virtualisierung heute als allgemein anerkannte Disziplin. Aber eben nur im Prinzip. Obwohl es allgemein einleuchtet, dass mehrere (virtuelle) ServerServer auf einer einzigen (physikalischen) Maschine zu einer besseren Auslastung und damit zu signifikanten Kosteneinsparungen führen, verhalten sich die Unternehmen in ihrer größten Mehrheit sehr zurückhaltend. Doch warum zeigen sie nach wie vor so wenig echte Begeisterung für die VirtualisierungVirtualisierung ihrer Infrastruktur? Alles zu Server auf CIO.de Alles zu Virtualisierung auf CIO.de

Server-Virtualisierung ist in den meisten Unternehmen noch weit von einer Realisierung entfernt.
Server-Virtualisierung ist in den meisten Unternehmen noch weit von einer Realisierung entfernt.

Die Analysten Dale Vile und Jon Collins von Freeform Dynamics, einer britischen Research-Gruppe, die eng mit der unabhängigen Web-Publikation The Register zusammenarbeitet, haben sich in ihrer Studie "Server Virtualization in Context“ näher mit der gegenwärtigen Situation befasst. In großen Unternehmen sind oft Hunderte oder Tausende von Anwendungen im Einsatz, und selbst kleinere bringen es noch auf 10 bis 50.

Dies ist nicht unbedingt überraschend, doch die Forscher von Freeform Dynamics fanden in ihren Umfragen heraus, dass die Zahl der in Betrieb befindlichen Server die der Applikationen meistens noch übersteigt. 85 Prozent der befragten Unternehmen gaben an, dass sie mehr Server als Anwendungen aufgestellt haben. Das bedeutet, dass pro eingesetzter Business-Software mehrere Server im Einsatz sind.

In der Vergangenheit war es üblich, Anwendungen auf einem ausschließlich dafür zuständigen Server einzusetzen, egal ob man die volle Kapazität dieses Rechners überhaupt jemals brauchte. Immerhin konnte man mit dieser Methode sicherstellen, dass keine Applikation mit einer anderen in Konflikt geraten konnte, weil jede für sich genug Ressourcen hatte.