3 Problembereiche

Die schmutzigen Geheimnisse der Virtualisierung

23. Mai 2011
Von Hartmut  Wiehr
Kein Zweifel: Mit den Möglichkeiten von Virtualisierung ist die IT in ein neues Zeitalter eingetreten. Gestiegen ist aber auch die Anzahl der Risiken.
Foto: Matttilda - Fotolia.com

Was gerne übersehen wird: Die Beherrschung von Virtualisierung erfordert gesteigertes Know-how und den Einsatz zusätzlicher Tools für Verwaltung und besonders Automatisierung. Virtualisierte Rechenzentren führen dazu, dass sich das Tempo von Veränderungen der IT-Infrastruktur radikalisiert. Virtuelle Maschinen (VMs) lassen sich schnell installieren und gegebenenfalls neu konfigurieren, I/O-Kapazitäten sind flexibel verschiebbar und Applikationen können je nach Bedarf hoch- und runtergefahren werden. Die Fortschrittsfanfaren tönen in voller Lautstärke.

Aber es sollte ebenso zur Kenntnis genommen werden, dass sich mit radikalen Veränderungen erfahrungsgemäß auch das Risiko von Fehlern und unausgereiften Konzepten – von trial and error – erhöht. Analysten gehen laut Steve Nye von Infoblox davon aus, Management-Fehler würden 60 bis 80 Prozent aller Probleme in den Rechenzentren verursachen. Es stellt sich also die Frage, wie die Stabilität der IT-Infrastruktur bei gleichzeitiger Ausnutzung der Vorteile von Virtualisierung gewährleistet werden kann.

Doch muss in einem ersten Schritt geklärt werden, wo genau Fehler auftreten. Hypervisoren agieren nicht im luftleeren Raum. Sie bewegen sich inmitten einer alten Welt aus Servern, Speichersystemen und Netzwerken. VMs bringen zwar ein gewisses Maß an Flexibilität und Automatisierung in die klassischen Server, aber schnell droht der Überblick verloren zu gehen.

Nach einer Untersuchung des Anbieters Infoblox, der sich vor allem um Netzwerk-Automatisierung kümmert, geben 70 Prozent der befragten Unternehmen an, mit der Einführung von Virtualisierung sei die Belastung des Netzwerks stark angestiegen.

Zur Startseite