CIOs vergessen Citrix und Microsoft

6 Mythen über Virtualisierung

14.04.2011 von Hartmut  Wiehr
Weniger Lizenzkosten, simples Management, nur ein Hypervisor-Anbieter: Über Server-Virtualisierung kursieren viele Halbwahrheiten. Was von ihnen zu halten ist.
Foto: Elgris/Fotolia.com

Während der letzten drei bis fünf Jahre haben viele Unternehmen damit begonnen, sich auf das neue Terrain der Server-Virtualisierung zu begeben. Die einen mit Installationen für Test-Umgebungen, die anderen für Szenarien rund um Software-Entwicklung. Laut IDC sollen es inzwischen sogar mehr als die Hälfte aller Unternehmen sein, die gerade neue Applikationen in virtuellen Maschinen (VMs) installieren.

Im Umkehrschluss heißt das, dass die meisten der bestehenden Anwendungen sich noch immer auf physikalischen Silo-Servern befinden. Zumal dann, wenn es sich um geschäftskritische Programme handelt.

Die Analysten von IDC gehen nach gering angesetzten Wachstumszahlen für die letzten Jahre nun davon aus, dass bis 2014 sogar 70 Prozent aller Server-Workloads auf VMs laufen werden. Auch die leitenden Geschäftsführer und Manager würden inzwischen weniger Zweifel an Sinn und Zweck von Virtualisierung äußern. Für IDC ist das ein klares Zeichen dafür, dass zumindest Server-Virtualisierung als eine am Markt durchgesetzte Technologie angesehen werden kann.

Für Gary Chen von IDC sind die Kosteneinsparungen durch Server-Virtualisierung und die damit zusammenhängende weite Verbreitung in den Unternehmen inzwischen so dramatisch, dass sich kritische Stimmen kaum noch zu Wort melden. Virtualisierung sei in und werde allgemein akzeptiert.

Dennoch gibt es einige Missverständnisse und Mythen rund um Server-Virtualisierung, selbst in Unternehmen, die sich bereits weit auf den virtuellen Pfad vorgewagt haben. Hier sind die wichtigsten:

1. CIOs glauben, nur einen Hypervisor im Einsatz zu haben

Laut Gary Chen von IDC setzen die meisten Unternehmen nur eine Software für Server-Virtualisierung ein.
Foto: IDC

Chen von IDC berichtet, dass viele CIOs und leitende IT-Manager der Ansicht sind, nur Hypervisoren von einem einzigen Anbieter im Einsatz zu haben. "Über 70 Prozent der Teilnehmer an einer aktuellen Umfrage gaben zu Protokoll, bis jetzt nur einen einzigen Hypervisor einzusetzen", sagt Chen.

Dan Olds von der Gabriel Consulting Group kommt zu einer diametral entgegengesetzten Einschätzung der Situation. Auf Grund eigener Umfragen bei den IT-Mitarbeitern, die direkt an der Front stehen und nicht in höheren Vorstandsetagen schweben, ergibt sich für ihn folgendes Bild: "Über 71 Prozent aller Unternehmen, egal welcher Größenordnung und welcher Branche, setzen bereits mehr als einen Typ von Server-Virtualisierung ein."

VMware führe das Feld an, aber Citrix und Hyper-V von Microsoft holen auf. Beide sind einfach zu bekommen und nicht teuer. Und beide profitieren sie laut Olds von dem Graswurzel-Effekt, der schon Linux zu gute gekommen war: „Die IT-Mitarbeiter arbeiten mit diesen Programmen, ohne dass der CIO davon überhaupt etwas mitbekommt."

2. Virtuelle Server kosten weniger als physikalische

Virtuelle Server nutzen die bestehende Infrastruktur besser aus und arbeiten insgesamt effektiver. Doch die ganz große Kosteneinsparung lässt sich nur zu Beginn der Umstellung von physisch auf virtuell erzielen. Darin sind sich die Analysten einig. James Staten von Forrester Research meint: "Wenn man das erste Mal große Mengen von physikalischen Servern auf weniger Exemplare und dafür auf mehr VMs umstellt, lassen sich sehr große Einsparungen erzielen. Doch danach lässt sich dieser Effekt nicht wiederholen."

Chen von IDC verweist darauf, dass sich die Unternehmen an die Kostensenkungen zu Beginn gewöhnen könnten, aber schon bald lernen müssten, dass neue operationale Kosten für die Verwaltung der virtualisierten Infrastruktur entstehen. Auch die Support-Kosten steigen in vielen Fällen.

3. Die Lizenzausgaben sinken

Virtuelle Server sind billiger. Aber James Staten von Forrester verweist darauf, dass es immer noch Server sind, und man muss immer noch die gleichen Summen für Betriebssysteme und Verwaltungstools auf den Tisch legen, und zwar pro VM-Umgebung. Sogar die Lizenzkosten für die virtuellen Maschinen können aus dem Ruder laufen.

Dies wird vor allem dann geschehen, wenn die IT-Abteilung ohne genaue Planung virtuelle Kapazitäten anschafft. Eine Vorratshaltung von VMs kann für viele Fälle angebracht sein, sollte aber ein zu definierendes Maximum nicht überschreiten. Die Lizenzgeber von Virtualisierungs-Software werden überdies genau überprüfen, ob Nachverhandlungen für Lizenzen angebracht sind, meint Staten.

4. Virtuelle Server erfordern weniger Management

Dan Olds, Virtualisierungsexperte bei Gabriel Consulting, sieht mehr Management-Probleme beim Einsatz von Server-Virtualisierung.
Foto: Gabriel Consulting

Der Analyst Olds von der Gabriel Consulting Group argumentiert gegen die weit verbreitete Annahme, dass sich virtuelle Server mit weniger Aufwand installieren, konfigurieren und monitoren lassen als ihre physikalischen Kollegen. Umfragen seiner Organisation hätten ergeben, dass sich in den letzten drei Jahren der Anteil derjenigen Unternehmen halbiert hat, bei denen durch Virtualisierung das Management der IT leichter geworden sei. 25 Prozent der Befragten gaben sogar an, dass die Server-Verwaltung mit den VMs schwieriger geworden ist.

5. Virtualisierung ist einfach zu verstehen

Die größte Schwierigkeit in der täglichen IT-Praxis besteht nach Ansicht des Beraters Patrick Kuo darin, dass selbst erfahrene ITler den Überblick über die virtualisierte Infrastruktur verlieren. Wenn bei physikalischen Servern oder Serverfarmen Performance-Probleme auftreten, kann sich laut Kuo die IT-Abteilung damit retten, einfach die Bandbreite der Netzverbindungen zu erhöhen oder mehr Server hinzuzufügen.

Bei virtuellen Umgebungen entfallen in der Regel diese Möglichkeiten, und man muss zu neuen Techniken der Aufteilung oder Umverteilung der Ressourcen im Rechenzentrum greifen. Abhilfe kann man dadurch schaffen, dass man eine Infrastruktur mit verschiedenen Dringlichkeitsstufen und damit mit Reserven aufbaut, erläutert Kuo. Man müsse auch detailliert die Anforderungen an die Workloads einzelner Applikationen analysieren und voraussichtliche Peak-Zeiten definieren.

6. Das Monitoring virtueller Maschinen erfordert keine Umstellung

IDC verweist darauf, dass mit der Anzahl der VMs auf einem virtuellen Server auch die Menge der Agenten ansteigt, die man für das Monitoring braucht. Bei physikalischen Servern reicht eine einfache Software, die die Performance-Daten sammelt und an die zentrale Monitor-Konsole überträgt. Geht man von einer durchschnittlichen Anzahl von 8,5 VMs pro Server aus, sind dagegen mindestens 9 oder 10 Monitoring-Agenten erforderlich. Damit steigen die Anforderungen an die eingesetzten Tools, und es fallen zugleich zusätzliche Lizenzgebühren an.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.