Praxis-Erfahrungen

4 Ratschläge für Server-Virtualisierung

03.03.2010 von Hartmut  Wiehr
In Unternehmen ist Virtualisierung erst zum Teil angekommen. Deshalb ist es um so wichtiger, einige Regeln zu beachten, um nicht zu jenen zu gehören, die nach ihren ersten schlechten Erfahrungen wieder aufgeben.
Wer Server-Virtualisierung einsetzen will, sollte sich mit den Erfahrungen anderer auseinandersetzen und ihre Tipps beherzigen.

Die Anbieter von Virtualisierungs-Software erwecken gerne den Eindruck, als ob sich Server-Virtualisierung längst überall durchgesetzt hätte und zu einer unbedingten Notwendigkeit in den Unternehmen geworden wäre. Dem ist aber keinesfalls so. Wie aktuelle Untersuchungen der Marktbeobachter belegen, liegt die Adoptionsrate von Server-Virtualisierung in Westeuropa durchschnittlich bei 20 Prozent, in Deutschland sogar leicht darunter.

Und bei den Unternehmen, die diese Technologie einsetzen, machen die virtualisierten Server noch immer weniger als die Hälfte aller Server aus. Selbst in den USA, in denen die Unternehmen angeblich weit weniger Bedenken bei dem Einsatz neuer Technologien haben sollen, sind es nur 18 bis 20 Prozent der Unternehmen, die bereits Server-Virtualisierung im Einsatz haben.

Das bedeutet, dass sich die meisten Anwender noch immer zurückhalten und die jährlichen Wachstumsraten eher bescheiden sind. Selbst bei den Early Adopters ist die Anzahl von Test- und Entwicklungsumgebungen vergleichsweise hoch, die auf virtuellen Maschinen laufen – in Deutschland sind es laut IDC 33 Prozent, während 67 Prozent auf produktive Anwendungen entfallen. Ob zu den produktiven Umgebungen aber wirklich schon geschäftskritische Applikationen wie Datenbanken oder ERP-Software gehören, dürfte nur im Einzelfall gegeben sein.

Von Herstellerseite werden gerne Zahlen von 20 bis 100 virtuellen Maschinen angegeben, die auf einem einzigen physikalischen Server laufen. IDC hat etwas anderes herausgefunden: De facto sind es in Deutschland 6,63 und in Großbritannien 7,35 virtuelle Maschinen pro physikalischem Server (alle Zahlen von 2009).

4 Tipps zur Server-Virtualisierung

IT-Manager und Analysten weisen darauf hin, dass 20 und mehr virtuelle Maschinen auf einem Rechner in Produktionsumgebungen gefährlich sind, weil sie zu Performance-Problemen und – schlimmer noch – sogar zu Systemausfällen führen können.

Der Industrieexperte Andi Mann von Enterprise Management Associates (EMA) meint: „In Test- und Entwicklungsumgebungen können Unternehmen mehr als 50 virtuelle Maschinen auf einem einzigen Gastsystem unterbringen. Aber wenn es um geschäftskritische und ressourcen-intensive Anwendungen geht, sollte die Anzahl virtueller Maschinen nicht mehr als 15 betragen.“

Im Jahr 2009 hat EMA 153 amerikanische Unternehmen mit mehr als 500 Angestellten, die IT nutzen, untersucht: Die durchschnittliche Zahl von virtuellen Maschinen, auf denen Anwendungen wie ERP, CRM, E-Mail oder Datenbanken laufen, beträgt hier sechs pro physikalischem Server.

Unternehmen, die falsche Erwartungen haben und mit wesentlich höheren Konsolidierungseffekten bei der Einführung von Virtualisierung rechnen, laufen laut Mann in eine Falle hinein. Denn Virtualisierungsprojekte betreffen mehrere Ebenen: Budget, IT-Kapazität und Verantwortung von IT-Mitarbeitern und CIO. Die Folgen unausgegorener Virtualisierungsprojekte können also verheerend sein.

Wer sich bei der Konsolidierung verschätzt und zu viele virtuelle Maschinen einrichtet, muss damit rechnen, dass zusätzliche Finanzmittel für Investitionen in Server-Hardware, Rackplatz, Kühlungskapazität und Energieverbrauch nötig werden – was gerade in Krisenzeiten, in denen Einsparungen angesagt sind, kontraproduktiv wäre. Mindestens genauso schlimm wären negative Auswirkungen für die Enduser in Sachen Performance.

Probleme bei Hochverfügbarkeit und Sicherheit

Und wer Applikationen mit vielen Anwenderzugriffen und besonderen Anforderungen an Hochverfügbarkeit und Security auf virtuelle Maschinen verlagern will, muss konsequent erhöhte Ansprüche an die physikalische Basis wie Bandbreite, Memory, CPU und Speicher einkalkulieren. Selbst auf Servern mit zwei Quad-Core-Prozessoren kann es nach Ansicht des Analysten Charles King von Pund-IT zu Bottlenecks und Performance-Einschränkungen kommen, wenn sich darauf Anwendungen mit vielen Transaktionen befinden, deren virtuelle Maschinen um die gleichen Server-Ressourcen konkurrieren.

Was können Anwender tun, wenn sie sich auf das für sie neue Gebiet der Server-Virtualisierung begeben? Hier vier Tipps, wie man einen Server-Overload vermeiden kann:

1. Mit einer Kapazitätsanalyse starten

Zunächst sollten IT-Mannschaften ihre Erwartungen herunterschrauben. Dazu ist es hilfreich, mit einer Kapazitätsanalyse zu beginnen. Tools, um die Auslastung der bestehenden Server-Hardware zu überprüfen, gibt es zum Beispiel von Cirba, Hewlett-Packard, Microsoft, PlateSpin, Vizioncore oder VMware. Erst danach gilt es zu überlegen, welche dieser Ressourcen für einen künftigen virtuellen Pool tauglich sind.

Sind die virtuellen Maschinen einmal eingerichtet, sollten sie regelmäßig einem Monitoring unterzogen werden, um RAM- oder CPU-Probleme und Performance-Engpässe festzustellen. Als Tools hierfür können zum Beispiel vCenter von VMware oder Director von IBM eingesetzt werden. Resultat kann unter Umständen eine Neuzuteilung der virtuellen Maschinen mit ihren Applikationen auf verschiedene virtuelle Server sein.

2. Kontinuierliches Performance-Monitoring

Wer geschäftskritische Anwendungen auf virtuelle Maschinen verlagert, sollte sich um mehr als nur den Memory-Speicher kümmern. Sobald es um häufig genutzte Programme geht, spielen die I/O-Zugriffe eine wesentliche Rolle. Sobald sich Probleme abzeichnen, sollte die Zuordnung virtueller Maschinen auf einzelne Server verkleinert oder umgelagert werden. Control Panels und Monitoring-Software liefern die benötigten Informationen. Diese können auch für die Enduser zugänglich gemacht werden, um sie über Schreib-/Lesezugriffe auf Festplatten, Speicherkapazitäten und andere Aktivitäten aufzuklären, die die Performance zurücksetzen können.

Stabilität der Applikationen und Benchmarking

3. Tests zur Stabilität der Applikationen

Analyst King von Pund-IT empfiehlt den Unternehmen, geschäftskritische Anwendungen vor und nach der Implementierung auf virtuelle Maschinen intensiv zu testen. Nur so könnten sie sichergehen, dass sie bezüglich Memory und Netzwerk-Bandbreite jeder Zeit stabil laufen. Wenn man zum Beispiel rechtzeitig weiß, dass eine Software zu bestimmten Zeiten des Jahres stärker benützt wird, sollte man das bei der Zuweisung von virtuellen Maschinen auf einzelne Server berücksichtigen.

Durch Tests kann man auch herausfinden, welche virtuellen Workloads besser auf einem physikalischen Gastsystem zueinander passen. Laufen zum Beispiel verschiedene Web-Server auf einem Rechner, die alle zur gleichen Zeit die gleichen Ressourcen-Zugriffe benötigen, können Kollisionen programmiert sein. Außerdem sollte man die Auslastung der physikalischen Server nicht zu hoch ansetzen, da sie sonst nicht als Reserve-Hosts für weitere virtuelle Maschinen eingesetzt werden, falls es zu Server-Ausfällen an anderer Stelle kommt.

4. Benchmarking mit anderen Anwendern

Regelmäßiger Informationsaustausch mit IT-Mannschaften anderer Unternehmen sollte auch hier Pflicht sein. Dies kann in User Groups oder auf den großen jährlichen Konferenzen der Hersteller stattfinden, zum Beispiel der VMworld von VMware oder der Synergy von Citrix. Diese taugen in der Regel durch ihr vielfältiges Kursprogramm auch zur Weiterbildung.

Anstatt sich auf die meist einseitig gefärbten Benchmarks der Hersteller zu verlassen, sollten sich die IT-Mitarbeiter der Unternehmen mit ihres gleichen, also mit Kollegen aus Firmen vergleichbarer Größe und mit ähnlichen Virtualisierungsansätzen zusammentun und so einen realen Erfahrungsaustausch in Gang setzen. Networking nicht nur zur Pflege der eigenen Karriere, sondern um die Stärken und Schwächen der jeweiligen Virtualisierung zu vergleichen und zu nutzen. Motto: Gemeinsam sind wir stark.