Virtualisierung

Der lange Marsch in die Enterprise-IT

07.09.2008 von Holger Eriksdotter
Die Gründe für die Virtualisierung der IT-Architekturen sind breit diskutiert, ihr Nutzen für die Enterprise-IT unwiderlegbar. Die Umrüstung der Rechenzentren vollzieht sich indes langsamer, als man angesichts der langen Liste der Vorteile vermuten möchte.

Der Gewinn, der sich aus der Virtualisierung der Rechenzentren ergibt, wird von niemandem ernsthaft bestritten. Kostenvorteile, geringere Stellfläche, weniger Energieverbrauch, weniger Downtime, einfachere Business-Continuity-Lösungen, agilere und flexiblere IT-Landschaften, die sich leichter, schneller und kostengünstiger an die Business-Prozesse anpassen lassen. Quintessenz: Sowohl aus Kostengründen als auch im Hinblick auf die Wettbewerbsfähigkeit geht für die Unternehmen kein Weg mehr an der Virtualisierung vorbei.

Und die Botschaft ist bei den Verantwortlichen angekommen: Die aktuelle Studie „European Server Virtualization Survey 2008“ der Marktforscher von IDC belegt, dass die Server-Virtualisierung vom viel diskutierten Hype zur Realität geworden ist und jetzt in die Rechenzentren der europäischen Unternehmen einzieht.

Danach sind die Ausgaben für Server, die in virtualisierten Umgebungen eingesetzt werden, allein im letzten Jahr um rund 50 Prozent gestiegen. Waren es in den letzten zwölf Monaten noch 35 Prozent der Server-Budgets, die auf virtualisierte Server entfielen, wird in den kommenden zwölf Monaten erstmals die 50-Prozent-Marke übersprungen: Mehr als die Hälfte der Ausgaben (52 Prozent) für Server fließen dieses Jahr in virtualisierte Architekturen. Dabei liegen Windows System mit fast 60 Prozent deutlich vorn.

Eine Studie der Marktforscher von Techconsult kommt zu ähnlichen Ergebnissen: 37 Prozent der Unternehmen setzen danach schon jetzt virtuelle Server im Produktivbetrieb oder Pilotprojekten ein, weitere elf Prozent haben das konkret geplant. „Ende des Jahres 2008 wird jeder zweite deutsche IT-Anwender Server-Virtualisierung betreiben“, schreiben die Analysten von Techconsult.

Gleichzeitig offenbart die Studie allerdings erhebliche Unterschiede in Abhängigkeit von der Unternehmensgröße: „In Unternehmen ab 500 Mitarbeiter gehört die Server-Virtualisierung bereits zum IT-Alltag, 71 Prozent haben derzeit virtuelle Maschinen installiert. Bis Ende 2008 werden weitere 16 Prozent dieser Zielgruppe dazu stoßen“, sagt Denis Mrksa, Analyst bei Techconsult und Leiter der Studie. Bei Unternehmen mit weniger als 100 Mitarbeitern sind es indes nur 21 Prozent, zwischen 100 und 500 Mitarbeitern 35 Prozent, die virtuelle Maschinen einsetzen.

Foto: Techconsult

Aber so klar sich der Trend auch abzeichnen mag – noch sieht die Realität in deutschen Betrieben anders aus. Denn die Daten von IDC zeigen auch, dass sich der gegenwärtige Grad der Virtualisierung noch in sehr überschaubaren Grenzen hält. So waren es im letzten Jahr erst sieben Prozent der Unternehmen, die Teile ihrer IT virtualisiert hatten; In diesem Jahr sollen es nach IDC-Zahlen zwar schon 35 Prozent sein, die im Schnitt 13 Prozent ihrer IT-Anwendungen virtualisieren. Aber daraus ergibt sich ein Wert von nicht einmal fünf Prozent aller Unternehmens-Applikationen, die bis zum Ende dieses Jahres auf virtualisierter Server-Architektur laufen werden.

Denn kein Unternehmen beginnt mit der Einführung der Virtualisierung auf der grünen Wiese, sondern migriert seine Server- und Anwendungslandschaft aus guten Gründen schrittweise. Die hohe Zahl der Unternehmen, die Virtualisierungstechnologien einsetzen oder das planen, täuscht ein wenig darüber hinweg, dass die Anwender meist den Einstieg mit kleineren Projekten beginnen. Oft sind es Web-Server, Testumgebungen oder Systeme im Bereich Forschung und Entwicklung, die im ersten Schritt virtualisiert werden.

Als größte Hemmnisse haben die IDC-Marktforscher den Mangel an Know-how bei Virtualisierungstechnologien, die schwierige Implementation sowie hohe Kosten für die Erstimplementation ausgemacht. „Man darf nicht vergessen, dass Virtualisierungsprojekte in der Regel mit hohen Anfangsinvestitionen verbunden sind - die errechneten Kostenvorteile stellen sich dann erst im Laufe der Zeit ein“, sagt IDC-Analyst und Mitautor der Studie Thomas Meyer.

Und es gibt weitere Gründe: Mangelnde Aufklärung, ungelöste Security-Fragen sowie die interne Abrechnung von IT-Leistungen, monieren IT-Fachleute, stünden einer schnelleren Einführung entgegen. Nicht zuletzt gebe es vielerorts Ernüchterung gegen die vollmundigen Ankündigungen der Hersteller. „Viele Anwender sind überrascht von den schwerwiegenden Konsequenzen, die eine großflächige Virtualisierung der IT-Infrastruktur mit sich bringt“, formuliert etwa ein Marktkenner.

Und das gilt nicht nur für die technische Seite. Denn der Aufbau großflächig virtualisierter IT-Landschaften erfordert eine komplette Abkehr vom bisher geltenden Paradigma, dass sich kurz und knapp in der Maxime „Eine Applikation – ein Server“ zusammenfassen lässt. Mit der Virtualisierung der Serverlandschaft löst sich auch die Zuordnung der IT-Infrastruktur zu den Fachabteilungen auf. Denn wenn an die Stelle der Hardware-Kosten plötzlich nutzungsabhängige Berechnungsmodelle treten, sind auch Unternehmensorganisation und interne Verrechnungsmodelle betroffen. Dann stellt sich plötzlich die Frage, wem die Infrastruktur intern gehört – und wer für ihre Finanzierung verantwortlich ist. Diese Aspekte geraten mit einer Sichtweise, die sich vorrangig auf Kosteneinsparung und technische Fragen richtet, allzu oft aus dem Blick.

Foto: Techconsult

Ein unverändertes Fortführen dieses Paradigmas würde nach Berechnungen von Analysten dazu führen, dass im Jahre 2010 weltweit rund 41 Millionen Server in Betrieb wären - bei einer durchschnittlichen Auslastung von unter zehn Prozent. Das entspricht einer Verschwendung von 140 Milliarden Dollar an ungenutzter Server-Kapazität. Bei einer Einsparung durch Virtualisierung von etwa 20 Prozent, die Marktkenner für realistisch halten, liegt hier ein riesiges Einsparpotenzial für die Unternehmen.

Dabei tun sich deutsche IT-Verantwortliche besonders schwer. Ohnehin werden bekanntermaßen neue technologische Trends im anglo-amerikanischen Bereich schneller adaptiert als bei uns, aber auch in Italien und Frankreich sind die Unternehmen im Hinblick auf Virtualisierung schon weiter vorangeschritten als in Deutschland. Und das liegt auch an dem ehernen Festhalten an betriebswirtschaftlichen Grundsätzen: Während woanders im Zuge der Virtualisierung oftmals auch nicht vollständig abgeschriebene Hardware ausgetauscht wird, halten sich die deutschen Unternehmen fast immer an die Abschreibungszyklen. Und die liegt bei Servern in der Regel zwischen drei und fünf Jahren. Die eigentliche Virtualisierungswelle steht deshalb noch bevor und wird erst im Gleichschritt mit den Abschreibungszyklen in die Unternehmen rollen.

Jedenfalls wenn es um die Virtualisierung der Server-Infrastruktur geht, die eine Vorreiterrolle einnimmt: „Man kann sagen, dass die Server-Virtualisierung in den IT-Abteilungen deutscher Unternehmen angekommen ist. Storage-Virtualisierung steckt hingegen noch weitgehend in den Kinderschuhen“, sagt Mrksa.

Nach seiner Studie sind es bisher nur rund zehn Prozent der Betriebe, die über virtualisierte Speicherumgebungen verfügen, ein weiteres Zehntel plant deren zukünftigen Einsatz. Die Gründe für die Zurückhaltung sind vielfältig. Als wichtigsten Grund gaben die Unternehmen an (74 Prozent), dass ihr Speicheraufkommen nicht so hoch sei, dass sie einen Bedarf an virtualisierten Speicherlösungen hätten.

Angesichts des überall rasant steigenden Speicherbedarfs und der Tatsache, dass fast zwei Drittel der Befragten eine ineffektive und kostenträchtige Auslastung ihrer Storage-Landschaft von unter 50 Prozent verzeichnen, darf man wohl davon ausgehen, dass es noch andere Gründe für die Zurückhaltung geben muss. So antworteten auf die Frage, „Was spricht in ihrem Unternehmen gegen eine Speichervirtualisierung?“ immerhin mehr als die Hälfte (57 Prozent) mit „wir haben uns noch zu wenig mit Virtualisierung beschäftigt“, für 20 Prozent war „die Technologie zu komplex“ und 16 Prozent bemängelten die „schwierige Administration.“

Foto: Techconsult

Mit anderen Worten: Es sind wohl eher fehlendes Fachwissen, dass die Anwender noch zögern lässt. Bei den meisten Unternehmen sind es nicht Kostenzwänge, sondern der Mangel an Storage-Spezialisten sowie die wechselnden Anforderungen an die IT-Abteilung. Denn die häufig schon Ressourcen bindenden Herausforderungen bei der Integration von Applikationen und Datenspeichern und das tägliche Management komplexer Storage-Landschaften stehen besonders bei Mittelständlern der großflächigen Einführung neuer Technologien entgegen. Denn die Virtualisierung der Server-Infrastruktur lässt sich ohne Einschränkung schrittweise - Applikation für Applikation – durchführen. Bei der Speicher-Virtualisierung bedarf es dagegen eines umfassenden Konzepts, das im besten Fall schon bei Beginn die gesamte Storage-Landschaft des Unternehmens oder doch große Teile davon einbezieht.

„Storage-Virtualisierung in dem Sinne, dass durch die besonders effiziente Virtualisierung nahe an der Speicherebene eine klare Trennung zwischen der logischen und physikalischen Schicht möglich wird, verstehen nur 38 Prozent der Befragten“, sagt Analyst Mrksa. Der überwiegende Teil begreife Speichervirtualisierung vielmehr als logische Zusammenfassung heterogener Storage-Systeme. Hier seien vor allem die Anbieter gefragt, den Unternehmen ihre Lösungen und Konzepte näher zu bringen und sie bei der Entwicklung umfassender Virtualisierungskonzepte zu unterstützen: „Bezüglich der Speichervirtualisierung liegen bisher noch ein fehlendes Lösungsverständnis und ein Mangel an praktischer Umsetzungsmöglichkeit vor“, resümiert Mrksa.

Foto: Techconsult

Trotz der zögerlichen Haltung bei der Storage-Virtualisierung und der vergleichsweise bedächtigen Implementierung virtualisierter Server-Architekturen: Die Virtualisierung ist ein Trend, der zumindest in den Köpfen der IT-Verantwortlichen angekommen ist und die Unternehmens-IT nachhaltig verändern wird. Man darf wohl davon ausgehen, dass die alte Regel „Eine Applikation – ein Server“ in wenigen Jahren nicht mehr gelten wird. Denn keine Unternehmen wird es sich langfristig leisten können, daran festzuhalten.