Server-Virtualisierung

Vom Mainframe lernen

Holger Eriksdotter ist freier Journalist in Hamburg.
Was in homogenen Mainframe-Umgebungen ein alter Hut ist, findet langsam Eingang in die heterogene Serverwelt. Die dafür notwendige Virtualisierungstechnik ist reif geworden.

Nach Jahren der KonsolidierungKonsolidierung spielt die Flexibilität der IT heute wieder eine wichtige Rolle für die Wettbewerbsfähigkeit von Unternehmen. Die IT soll schnell und zuverlässig auf Geschäftsanforderungen reagieren, Applikationen und Funktionen rasch und effizient bereitstellen. Für den IT-Betrieb sind aus diesem Grund anpassbare Strukturen und insbesondere kurze Inbetriebnahmezeiten gefordert. Aber während viele Unternehmen schon lange in die Optimierung des Prozess-Managements investieren, haben sie die Flexibilisierung der Plattform oft vernachlässigt. Nicht selten verzehrt allein der laufende IT-Betrieb 80 bis 90 Prozent des IT-Budgets. Alles zu Konsolidierung auf CIO.de

„Um Mittel für Investitionen in IT-Neuentwicklungen zu gewinnen, müssen die Unternehmen ihre IT-Betriebskosten senken. Zudem werden vom IT-Betrieb zunehmende Geschwindigkeit beim Deployment und größere Flexibilität erwartet. Die meisten Rechenzentren sind darauf noch nicht eingestellt“, sagt Ricco Deutscher vom Beratungsunternehmen McKinsey.

Ein erheblicher Teil der Kosten für den Betrieb von Server-Farmen sei dadurch bedingt, dass die insgesamt bereitgestellte Rechenleistung nur zu einem kleinen Anteil tatsächlich abgefordert wird. „Üblicherweise werden in einem RechenzentrumRechenzentrum weniger als 20 Prozent der verfügbaren Server-Kapazität genutzt. Die traditionellen Hebel zur besseren Auslastung wie Rightsizing und Application Stacking haben oft ihre Grenzen erreicht“, hat Deutscher beobachtet, der auf geschäftsbezogene Fragen der IT-Architektur spezialisiert ist. Alles zu Rechenzentrum auf CIO.de

Um die Auslastung zu erhöhen, soll VirtualisierungVirtualisierung helfen. „Virtualisierung bietet ein enormes Potenzial für die Optimierung von Server-Landschaften und die Flexibilisierung der IT-Architektur“, sagt McKinsey-Berater Deutscher. Die Theorie: Durch Virtualisierung werden Applikationen und ihre Daten von den Hardware-Ressourcen entkoppelt. Auf diese Weise wird es möglich, diese Ressourcen in einem Pool zu sammeln und den Applikationen nach Bedarf zuzuweisen. Die Server können dann nicht nur schneller und flexibler eingesetzt werden, auch die Auslastung lässt sich erheblich verbessern. Eine Steigerung von jetzt um die zehn bis 20 Prozent auf X86-Maschinen bis zur Größenordung von Mainframes – also 60 bis 80 Prozent – ist nach der Einschätzung von Experten realistisch. Alles zu Virtualisierung auf CIO.de

Dass die Technik das Experimentierstadium längst verlassen hat, sagt auch Thomas Meyer, Director EMEA Enterprise Server Solutions beim Marktforschungs- und Beratungsunternehmen IDC. Aus einer Umfrage im vergangenen Jahr unter 420 IT-Verantwortlichen ging hervor, dass Server-Virtualisierung in Unternehmen schon weit verbreitet ist. „Auf rund 50 Prozent der virtuellen Maschinen laufen sogar unternehmenskritische Anwendungen. Die Technik ist also ohne Zweifel praxistauglich“, stellt Meyer fest. Treibende Kraft für den zunehmenden Einsatz von Virtualisierungs- und Dynamisierungstechnologien ist der Druck auf die CIOs: Sie sollen die IT über einzelne ProjekteProjekte und den Betrieb der Anwendungslandschaft hinaus zu einem strategischen Mittel entwickeln, das die Wettbewerbsposition des Unternehmens stärkt. Alles zu Projekte auf CIO.de