Konkurrenz für IBM-Mainframes

Die Folgen der x86er-Virtualisierung

16.09.2010 von Hartmut  Wiehr
Die Virtualisierung bei Mainframes hat Einzug bei x86-Servern gehalten. Neue Technologien, Skalierbarkeit und Hypervisoren könnten Konsequenzen auch für die Zukunft der klassischen IBM-Mainframes haben.

Unterschiedliche Segmente mit je eigenen Betriebssystemen und Applikationen nebeneinander und unabhängig voneinander zu betreiben, ist in der Welt der Computer nichts Neues. Es war jahrzehntelang die Domäne der Mainframes und Unix-Server. Dennoch ist diese Technologie der Virtualisierung eines physikalischen Rechners erst so richtig mit VMware und Xen Server in das allgemeine Bewusstsein der IT-Öffentlichkeit gerückt.

Der Mainframe - für IBM nicht nur die Mutter aller Computer, sondern auch Geburtsort der modernen Virtualisierung. (Foto: IBM)

Die gemeinsame Nutzung von Ressourcen, insbesondere wenn diese sehr leistungsfähig sind, ist der logische Ausgangspunkt von Virtualisierung. Historisch kam es zuerst zur Hardware-Partitionierung: Hauptspeicher und Prozessoren wurden entlang ihrer physikalischen Grenzen aufgeteilt, noch nicht in einer logischen oder virtuellen Form über diese Basis hinweg. Der "Partitioning Controller" regelte die Zuteilung der Partitionen, in denen verschiedene Betriebssysteme und Anwendungen laufen konnten.

Ingolf Wittmann, Technical Director Europe der Systems and Technology Group (STG) bei IBM, sieht diese Technik, die zunächst beim Mainframe System 370 zum Einsatz kam, später auch bei Sun- oder HP-Unix-Servern, als Geburtsort der modernen Virtualisierung. IBM selbst konnte schon sehr bald Logical Partitions einführen, die sich bei der Ressouren-Aufteilung von den physikalischen Begrenzungen unabhängig machten, so wie es die Virtualisierung bei x86-Servern heute tut.

Eine Gruppe von Forschern um Diane Greene herum hat dann 1998 an der kalifornischen Universität Berkeley die Idee gehabt, diese Technologie aus der Mainframe- und Unix-Welt auf Intel- und AMD-Rechner zu übertragen. Etwa zeitgleich entwickelten Forscher an der englischen Universität Cambridge die Open-Source-Lösung Xen, die unter anderen von Citrix kommerzialisiert wurde. Sie ist auch in das Virtualisierungsangebot von Microsoft eingegangen.

Laut Wittmann zeichnete sich bei den x86-Servern bereits ab, dass auch hier die Prozessoren im Verhältnis zu den Anwendungen immer leistungsfähiger werden würden. Virtualisierung wurde als Ausweg aus dem Dilemma gesehen. Sie sollte auch hier dazu führen, diese überschüssige Leistung gleichmäßig, sicher und "gerecht" auf verschiedene Nutzungen zu verteilen ("shared computing").

x86-Server holen mit Virtualisierung mächtig auf

Zunächst bei Supercomputern eingesetzt, wo kostengünstige massiv-parallele Systeme benötigt wurden, sieht Wittmann im kommerziellen Bereich eine ähnliche Entwicklung: Schon seit Jahren gebe es keine Anwendung mehr, die einen Intel- oder AMD-Prozessor komplett ausgenutzt hätte. Bei den Prozessoren mit mehreren Kernen sei zudem eine strikte Abgrenzung schwierig gewesen, um verschiedene Betriebssysteme nebeneinander zu fahren.

Mit beiden Entwicklungen – immer größere Leistungsfähigkeit der CPUs und Aufteilung der Ressourcen durch Virtualisierung – haben x86-Rechner laut Wittmann den Anschluß an die großen Brüder bei Unix und Mainframe gefunden. VMware und andere hätten die Lücke geschlossen, da Intel nicht in der Lage gewesen wäre, die Prozessoren auf verschiedene Betriebssysteme aufzuteilen.

Was Wittmann nicht sagt: Damit ergeben sich auch ganz neue Perspektiven für die Skalierbarkeit von x86-Servern. Cisco, EMC und NetApp basteln zusammen mit VMware bereits an riesigen Blade-Architekturen. Hier könnte eine Art von Intel-Mainframes entstehen, nur ein bisschen billiger und mit der gesamten Palette der heute verbreiteten Applikationen auf Windows-Basis ausgestattet.

Für Wittmann deutet sich eine andere Entwicklung an: Intel hat Komponenten für Virtualisierung in die Prozessorarchitekturen aufgenommen, und verschiedene Server-Hersteller haben damit begonnen, Hypervisor-Funktionen und vor allem das Management von virtuellen Maschinen in ihre Systeme zu integrieren.

Hypervisoren übernehmen Aufgaben von Betriebssystemen

Hypervisoren ergänzen für Wittmann die Aufgabe von Betriebssystemen wie die Verwaltung von Memory, I/O oder Prozessoren. Das Grundprinzip bleibe erhalten, auch wenn der Anteil der Funktionen, die die Virtualisierung übernimmt, steigt.

Red Hat habe mit KVM allerdings eine Virtualisierungserweiterung direkt in das Betriebssystem hineingebracht. Wittmann sieht sich bestätigt: IBM hat das auf dem Mainframe mit zVM schon in den siebziger Jahren des letzten Jahrhunderts gemacht, und bei z/Linux geht man heute den gleichen Weg mit der Integration von Virtualisierung in das Betriebssystem.

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.