Client-Virtualisierung

Das Matroschka-Prinzip

08.11.2004 von Wolfgang Miedl
Mit virtuellen Maschinen laufen mehrere Rechner auf der Hardware eines Desktops parallel nebeneinander. Marktführer VMware und Microsoft versprechen damit mehr Flexibilität, einfacheres Management sowie mehr Sicherheit.

Lange Zeit waren virtuelle Maschinen ein Nischenmarkt. Nachdem aber das von EMC übernommene Unternehmen VMware bereits Erfolge bei der softwarebasierenden Konsolidierung von Intel-Severn verzeichnen konnte, soll diese Technik nun auch auf dem Desktop stärkere Verbreitung finden. Michael Silver, Vice President Research und Research Director beim US-Beratungsunternehmen Gartner, sieht vor allem im Markteintritt Microsofts ein klares Indiz für diesen Trend: "Microsofts Übernahme von Connectix sowie die Veröffentlichung von Virtual PC 2004 Ende vorigen Jahres deuten darauf hin, dass der Markt reif ist für die Client-Virtualisierung."

Die Virtualisierungstechnik hebt die alte Faustformel "ein Rechner, ein Betriebssystem" auf: Mittels einer Software auf dem Betriebssystem des Host-PCs können mehrere Software-PCs installiert werden. Diese virtuellen Rechner sind dabei aber sowohl vom Host-System als auch gegeneinander logisch völlig abgeschottet. Damit ist es möglich, beispielsweise eine eigenständige Linux-Installation auf dem Windows-Desktop im Fenster zu betreiben oder Windows-Anwendungen auch auf dem Mac laufen zu lassen.

Viele Systeme, eine Hardwarebasis

Virtuelle Maschinen (VMs) täuschen auf Softwarebasis echte Hardwareschnittstellen wie CPU, Grafikkarte, Festplatte oder USB-Anschluss vor und steuern die gesamte Systemkommunikation zwischen dem in ihr installierten Gast-Betriebssystem, dem Host-Betriebssystem und der echten Hardware. Je nach Ausstattung des Host-PCs können darauf mehrere Betriebssysteme wie Windows XP, Windows 2000, Linux oder OS/2 parallel auf einer Maschine laufen.

Die Workstation-Variante VMware 4.5 und Microsofts Virtual PC 2004 wurden bisher vor allem im Bereich Softwaretests, Produktvorführungen und Schulungen eingesetzt. Der große Vorteil ist hier, dass zum einen der Aufbau aufwändiger Testumgebungen entfällt - wo früher fünf PCs notwendig waren, reicht jetzt ein Rechner. Außerdem erleichtern virtuelle Maschinen die Installation und Verwaltung: Ein virtueller Rechner mitsamt der installierten Betriebssystem- und Anwendungssoftware wird als Paket in einer einzigen Datei gespeichert. Bei einer Reparatur wie auch beim Klonen eines Systems muss lediglich das System-Abbild (Image-Datei) kopiert und über das Netz an die betreffenden Rechner verteilt werden.

Mit zunehmender Reife der VM-Technik bieten sich vielfältige Möglichkeiten, um virtuelle PCs gewinnbringend auf Desktops einzusetzen. So gehen die Analysten von Gartner davon aus, dass die PC-Virtualisierung den Wechsel auf neue Soft- und Hardwareplattformen vereinfache: "Auch alte Anwendungen können auf diese Weise auf einer neuen Plattform ohne Modifikationen betrieben werden. Damit lässt sich Legacy-Software auch weiterhin einsetzen, ohne grundlegende Plattform-Upgrades verschieben zu müssen", erläutert Silver.

Bei Migrationen steht vor allem die Kompatibilität im Vordergrund. Stellt ein Unternehmen auf eine neue Softwareumgebung um, müssen zuvor üblicherweise umfassende Tests für Altanwendungen gefahren werden. Mit VMware oder Virtual PC hingegen ist man aus dem Schneider. Egal, wie die neue Plattform aussieht - auf der Basis eines virtuellen PCs kann das ausgereifte Altsystem garantiert auch auf der neuen Plattform in einer VM weiterlaufen. Und selbst die leidigen Probleme mit vielfältigen Hardwarekonfigurationen lassen sich einfach lösen: VMware und Co. stellen intern stets eine identische virtuelle Hardware bereit, egal wie das darunter liegende Host-System aufgebaut ist. Ein einziges Image kann also firmenweit als Einheitsumgebung betrieben werden - unabhängig davon, wie unterschiedlich die Rechner ausgestattet sind.

Zudem ermöglichen VMware und Virtual PC auch den Betrieb einer sehr sicheren Client-Umgebung, in der sich Gefahren wie Hackerattacken oder Viren- sowie Wurmbefall minimieren lassen. Interessant ist diese Option vor allem bei der Anbindung mobiler Mitarbeiter oder externer Berater und anderer Gäste, die firmeneigene Ressourcen und Daten nutzen sollen. Die Idee ist hierbei, den Zugriff nur über ein vorkonfiguriertes und nicht modifizierbares System-Image zu erlauben. Die Administration würde sich dabei drastisch vereinfachen - weder müssten die zugreifenden Clients auf eventuellen Schädlingsbefall überprüft noch auf einen aktuellen Patch-Stand gebracht werden, weil nicht das native Betriebssystem des Anwenders, sondern nur die eigenen, gesicherten VM-Endpunkte mit dem Firmennetz in Berührung kommen.

Auch beim Desktop-Lockdown, dem "Abschotten" eines Rechners, bieten sich virtuelle Maschinen als Lösungsalternative an, wie Silver erläutert: "Die Idee hinter einer Virtualisierung in Verbindung mit Lockdown ist, dass einem Anwender zwei Umgebungen bereitgestellt werden. Eine davon ist "unlocked", der Benutzer kann darin tun, was er will, die andere ist von der IT-Abteilung verwaltet und nicht modifizierbar." Gartner legt hier die Annahme zugrunde, dass sich nur in wenigen Firmen ein einheitlicher und restriktiv abgeriegelter Desktop durchsetzen lässt. Bietet man jedoch einzelnen Mitarbeitern und Benutzergruppen eine Installations- und Konfigurationsfreiheit, so erschwert man die Administration und eröffnet zusätzliche Angriffsflächen. Als administrationsarme Lösung bieten sich vorgefertigte VM-Images an - und zwar in zwei Varianten. Entweder darf der Anwender sein Host-System eigenverantwortlich konfigurieren, die unternehmenskritischen Anwendungen laufen dann in einem geschützten, nicht manipulierbaren VM-Image. Oder aber das Host-System ist administrationsfreundlich abgeriegelt, alle Experimente und Installationen dürfen nur innerhalb von VMware oder Virtual PC stattfinden. VMware hat mit "VMware ACE" bereits ein Produkt angekündigt, das genau dieses Anwendungsmodell unterstützen soll - Konfigurieren, Verteilen und Verwalten von Client-Images.

Noch sehen die Analysten jedoch einige Fragezeichen beim Einsatz von VMs auf dem Desktop. So ist Gartner-Mann Silver der Ansicht, dass Anwender möglicherweise überfordert sind: "Für die Benutzer stellt die virtuelle Maschine am Desktop ein zweites Betriebssystem mit einer zusätzlichen Bedienoberfläche dar. Weniger Geübte dürften hierbei Schwierigkeiten haben." Auch bei der Lizenzierung seien noch einige Fragen offen. So erlaubt zwar Microsoft neuerdings im Rahmen von Firmenlizenzen wie Software Assurance den parallelen Betrieb von zwei Windows-Kopien auf einem PC. Bei Office hingegen sind nur die Nutzung der aktuellen sowie einer Vorgängerversion gleichzeitig erlaubt. Laut Silver haben sich bisher die meisten Anbieter noch nicht mit der Lizenzproblematik von virtuellen Maschinen auf dem Desktop befasst. Für die Anwender bedeutet das, dass sie die Lizenzbestimmung eines jedes einzelnen Hersteller dahingehend überprüfen müssen, ob der Vertrag pro User, pro Gerät oder pro Windows-Instanz gilt.

Neue Chips sollen Leistung steigern

Außerdem stellt die verringerte Systemleistung einen Knackpunkt dar. Entgegen der anhaltenden Beteuerungen der Hersteller bremst eine virtuelle Maschine durch die Umleitung von Daten und Befehlen die Arbeitsgeschwindigkeit gegenüber der des Host-Systems. Unter der Virtualisierung leidet vor allem die interne Schreib- und Lesegeschwindigkeit von Daten zwischen Geräten wie Speicher, Festplatte oder Netzwerkschnittstelle. Intel hat hier offenbar den Handlungsbedarf erkannt und bereits Ende vorigen Jahres unter dem Codenamen "Vanderpool" einen Chip angekündigt, der mit erweiterten Befehlen die Leistung von virtuellen Maschinen verbessern soll. Allerdings erwarten Experten solche Chips nicht vor 2007 am Markt.

Peter O'Neill, Vice President EMEA bei der Meta Group, schätzt daher die derzeitigen Marktchancen von virtuellen Maschinen am Desktop noch als gering ein: "Das ist noch Zukunftsmusik, die IT-Organisationen sind am Client noch mit anderen Administrationstechniken beschäftigt." O'Neill geht davon aus, dass die meisten Unternehmen im Bereich Sicherheit und Lockdown auch noch in nächster Zukunft bevorzugt auf klassische Tools für das Software- und Asset-Management setzen werden.