Desktop, Client, Server, Anwendung

Was ist was bei der Virtualisierung

11.10.2012 von Johann Baumeister
Serverinfrastrukturen zu virtualisieren gehört für einen IT-Verantwortlichen heute zum Alltag. Doch auch die Virtualisierung der Desktops, der Clients und der Applikationen entwickelt sich rasant.
Basiswissen von der Client-Virtualisierung bis zur Rechenzentrumsvirtualisierung.
Foto: Thomas Hammer - Fotolia.com

Durch die Virtualisierung von Servern wurden die Techniken der virtuellen Nachbildung von Umgebungen etabliert. Sie ist aber längst nicht mehr auf Server beschränkt, sondern wird auch in anderen Zweigen der IT-Nutzung angeboten und eingesetzt. Dabei hat jede der virtuellen Spielarten eigene Anforderungen, aber auch Einsatzzwecke. Worin diese liegen, wollen wir unter anderem in diesem Beitrag aufzeigen.

Neben der schon traditionellen Virtualisierung von Serversystemen ist heute die virtuelle Nachbildung von Applikationen, Desktops, Clients, der Präsentationsschicht oder auch Speichersystemen möglich. Dabei sind die prinzipiellen Konzepte so neu nicht. Die Nachbildung von physisch nicht realen Systemen durch virtuelle Ebenbilder ist so alt wie die Rechner selbst. In den folgenden Erläuterungen soll daher der Bogen über alle Möglichkeiten der virtuellen Nachbildung gespannt werden. Dies schließt die Servervirtualisierung ein, endet aber nicht bei ihr.

Zehn IT-Bereiche mit Handlungsbedarf
Zehn IT-Bereiche mit Handlungsbedarf
Client-Strategie, Virtualisierung, Cloud oder Business Intelligence - viele IT-Leiter sind in diesen Bereichen nicht auf der Höhe der Zeit. Experton-Analyst Luis Praxmarer hat 10 Technologiebereiche identifiziert, für die im Jahr 2012 unbedingt Handlungsbedarf besteht.
1. Traditionelle Clients
Für WINTEL Client-Installationen steht im Jahr 2012 eigentlich die Migration nach Windows 7 an. Für ein Hinausschieben und Verzögern dieser Migration spricht nicht viel. Die Auswahl der richtigen Lizenzierungs- und Wartungsstrategie ist sehr wichtig. Dieser Bereich ist zwar nicht von strategischer Bedeutung, hat aber starke Auswirkungen auf die Client- und Supportkosten. Windows 8 kommt in Einzelfällen bereits zum Einsatz; eine Bereinigung der Betriebssystemlandschaft ist sehr zu empfehlen.
2. Neue Client-Strategie
Parallel zur Migration und Bereinigung der Windows-Umgebung verzeichnen Smartphones und Tablets einen stark steigenden Nutzungsgrad. Deshalb stehen eine Evaluierung einer BYOD- (Bring Your Own Device) Strategie und Tests für eine ausgewählte Gruppe an. Wegen der schnellen Veränderungen im Markt, der vielen Betriebssysteme und der hohen Komplexität sollten nicht gar zu viele gerätespezifische Apps entwickelt werden.
3. Virtualisierung
Nachdem die meisten Unternehmen die Servervirtualisierung in Angriff genommen haben - auch wenn die Durchdringungsrate in vielen Fällen bei nicht einmal 30 Prozent liegt - stehen nun Client- und Storage-Virtualisierung an. Die Client-Virtualisierung soll die Kontrolle über und das Management von BYOD-Umgebungen ermöglichen und gleichzeitig auch in Zukunft die Sicherheit der Unternehmens-Apps gewährleisten. Mit der Applikationsvirtualisierung wurde bislang nur in wenigen Unternehmen begonnen.
4. Cloud Computing
Cloud Computing wird in allen IT-Bereichen vorangetrieben, von IaaS oder Storage as a Service im Unternehmensumfeld bis hin zu eher privaten Nutzungsszenarien und SaaS-Applikationen. Die IT-Abteilung muss Technologien für den gesamten Stack einer Untersuchung unterziehen, die bestehende Architektur sowie die Unternehmensanforderungen auf den Prüfstand stellen und eine entsprechend angepasste Strategie entwickeln. Anhand von Pilotprojekten können erste Erfahrungen gewonnen werden.
5. Enterprise 2.0
Web 2.0 hält in den Unternehmen Einzug und wird bereits von einigen genutzt; viele sind damit aber eher überfordert. Anstatt auf statischen Webseiten eine Fülle an Informationen anzubieten, hat sich das Spiel jetzt drastisch verändert. Die meisten Unternehmen haben Schwierigkeiten damit, die damit verbundenen Möglichkeiten zu verstehen und sie in ihre IT-Systeme mit einzubeziehen oder gar eine Integration ins Auge zu fassen.
6. BI/EPM/BPM, Big Data
Dieses Thema spielt aus einer anderen Perspektive auch bei den CIO-Prioritäten eine Rolle, muss aber auch aus technologischer Sicht analysiert werden. In den meisten Unternehmen finden sich isolierte BI-Lösungen, hinter denen keine klare Stammdatendefinition steht; damit ist es schwierig, den nächsten Schritt zu tun und diese Insellösungen in eine unternehmensweite Enterprise Performance Lösung zu integrieren. Im Bereich Big Data bzw. große Datenvolumen müssen eine ganze Reihe von technologischen Herausforderungen untersucht werden.
7. Identitätsmanagement
Das Thema Identitätsmanagement steht schon seit einer ganzen Weile auf den Prioritätenlisten ganz weit oben; jetzt gewinnt es auch im Zuge der Cloud-Implementierung eine fundamentale Bedeutung. Hier muss ein Framework entwickelt werden, um unter anderem Themen wie Single Sign-On, Provisioning, Rückverrechnung und Sicherheit zu adressieren. Identitätsmanagement ist ein Schwerpunktthema für das Computing der Zukunft, denn der Zugriff erfolgt von überall aus und über alle Arten von Endgeräten.
8. ERP, CRM, SCM Future
In den meisten IT-Organisationen existiert mittlerweile eine solide und stabile ERP-Umgebung. Sie funktioniert, aber agil ist sie nicht, und was noch schlimmer ist, sie kostet ein Vermögen. In manchen Unternehmen wird bis zu ein Prozent des Gesamtumsatzes in den ERP-Betrieb gesteckt. Das ist in Zukunft nicht mehr akzeptabel und muss im Laufe der nächsten Jahre signifikant verbessert werden. Die vorhandenen ERP-Lösungen sind zudem veraltet und müssen nach und nach modernisiert werden.
9. Software as a Service
Software as a Service ist Bestandteil des Cloud Computings, muss aber auch aus einer anderen Perspektive angegangen werden. Viele IT-Organisationen haben mit IaaS (Infrastructure as a Service) so ihr Probleme, doch die Nutzer profitieren von SaaS. Viele Lösungen, die oft nur für eine kleine Gruppe von Anwendern benötigt werden, können jetzt sehr schnell und kostengünstig genutzt werden und sorgen so für einen unmittelbaren Mehrwert und Nutzeneffekt. Hinzu kommt, dass die Generation der "Digital Natives" mit dieser Art des Computings voll und ganz vertraut ist.
10. Konsumerisierung
Mit der Einführung des iPods hat Apple das traditionelle Computer-Geschäft verlassen. Durch den Fokus auf die Verbraucher wurde Apple zur Computerfirma mit dem höchsten Unternehmenswert und hat mit dem iPhone und dem iPad den Weg zurück ins Unternehmen geschafft. ARM Chips, wie sie in Smartphones zum Einsatz kommen, verfügen über ein besseres Preis-Leistungs-Verhältnis im Serverumfeld und bieten Intel als Konkurrenz die Stirn. Google und Amazon sind weitere Beispiele für den zunehmenden Konsumerisierungstrend, der von der IT berücksichtigt werden muss.

Client-Virtualisierung

Die Client-Virtualisierung ermöglicht die dynamische Bereitstellung von Client-Desktops. Sie ist, was die technische Umsetzung betrifft, der Virtualisierung von Servern ähnlich. Die Client-Virtualisierung zielt allerdings auf den Einsatz für Benutzer-Notebooks. Das System erlaubt den parallelen Betrieb von mehreren Anwendungssystemen auf einem Benutzer-Notebook. Damit lässt sich beispielweise ein Notebook sowohl für den geschäftlichen als auch für den privaten Einsatz verwenden.

Neuester Spross aller Virtualisierungsmodelle ist die Client-Virtualisierung. Durch sie lassen sich die Konzepte von "Bring your own Device" (ByoD) umsetzten. Bei ByoD sollen die Benutzer ihre eigenen Arbeitsgeräte in das Unternehmen mitbringen. Mithilfe der passenden Verwaltungssoftware, beispielweise eben die Client-Virtualisierung, werden diese dann an die jeweiligen unternehmensspezifischen Anforderungen angepasst. Durch die Trennung der Systems in den unternehmensspezifischen und privaten Anteil sind Sicherheitsübergriffe ausgeschlossen oder zumindest erschwert.

Der Client-Hypervisor ermöglicht dabei den Betrieb mehrerer paralleler Clients auf einem einzigen Gerät. Der größte Unterschied zur Servervirtualisierung liegt in den Aspekten der Leistung, der Ausfallsicherheit, der Flexibilität und all der fortgeschrittenen Funktionen, die im Rechenzentrum benötigt werden. Bei der Nachbildung von Servern werden mehrere virtuelle Server in einem Host zusammengefasst. Bei der Client-Virtualisierung hingegen werden mehrere Client-Betriebssysteme gruppiert. Zu den bekanntesten Vertretern der Letztgenannten zählt XenClient von Citrix.

Client-Virtualisierung kurz und bündig:

Desktop-Virtualisierung

Die Virtualisierung von Desktops zielt, wie auch die von Applikationen, auf den Benutzer-Desktop. Dieser läuft vollständig auf einem zentralen Server. Zum Benutzer hin übertragen werden nur die Bildschirmausgaben. Der Unterschied zu Präsentationsvirtualisierung besteht darin, dass der Benutzer einen vollständigen Desktop zugewiesen erhält. Hierbei werden unterschiedliche Modelle angeboten.
Der Standard-Desktop etwa könnte über die Techniken der Präsentationsvirtualisierung abgebildet werden. Individuelle Desktops verlangen aber einen eigenen Rechner auf der Serverseite. Dieser Rechner wiederum kann bei hohem Leistungsbedarf durch einen Blade-Einschub im Rechenzentrum realisiert sein.

Studie zur Desktop-Virtualisierung
Studie zur Desktop-Virtualisierung
Fat Clients sind teuer. Eine PAC-Studie belegt, dass Firmen für mehr Effizienz und Mobilität zunehmend zu virtuellen Desktops tendieren.
Einsatz von PC-Management
Etwa ein Viertel der mittelständischen Unternehmen in Deutschland setzt laut einer Studie von PAC ...
Einsatz von Desktop-Bereitstellung
... nach eigenen Angaben bereits Desktop-Virtualisierung ein. Nach den Erfahrungen von Providern wie ...
Einsatz von Anwendungs-Bereitstellung
... Pironet NDH sind es in der Praxis jedoch nur etwa 10 Prozent.
Erzielter Kosteneinsparungen durch VDI
Ein positiver Effekt von Desktop-Virtualisierung: Die IT-Kosten im Vergleich zu dezentral vorgehaltenen Arbeitsplatzumgebungen sind niedriger.
Erfahrungen beim Einsatz virtualisierter Desktop-Bereitstellung
Mittelständler, die virtualisierte Desktops einsetzen, sind mit den Ergebnissen hoch zufrieden. Neben der größeren Flexibilität der Mitarbeiter schätzen sie die höhere Verfügbarkeit und Vorteile bezüglich der Einhaltung von Compliance-Richtlinien.

Bei weniger leistungshungrigen Umgebungen kann der Desktop wiederum in einer virtuellen Serverumgebung nachgebildet werden. Neben diese Variante der festen Zuordnung des Benutzers zu seinem zentralen Rechner existieren allerdings auch Mischformen. Durch Connection Broker erfolgt dann beim Verbindungsaufbau des Benutzers die Zuweisung eines virtuellen Desktops an den Benutzer. Dieser wiederum wird dann, wenn benötigt, aus einem vorbereiten Pool entnommen oder neu aufgebaut.

Desktop-Virtualisierung kurz und bündig:

Servervirtualisierung

Bei der Servervirtualisierung wird ein x86-Rechner weitgehend vollständig virtuell nachgebildet. Im Kontext dieser Emulation wird dann ein weiteres Betriebssystem ausgeführt. Hierbei handelt es sich meist um ein Serverbetriebssystem und die darauf laufenden Programme. Davon hat sich auch der Begriff der Servervirtualisierung abgeleitet, obgleich diese nicht auf einen Server eingeschränkt ist, sondern einen x86-Rechner nachbildet. Die Zielsetzung der Servervirtualisierung liegt in einer besseren Auslastung der physischen Server. Durch die Virtualisierung werden nun mehrere Serversysteme parallel ausgeführt. Somit steigt die Auslastung des physischen Gerätes, des Hosts.

Die virtuellen Gäste beinhalten ihrerseits ein eigenes Betriebssystem und sind voneinander unabhängig. Die Grundlage dafür bildet ein Hypervisor. Er kümmert sich um die Speicher-, Prozess- und IO-Verwaltung, setzt direkt auf der Hardware auf und kontrolliert sie. Auch die virtuelle Nachbildung der Rechner für die Gäste gehört zu seinen Aufgaben. Dies aber kostet Zeit und Rechenressourcen. Um den Einsatz zu optimieren, sind die CPU-Hersteller dazu übergegangen Virtualisierungsfunktionen direkt in die CPUs zu integrieren. Die aktuellen Hypervisoren benötigen allesamt die Unterstützung der Virtualisierung durch die Host-CPU.

Servervirtualisierung kurz und bündig:

Applikationsvirtualisierung

Bei der Applikationsvirtualisierung wird, anders als bei der Servervirtualisierung, nicht ein Rechnersystem, sondern die Ausführumgebung für eine Applikation, also eigentlich ein Betriebssystem, virtuell nachgebildet. Die Applikationsvirtualisierung zielt damit in erster Linie auf die Client-Desktops und die dort ausgeführten Anwendungen. Prinzipiell könnte es sich auch um eine Serverapplikation handeln, denn auch hier ist die Abgrenzung weniger eine technische als eine, die durch den Einsatzzweck bestimmt wird. Die Grundlage aufseiten des Benutzers stellt, wie auch heute, ein Windows-Betriebssystem dar. Auf diesem Gerät können Applikationen fest installiert sein. Die virtualisierten Applikationen jedoch kommen immer von einem zentralen Server oder anderen Speicherstellen, auf die das Client-Gerät Zugriff hat. Der Benutzer erhält in der Regel lediglich einen Link auf den zentralen Speicherplatz und die Applikation auf seinem Desktop oder das Startmenü. Wenn er diesen Link aktiviert, so wird die Applikation geladen und ausgeführt. Hierfür hat sich auch der Begriff des Streamings etabliert.

Die Applikationsvirtualisierung hat eine Reihe von Vorteilen. Erstens entfallen all die Schritte, die bei einer festen Installation einer Software auf den Benutzergeräten notwendig sind. Die sind in vereinfachter Darstellung das Schnüren eines Installationspaketes, dessen Verteilung auf die Zielgeräte und der Anstoß der Installation aus diesen Paketen heraus. Zwar werden diese Prozesse durch eine Vielzahl an Client-Management-Suiten unterstützt, aber Aufwand verursachen die Abläufe dennoch. Zweitens treten bei den installierten Applikationen mitunter Inkompatibilitäten auf, die sich derart äußern, dass bestimmte Anwendung sich gegenseitig stören. Die gilt nicht nur für die reine Laufzeit, sondern generell. Sobald ein Applikation einmal installiert wird, kann es passieren, dass just eine andere Anwendung nicht mehr lauffähig ist und umgekehrt.

Der dritte Schwachpunkt der festen Installation von Anwendungen - und damit der dritte Vorteil der Virtualisierung - liegt darin, dass von einer Anwendung, obgleich sie wieder deinstalliert wurde, Reste in der Registry oder im Dateisystem zurückbleiben, die ihrerseits wieder zu Problemen führen können. Vorteile hat die Applikationsvirtualisierung auch im Hinblick auf die Sicherheit der Desktops und dessen Daten. Wie erwähnt, laufen die virtualisierten Applikationen in einer eigenen Betriebssystemumgebung. Dabei werden sowohl die Registry als auch das Dateisystem von Windows nachgebildet. Alle Änderungen, welche die virtualisierte Applikation vornimmt, betreffen ausschließlich diese virtualisierten Umgebung, deren Registry und Dateisystem. Handelt es sich bei der virtualisierten Applikation allerdings um eine zentrale Dateien oder etwa die Inhalte einer zentralen Datenbank, so gilt dies natürlich nicht.

Die Nachteile der Applikationsvirtualisierung bestehen darin, dass sie eine gute Netzwerkanbindung an den zentralen Server, von dem sie die Applikation beziehe, aufweisen müssen. Dies gilt zumindest für den Zeitpunkt des ersten Aufrufs der Applikation, den sie muss ja schlussendlich erst geladen werden.
Um das Laden der Applikation zu optimieren, hat man sich jedoch diverse Techniken einfallen lassen. Durch die Pufferung muss die Applikation somit nur ein einziges Mal über das Netz transferiert werden. Mithilfe der etablierten Client Management Suiten lassen sich die virtualisierten Applikationen auch in größeren Mengen effizient verteilen. Ein weiterer Schwachpunkt kann in der Separierung der Laufzeitumgebung liegen - ein Aspekt, der weiter oben unter den Vorzügen erwähnt wurde. Ein virtualisierte Applikation kann daher keinen Datenaustausch mit anderen Applikationen vornehmen.

Applikationsvirtualisierung kurz und bündig:

Präsentationsvirtualisierung

Die Applikationsvirtualisierung ist für den Benutzer-Desktop gedacht. Sie führt damit zu einem ähnlichen Ergebnis wie die Präsentationsvirtualisierung, ist aber gänzlich anders umgesetzt.
Bei der Präsentationsvirtualisierung wird nur die Darstellung der Bildschirminhalte, also die Präsentationsschicht einer Applikation, virtuell nachgebildet. Sie läuft dann getrennt von der Applikationslogik. Das Verfahren orientiert sich an der Aufteilung der Applikation in mehrere Schichten (3 Tier). Heute findet sich die Umsetzung der Präsentationsvirtualisierung vor allem in den Produkten von Citrix und deren XenApps (früher Presentation Server) und Microsoft und ihren Terminal Services wider.
Die Applikationen laufen dabei auf einem zentralen Server, die oftmals in größeren Gruppen einer Farm zusammengeschlossen werden. Dabei teilen sich alle der Farm zugeordneten Benutzer einen gemeinsamen Rechner. Die größten Vorzüge diese Konzeptes liegen im vereinfachten Management: Die Verwaltung der Farm, ihrer Benutzer und Applikationen erfolgt ausschließlich serverseitig, Eingriffe auf dem Client sind, außer dem Einrichtern der Verbindung zur Farm, nicht notwendig.

Die traditionelle Softwareverteilung entfällt beziehungsweise wird zu einer Zuweisung. Damit ist dieses Verfahren unschlagbar in puncto Verwaltung und Zuweisung von Software für die Benutzer. Die Nachteile des Verfahrens liegen darin, dass eine Verbindung zur Farm für die gesamte Nutzungszeit der Applikation zwingend notwendig ist. Anders als bei der Applikationsvirtualisierung, bei der die Applikation ja auf dem Client gepuffert werden kann, muss bei der Präsentationsvirtualisierung das Benutzergerät immer eine Verbindung zum Server aufweisen.

Präsentationsvirtualisierung kurz und bündig:

Rechenzentrumsvirtualisierung

Bei der Rechenzentrumsvirtualisierung werden nicht nur einzelne Server virtualisiert sondern der gesamte Betrieb des Rechenzentrums; so nähert man sich den Cloud-Modellen an. Im Prinzip werden damit die Techniken der Servervirtualisierung weitergespannt und fortgeschrieben. In der Cloud werden die IT-Ressourcen in Pools gebündelt. Daneben stehen die Applikationsdienste. Wird ein Dienst (eine Anwendung) benötigt, so erhält dieser seine Ressourcen aus dem Pool zugewiesen. Diese Bereitstellung der Applikationen und der zum Lauf benötigten Ressourcen erfolgt dynamisch.

Um den Prozess der Aktivierung und Deaktivierung von Anwendungenb schnell ausführen zu können, werden Skripte und Automatisierungs-Tools eingesetzt. Nicht mehr benötigte Anwendungen lassen sich auf diese Art und Weise auch wieder deaktivieren. Bei den Cloud-Modellen unterscheidet man nach folgenden Varianten: Beim Modell der Private Cloud werden die Ressourcen des eigenen Rechenzentrums genutzt; sie steht in der Regel nur für das eigene Unternehmen zur Verfügung. Bei der Public Cloud werden die Ressourcen im Internet angeboten beziehungsweise von dort genommen. Die hybride Cloud ist eine Mischform aus Private und Public Cloud.

Rechenzentrumsvirtualisierung kurz und bündig:

(Tecchannel)