Ein Masterplan

Diese 8 IT-Probleme müssen wir lösen

20.12.2010 von Paul  Venezia
Virtualisierung, Sicherheit, Internet: Wir stellen Ihnen die acht größten Probleme vor, die IT-Experten in den nächsten Jahren unbedingt lösen sollten.
Foto: lznogood - Fotolia.com

Auf den nächsten Seiten werden Sie nichts über exotische Labor-Technologien lesen, sondern eine Wunschliste zur Lösung von acht wirklich wichtigen IT-Problemen, die das tägliche Arbeiten mit Computern wirklich erleichtern würde. Wir erwarten nicht, dass die Mehrheit der Leser mit unserer Liste übereinstimmt. Jeder hat schließlich eigene Vorstellungen, wie die Arbeit mit PCs erleichtert werden kann.

Eine Lösung für Desktops

Große und kleine Unternehmen müssen seit Beginn des Computerzeitalters mit großen Desktop-Boxen an den Schreibtischen leben, die ziemlich viel Energie und Platz verbrauchen. Administratoren müssen für Upgrades oder Fehlerbehebungen immer noch von Arbeitsplatz zu Arbeitsplatz rennen. Und natürlich sollte man nicht vergessen, dass jeder Desktop oder Laptop ein Ziel für Angreifer ist.

Foto: rgbspace - Fotolia.com

Es sind schon Dutzende von potentiellen Lösungen auf den Markt gekommen, aber bisher hat es keine zur angestrebten „Idiotensicherheit" und allumfassenden Funktionalität und damit zum flächendeckenden Einsatz in Unternehmen gebracht.

Nehmen Sie als Beispiel das Thin-Client-Computing. Diese Methode passt in vielen Nutzungs-Szenarien sehr gut, beispielsweise in Call-Centern und Daten-Eingabe-Applikationen. Viele Nutzer werden aber die benötigte Teil-Instanz von Windows nicht tolerieren. Andere Arten zentraler Client-Verwaltung, wie ClearCubes Blade-Workstation, sind ebenfalls entweder zu 100 % oder eben zu 0 % passend.

Die neuste Lösung scheint aber endlich für alle Belange geeignet zu sein. Wir denken hier an VDI (Virtual Desktop Infrastructure). VDI ist schlanker und leistungsfähiger als Thin-Client-Computing und vereint viele Vorteile. Für den Durchbruch müssen allerdings noch einige Weichen gestellt werden. Zunächst müssen ganz neue Denkmuster für das Arbeiten mit PCs erzeugt werden. Schließlich soll die persönliche Arbeit effizienter gestaltet werden und zugleich die Kontrolle, Sicherheit und Verwaltung bei einer zentralen Stelle liegen.

Das Gesamtpaket muss zudem gut portierbar sein. Nutzer sollten immer die gesamte Desktop-Umgebung problemlos mitnehmen und auch ohne Verbindung zum Hauptrechner arbeiten können. Sobald dann die Verbindung wiederhergestellt ist, übernimmt wieder die zentrale IT die Kontrolle. Ist die richtige Lösung vielleicht eine Art sichere Client-VM? Werden Mitarbeiter ihre privaten Laptops oder Tablet-PCs zur Arbeit mitbringen und mit dem zentralen Rechner verbinden? Vielleicht, viele Zukunfts-Szenarien sind möglich. Jedoch sind alle noch weit von einem Durchbruch entfernt.

Virtualisierte Server

Wenn Sie sich vorstellen, dass Sie in einer Zeitmaschine zehn Jahre zurückzureisen und den Menschen zu erzählen, dass ein 64-Bit 48-Kern-Server mit 512 GB RAM im Jahr 2010 verhältnismäßig günstig sein wird, dann ernteten Sie wohl belustigte Blicke und Fragen über den Nutzen und die Möglichkeiten eines solchen Rechen-Biests. Die Antwort lautet heutzutage: Virtualisierung.

Foto: STRATO AG

Es besteht keinen Zweifel, dass Virtualisierung in der nächsten Zeit den Weg der IT vorgeben wird. Ein essentieller Bestandteil dieser Vision sind riesige Vielkern-Prozessoren, die Dutzende virtuelle Server emulieren. Diese Server werden eine gewisse Standardeinstellung besitzen, die aber mit der heutigen nicht mehr vergleichbar ist.

Neue Server werden heute meist direkt für Virtualisierungs-Zwecke genutzt, sind aber meist noch auf die Einzel-Server-Rolle ausgelegt. Die zusätzliche Hardware, Wärmeentwicklung, Leistung und Größe dieser Server ist für die Virtualisierung kein bisschen vorteilhaft. Rein auf die virtuelle Desktop-Bereitstellung ausgelegte Server könnten ohne diese Zusätze genauso gut funktionieren. Virtualisierungs-Hosts benötigen nur drei Dinge: CPU, RAM und I/O. Hypervisors können und sollten direkt vom internen Flash-Gerät oder wenigstens einer SSD-Karte aus booten. So könnten physische Laufwerke, mit entsprechender Kühlung und Leistungsaufnahme, in Zukunft wirklich der Vergangenheit angehören.

Ein paar Neuheiten auf dem Server-Markt entsprechen diesen minimalistischen Anforderungen schon teilweise. Die meisten erhältlichen Server sind noch mit vielen Blades und lokalen Festplatten ausgestattet. In fünf Jahren erwarten wir, dass das Anordnen von Blade-Gehäusen oder Servern mit lokalen Festplatten eine Rarität sein werden, während diskfreie Virtualisierungs-Server zum Alltag werden. Virtualisierung und SANs werden so bekannt sein wie Tastaturen.

Als nächstes müssen die Server noch so klein werden wie möglich und danach schneller und leistungsfähiger virtualisieren. In 10 Jahren werden wir unseren Kindern wohl erzählen, wie es vor langer Zeit war, als Server noch eine eingebaute Festplatte besaßen.

Günstige WANs

Viel zu viele Fernzugriff-Büros sind heutzutage mit veralteter Technik verbunden. Als früher noch Dial-Up-Verbindungen die Internetwelt prägten, schienen die 1,54 MB-T1-Verbindungen gigantisch zu sein, aber heutzutage sind sie ziemlich langsam, kosten jedoch immer noch genauso viel wie vor 15 Jahren. Dafür gibt es keine Entschuldigung.

Foto: AXA

Wenn Provider Glasfaser-Verbindungen nach Hause verlegen, dann können sie das doch auch für Unternehmen machen. Ob Ihr Fernzugriff-Büro mitten in der Stadt oder im Wald liegt, die Glasfaser-Verbindungen sind immer die gleichen. Auch schon über Kupferkabel können heutzutage schnelle Verbindungen zur Verfügung gestellt werden. Dies lässt die alten T1-Leitungen noch schlechter aussehen.

Das größte Problem ist der fehlende Wille der Provider, die für sie lukrativen T1 und T3-Standleitungen abzustellen. Diese Verbindungen werden schon seit vielen Jahren profitabel verkauft und die hohen Preise werden von den Kunden anerkannt. Schließlich sind die Verbindungen auch sehr zuverlässig. Jedoch ist das Rad der Technologie nicht stehengeblieben und hat deutlich bessere Alternativen hervorgebracht.

In fünf Jahren sollte es für jedes Unternehmen möglich sein, ein Büro im Vorort von Berlin mit einem Büro im Allgäu mit 100 Mbps oder 1 Gbps Leitungen über einen normalen Provider zu verbinden. Und diese Verbindungen werden genauso zuverlässig sein, wie es T1 immer war.

Komplette Umstrukturierung der Software-Lizenzierung

Wir können wohl an einer Hand abzählen, wie viele IT-Experten und End-Nutzer die gesamte EULA gelesen haben. Zweifellos werden Software-Lizenzen auch in Zukunft für Anwälte und weniger für den Nutzer geschrieben, aber die verschiedenen Lizenzierungs-Verfahren großer Unternehmen sind für die Zukunft viel zu kompliziert. Sie können sogar den Fortschritt in der IT-Branche lähmen.

Foto: April Cat - Fotolia.com

Wenn ein Programmierer an einem kniffligen Hard- oder Software-Problem arbeitet, dann gibt es nichts Frustrierenderes, als den Kern des Problems bei der Lizenzierung zu finden. Entweder vom Produkt selbst oder in dem angepeilten Nutzerbereich.

Dieser Punkt ist wohl für einen fünf-Jahres-Plan etwas sehr ambitioniert, aber die vorherrschenden Lizenzierungs-Methoden lähmen viele Organisationen und sollten schnellstens komplett überarbeitet werden. Wir behaupten zwar nicht hier die Lösung parat zu haben, aber würden wir beispielsweise alle unsere Client-Server Applikationen über TCP/IP laufen lassen, dann könnten wir auch eine allgemeine Lizenz-Vorlage erstellen, die jeder Software-Entwickler nutzen sollte. Dies war die Idee hinter Entwicklungen wie FLEXIm, das jetzt FlexNet Publisher heißt. Aber es sollte ein kostenlos erhältlicher Dienst sein, der von einem Zusammenschluss vieler großer und kleiner Software-Developerunternehmen entwickelt werden müsste.

Stellen Sie sich einen einzelnen Lizenz-Server vor, der für alle kommerziellen Programme im Unternehmen zuständig ist. So einfach könnte es sein.

Das Ende der Passwörter

Die Tage der alphanummerischen Passwörter sind schon vorbei, aber dies scheint fast noch niemandem aufgefallen zu sein. Während Sie von Gebäude zu Gebäude, Applikation zu Applikation und Betriebssystem zu Betriebssystem wechseln, benötigen Sie eine Reihe verschiedener Passwörter mit verschiedenen Sicherheitsanforderungen. Einige Anforderungen sind lächerlich lax, wie bei Banken, die jegliche Sonderzeichen und Buchstaben nicht gestatten. Andere hingegen geben komplexe Sonderzeichen und Zahlen vor, sodass Sie Ihr Passwort zwangsweise irgendwo notieren müssen. Beide Extreme führen zum gleichen Problem: Vergleichsweise niedrige Sicherheit.

Foto: Nikolai Sorokin - Fotolia.com

Außerdem ist es äußerst schwierig auf mobilen Geräten Passwörter mit Sonderzeichen einzugeben. Egal ob mit oder ohne physischer Tastatur, es ist immer eine große Herausforderung. Passwörter sind immer nur eine suboptimale Lösung.

Aber was kann sie ersetzen? Smart-Cards und USB-Schlüssel sind schon ein guter Anfang für ein Netzwerk oder ein Gerät, aber für Unternehmen ist das noch nicht zufriedenstellend. In einer Welt der Cloud-Dienste, iPads und bald wohl auch Chrome OS sind diese Eintritts-Hardware-Schlüssel problematisch, da auf unterschiedlichen Systemen unterschiedliche Software-Voraussetzungen vorherrschen. Die Lösung muss etwas sein, das nur Sie selbst besitzen und genauso flexibel wie ein Passwort ist. Es sollte außerdem auf verschiedenen Systemen problemlos anwendbar sein. Die Lösung sind biometrische Daten. Allerdings müsste dann jedes Client-Gerät einen passenden Fingerabdruck-Sensor oder Iris-Scanner besitzen.

Biometrie-Daten sind aber auch aus der Nutzer-Sicht problematisch. Obwohl wir persönlich die Besorgnis nicht teilen, so werden von unterschiedlichen Stellen Szenarien aufgestellt, bei denen Räuber den Daumen einer Person abnehmen, um an dessen Bankkonto zu gelangen. Dann gibt es noch die Möglichkeit, dass bei unverhoffter Änderung Ihrer Biometrie-Daten, beispielsweise durch einen Unfall oder Amputation, kein Reset möglich ist und verschiedene Biometrie-Methoden für diese Person vielleicht nicht mehr ausführbar sind.

Stimm-, Gesichts- oder andere Erkennungsmethoden werden in Zukunft wohl das Passwort ersetzen. Hoffen wir mal, dass es eher früher als später der Fall sein wird.

Spam-Mechanismus aushebeln

So wie es im Moment aussieht, sind wir auf dem Gebiet der Anti-Spamware in den letzten fünf Jahren auf der Stelle getreten. Das Spam-Volumen ist konstant geblieben und liegt bei 95 bis 98 % aller versendeten E-Mails. Zwar kommen deutlich weniger Spam-Mails wirklich beim Empfänger an, da von ganzen Programmierer-Armeen entwickelte, fortgeschrittene Filter die meisten unerwünschten E-Mails zurückhalten. Jedoch besteht das Spam-Problem auch heute noch.

Foto: Andrey Armyagov - Fotolia.com

In dem heutigen Ausmaß ist Spam nicht nur ärgerlich, sondern gerade für Unternehmen sogar schädlich. Schließlich müssen Unternehmen Geld in Anti-Spam-Software investieren, damit die Bandbreite durch zu viel Spam nicht allzu sehr leidet. Zudem müssen zusätzliche Server und Dienste eingerichtet werden, sodass wichtige Nachrichten nicht in einem Berg von unerwünschten E-Mails gesucht werden müssen.

Es gibt zwar Modelle zur Verhinderung von Spam, beispielsweise Whitelisting oder E-Mail-Gebühren, die wohl wirksam wären, aber wohl das gesamte, uns heute bekannte Mail-System zerstören würden. Wir müssen nicht das Kind mit dem Bade ausschütten, aber es genügt auch nicht die ganze Zeit den Finger ins Wasser zu halten und traurig mit dem Kopf zu schütteln.

Große Hoffnung legen Experten auf den neuen Ansatz der E-Mail-Filterung. Beispielsweise wird eine "graue" Liste erstellt, welche unbekannte Absender kurzzeitig zurückhält. Dadurch sind gezielte Spam-Angriffe zum Scheitern verurteilt. Momentan müssen beim White- und Blacklisting noch viele Dinge manuell eingestellt werden, sodass die E-Mail-Zustellung verlässlich funktioniert.

All diese Lösungsansätze packen das Problem leider nicht an der Wurzel und werden das Internet in keiner Weise vom ressourcenfressenden, weltweiten Spam befreien. Falls die momentan angedachten Ideen erfolgreich verwirklicht werden, wird zwar Spam vom Posteingang ferngehalten, aber das entlastet eher die Bandbreite, als das Problem selbst zu lösen.

Virtuelle Applikationsserver

Um eine neue und teure Business-Server-Serie zu installieren, sollte keine zweiwöchige Schulung notwendig sein. Stattdessen wäre es ungeheuer produktiv direkt eine Art "Plug-and-Play"-Lösung an die Unternehmen zu bringen. Idealerweise stünde das Gerät mit allen benötigten Abhängigkeiten, Patches und anderen nervenaufreibenden Kleinigkeiten bereit und würde sich perfekt in das schon angepasste Unternehmensnetzwerk eingliedern.

Foto: AXA

Was wir brauchen sind virtuelle Maschinen, die einfach importiert werden und sofort bereitstehen. Vielfach wird auch für VMs eine Installation benötigt, aber das Vermittlungs-Medium können wir einfach weglassen. Stattdessen sollten VMs so gestaltet sein, dass die Standard-Applikation ähnlich einem Windows-Installer durch einen Klick sorgenfrei installiert wird.

Die gesparte Zeit, Anstrengung, Komplexität und Unterhaltskosten wäre für viele Unternehmen spürbar. Wir sagen nicht, dass die Standard-Installation komplett abgeschafft werden soll, aber stattdessen sollte sich der Standard zur VM hin ändern und die Hardware-Einrichtung zur Ausnahme werden.

IPv6, die Zukunft des Internets

Wir sind uns sicher, dass bei einem ähnlichen Artikel vor fünf Jahren IPv6 ebenfalls auf der Liste gestanden hätte. Doch bis heute sind wir einer flächendeckenden IPv6-Einführung kaum einen Schritt näher gekommen.

Teilweise liegt es an der komfortablen Telefonnummer-Länge der IPv4-Adressen. Schließlich sind Zahlentripel, wie 192.168.1.100 deutlich einfacher zu merken als 3eff:4960:0:1001::68.

Foto: Symantec

Ebenfalls wahr ist, dass die meisten IT-Unternehmen und -Organisationen mit den reservierten IPv4-Adressen im letzten Jahrzehnt problemlos zurechtkamen. Die Umstellung von IPv4 auf IPv6 ist nicht nur ein riesiger Umnummerierungs-Prozess, sondern alle IT-Geräte müssen auch mit dem neuen Standard kompatibel sein. Gerade Letzteres ist doch schwieriger als erwartet, da sich viele Unternehmen nur ungern von liebgewonnener Netzwerk-Hardware trennen, was nicht zuletzt an den mit einer Erneuerung verbundenen Kosten liegt.

Kurzum ist das Problem von IPv6, dass die Vorteile für einen Unternehmer kaum wahrnehmbar sind, während mit einer Umstellung viele Investitionen und Anstrengungen verbunden sind. Sofern die Investionslage der Unternehmen weiterhin angespannt bleibt, gibt es schlichtweg keinen Spielraum für eine Umstellung.

Aber diese Schwierigkeit wird im Moment vom größeren Problem des Verschwindens von IPv4-Adressen überschattet. Dies liegt vor allem an China, das Adressen in alarmierender Geschwindigkeit beansprucht. Aber auch die explosionsartige Verbreitung mobiler Internet-Geräte trägt zum Problem bei.

Wenn es ein bisschen Hoffnung auf eine Initiative für IPv6 gibt, dann sollte sich die IT-Welt mit dem Anstoß nicht mehr viel Zeit lassen. Jeder weitere Tag mit IPv4 erhöht die Anzahl der Port-Adress-Übersetzungen für die Firewall und erschwert damit eine schnelle und effiziente Umstellung auf IPv6. Wir müssen diesen Teufelskreis schnellstmöglich durchbrechen.

Quelle: PC-Welt