Komplexität vs. Kostenreduzierung

Herausforderung Speichervirtualisierung

27.03.2007
Von Martin Tutschek

Vorteile flexibler Datenhaltung

Wurde einmal eine Speichervirtualisierung auf Unternehmensebene implementiert, so ermöglicht sie transparente Datenbewegungen, die ihrerseits die Grundlage für alle ILM-Strategien darstellen. Die Verantwortlichen haben dank dieser Technologie nicht nur die Möglichkeit, die Auslastung ihrer Speicherinfrastruktur weiter zu verbessern, sondern können auch sämtliche Informationen immer auf den jeweils kostengünstigsten Speicherkomponenten ablegen, ohne dabei Abstriche beim DatenschutzDatenschutz und bei der Erfüllung behördlicher Vorschriften machen zu müssen. In der Praxis können somit ältere und unkritische Daten nach und nach auf preiswertere Speichereinheiten ausgelagert werden. Alles zu Datenschutz auf CIO.de

Virtualisierte Umgebungen ermöglichen es außerdem, sämtliche Managementaufgaben über einheitliche Werkzeuge und Policies zu vereinfachen. Dazu sind äußerst skalierbare und sehr zuverlässige Speicherkomponenten - am besten in Form eines SANs - erforderlich.

Problem der Skalierbarkeit

Die Skalierbarkeit stellt die wichtigste Herausforderung beim Aufbau einer funktionierenden Virtualisierungsinfrastruktur auf Unternehmensebene dar. Viele Unternehmen haben bereits erfolgreich mit Virtualisierungstechniken experimentiert, um dann nach der Implementierung ihrer Lösung festzustellen, dass diese sich nicht entsprechend der Anforderungen skalieren lassen. Das bringt so viele Nachteile mit sich, dass der Nutzen des gesamten Projekts in Frage gestellt ist. In diesem Zusammenhang sind beispielsweise ungenügende I/O-Performance und ein hoher Verwaltungs-Overhead zu nennen. In extremen Fällen kann es sogar dazu kommen, dass im Netz genauso viele Virtualisierungskomponenten wie Speicher-Arrays Verwendung finden oder dass die Unternehmen ihre gesamte Switching-Architektur ersetzen müssen.

Um die mit der Skalierbarkeit zusammenhängenden Probleme zu verstehen, müssen sich die IT-Verantwortlichen klar machen, dass ein leistungsfähiges Virtualisierungssystem sich nach außen stets als der ganze im Unternehmen vorhandene Speicher präsentieren muss. Speicherbereiche, die nicht zu diesem System gehören, sind folglich zu vermeiden. Das Storage-Produkt sollte übrigens nicht nur den gesamten Speicher umfassen, sondern muss gleichzeitig auch die Abstraktion und die Zugriffe auf die darunter liegenden physikalischen Speicherkomponenten transparent verwalten. Dieses Vorgehen verringert den durch das Speichermanagement erzeugten Overhead und beeinträchtigt somit nicht die Anwendungsleistung.

Die mit der Realisierung dieses Ansatzes zusammenhängenden Schwierigkeiten wachsen mit der Zunahme der Speichergröße im Unternehmen an. Praktisch alle heute erhältlichen Lösungen bieten nämlich nicht die Skalierbarkeit, die für eine angemessene Unternehmensleistung erforderlich wäre. Deswegen sind Organisationen gezwungen, eine große Zahl unterschiedlicher Virtualisierungskomponenten (in Form von Blades, Switches oder Appliances) zu kaufen und anschließend zu verwalten. Generell unterscheidet man bei der Auswahl der Virtualisierungslösung zwischen geschlossenen Architekturen und einer Virtualisierung auf Fabric-Basis.

Zur Startseite