Von Tapes bis Decoupled Storage

Aktuelle Trends bei Speichertechnologien

Ulf Schade ist Solution Manager im Bereich Dynamic Datacenter und Data Management bei Computacenter. In dieser Position verantwortet er die technologische Ausrichtung, Architektur, Lösungs- sowie Beratungsentwicklung des Unternehmens in diesem Bereich und agiert als Technologieexperte.

Spindeln und Tapes bieten große Kapazitäten

Aufgrund der vielen Vorteile von Flash gehen einige Hersteller bereits davon aus, dass in den Rechenzentren bald nur noch Flash-basierte Speichersysteme eingesetzt werden. Sie sollten jedoch bedenken, dass Unternehmen auch künftig bis zu 80 Prozent kalte Daten erzeugen, die nicht zeitkritisch sind. Es ist wohl auch in Zukunft wirtschaftlich nicht sinnvoll, diese auf den relativ teuren Flash-Systemen zu speichern. So werden für diese Daten weiterhin großvolumige Festplatten und Tapes eingesetzt.

Spindellaufwerke besitzen allerdings einen entscheidenden Nachteil: Auch wenn Festplatten eine höhere Speicherkapazität besitzen, erhöht sich nicht die Geschwindigkeit des Datenzugriffs. Denn dieser bleibt bei den rund 80 IOPS einer SATA-Disk stabil, da sich die Rate von 7200 Umdrehungen pro Minute (rpm) nicht verändert. Entsprechend halbieren sich faktisch die IOPS pro MByte Speicherplatz bei doppelter Festplattenkapazität. Als Konsequenz daraus könnten Unternehmen zunehmend auf die SAS-Technologie verzichten, performance-intensive Daten auf Flash speichern und kalte Daten eher auf großvolumige SATA-Festplatten speichern.

Cloud erhöht die Flexibilität

Einen vergleichsweise neuen Ansatz, um Daten preiswert zu speichern, bildet ein Object Store in der Cloud. Diesen können Unternehmen, die heute bereits mehrere StorageStorage Tiers nutzen, relativ einfach einführen. Mit Hilfe eines Cloud-Gateways zur Erweiterung der klassischen Speichersysteme lassen sich insbesondere kalte Daten wie Archive oder Datensicherungen zu Cloud-Storage-Providern auslagern. Alles zu Storage auf CIO.de

Die Anwender bemerken im Idealfall nichts von dieser Aufteilung, da diese komplett im Hintergrund läuft. Viele Unternehmen befürchten jedoch Probleme mit der Performance, wenn die Daten in einem anderen Rechenzentrum liegen. Diese Zweifel sind heute in vielen Fällen durchaus berechtigt, sollten aber mit zunehmenden Bandbreiten und effizienteren Übertragungstechnologien in Verbindung mit Inline-Dedupe und -Kompression in Zukunft ausgeräumt werden.

Bedenken hinsichtlich der Sicherheit und des Schutzes persönlicher sowie geschäftskritischer Daten sind ebenfalls weit verbreitet. Entsprechend bieten viele Provider auch Private Cloud- oder sich gerade entwickelnde Hybrid Cloud-Lösungen als Komplettpaket an. Sie werden meist gemeinsam von Cloud-Anbieter und Systemintegrator implementiert.

Alternativ lassen sich bei den bereits im Rechenzentrum installierten Rack-Servern meist brachliegende Speicherkapazitäten nutzen. Zum Beispiel können über Ansätze aus dem Bereich Software Defined Storage (SDS) heute ungenutzte Festplattenkapazitäten, etwa der Betriebssystem-HDDs der ServerServer, zentral als Speicherpool zur Verfügung gestellt werden. Eine solche Lösung liefert schon heute die Firma EMC mit einem Teil ihrer ViPR-Lösungen. Alles zu Server auf CIO.de

Noch schneller auf Daten zugreifen

Neben Flash werden derzeit Technologien entwickelt, mit denen der Datenzugriff noch schneller realisierbar wird. Dazu muss der Speicher möglichst nah an der CPU sein. Zum Beispiel lässt sich der Flash-Speicher direkt über PCIe an die Server-CPU anbinden. Alleine dadurch kann eine Latenzzeit von 60 Mikrosekunden statt ein bis zwei Millisekunden in den aktuellen AFA-Systemen erreicht werden. Dies könnte zum Beispiel für In-Memory-Datenbanken einen erfolgskritischen Unterschied ausmachen.

Inzwischen gibt es NAND-Flash-Speicher, die sich in freie RAM-DIMM-Slots der Server stecken lassen. Weil der Flash-Speicher hier sehr nah an der CPU sitzt, funktioniert er wesentlich schneller als Flash über PCIe-Bus oder eine Festplatte mit zusätzlicher SCSI-Protokollebene. Jedoch verfügen die NAND-RAM-Disk-Module nur über eine begrenzte Speicherkapazität. Außerdem müssen technische Herausforderungen wie die der Garbage Collection erst noch zufriedenstellend gelöst werden.

Vielversprechend sind auch Decoupled-Storage-Ansätze, die den Performance- und Kapazitäts-Tier in einer Speicherlandschaft physikalisch voneinander trennen. Für eine konsumierende Anwendung führt eine Softwareschicht im Kernel des Hypervisors beide Tiers virtuell zusammen - nicht nur als Lese-Cache, sondern insbesondere auch zur Beschleunigung der Writes im Schreib-Cache. Unternehmen können dann in Flash- oder RAM-Erweiterungen ihrer Server als Performance-Tier investieren. Sie entlasten damit die heute bestehenden Speichersysteme von der IOPS-intensiven Nutzung und vermeiden Performance-Engpässe der zentralen Speicher. Damit verlängert sich die Lebensdauer der bestehenden Speicherinfrastrukturen. Zudem skaliert der Performance-Tier in den Servern linear mit der Anzahl der eingesetzten virtuellen Maschinen. Ein Anbieter in diesem Markt ist das Startup PernixData.

Diese Trends werden sich zwar erst in den kommenden Jahren im Markt durchsetzen, doch Unternehmen sollten sich schon heute damit befassen, um frühzeitig von den Vorteilen profitieren zu können.

Zur Startseite