Von Tapes bis Decoupled Storage

Aktuelle Trends bei Speichertechnologien

27.04.2015 von Ulf  Schade
Es kommt beim Storage zu einer massiven Verschiebung der Investitionen. Was bisher an die Speicherhersteller ging, wandert nun zunehmend in operative Ausgaben bei den Serviceprovidern. Was erwartet Unternehmen bereits 2015?

Trotz aller Innovationen: Die eine oder andere Storage-Technologie hält sich unerwartet hartnäckig. So wurden etwa Tapes schon seit Jahrzehnten totgesagt, erleben aber gerade wieder eine Renaissance. Andererseits prognostizieren Marktanalysten wie IDC und Gartner, dass bis 2018 bis zu 70 Prozent aller kleinen und mittelständischen Unternehmen IT-Services nur noch als Software as a Service nutzen. Dann müssen sie überhaupt keine Speicherkapazitäten mehr anschaffen und betreiben.

Fest steht: Für die zentrale Infrastruktur im Rechenzentrum großer Unternehmen sind solche Prognosen immer mit Vorsicht zu genießen. Schließlich planen die Verantwortlichen hier im Zeitraum von mehreren Jahren. Bringen neue Storage-Technologien jedoch umgehend einen hohen Mehrwert oder lösen aktuelle Herausforderungen, setzen sie sich vergleichsweise schnell durch.

Storage-Trends 2015 - Das sagen die Hersteller
Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Flash ist weiter auf dem Vormarsch. Die klassische 15k-rpm-Disk könnte im Lauf des nächsten Jahres langsam aussterben. Ein weiterer Trend sind SDEs (Software Defined Environments), in denen ganze Rechenzentren anhand wiederverwendbarer Richtlinien gesteuert werden."
Stefan Roth, Manager Sales Competence Center, Fujitsu
"Ein weiterer Schwerpunkt wird die Ausrichtung der Storage-Systeme an den Geschäftsprioritäten sein. Auf diesem Gebiet gibt es noch viel Nachholbedarf."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Einerseits sind das die hybriden Storage-Lösungen. Hier gibt es gerade beim Bereich Management noch einiges zu optimieren, um die Grenzen zwischen lokalem und Cloud-Storage noch transparenter zu machen."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Archivierung wird immer wichtiger. Zunächst wurde die Dringlichkeit dieses Feldes nur von ganz spezifischen Kundengruppen, die von Grund auf großen Datenmengen verwalten, wie etwa Rundfunkanstalten oder Unternehmen im Gesundheitswesen, erkannt."
Hans Schramm, Field Product Manager Enterprise, Dell
"Der Trend geht in Richtung flexibler, modularer Speichersysteme. Auch Software Defined Storage sowie in der erweiterten Form das Software Defined Datacenter – und damit die Hyperconverged-Lösungen – spielen 2015 eine wichtige Rolle."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
"Im Bereich Infrastruktur wird der Schwerpunkt auf Speichervirtualisierung liegen – und zwar auf weltweiter Ebene. Unternehmen erhalten so einen einzigen Speicher-Pool, der sich über mehrere physische Speichersysteme an verschiedenen Orten erstreckt."
Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Die Verflechtung von IT und industriellen Prozessen wird 2015 weiter zunehmen. Für den Storage-Bereich bedeutet das Voranschreiten der Industrie 4.0 einen Zuwachs von Maschinendaten, darunter auch aus dem Internet of Things."
Johannes Wagmüller, Director Systems Engineering, NetApp
"In Zukunft werden wir in den Rechenzentren immer häufiger einen Mix aus On-Premise-, Private- und Public Cloud-Umgebungen sehen, weil sich so viele Unternehmensanforderungen am schnellsten und effektivsten adressieren lassen."

Sollten die Prognosen der Markanalysten zutreffen, verliert die klassische Storage-Industrie in den nächsten drei bis vier Jahren ein Marktpotenzial von rund 15 Milliarden US-Dollar. Denn die großen Serviceanbieter werden die notwendigen Speichermedien und Systeme nicht mehr bei den klassischen Speicherherstellern kaufen, sondern nach dem Vorbild von Amazon und Co. von Auftragsfertigern produzieren lassen.

Cloud oder Tape?

Große Unternehmen werden dagegen ihre Daten wohl auch in Zukunft selbst verwalten. Dies liegt zum einen an den Herausforderungen bei Performance und Latenzen bei Datenbewegungen in Cloud-Angeboten und zum anderen an den hohen Kosten im Petabyte-Bereich. Deutlich zeigt sich dabei vor allem eine Entwicklung: die Trennung von Performance und Kapazität. So verwenden Unternehmen hybride Systeme mit zwei unterschiedlichen Speicherebenen (Tiers): eine Ebene mit hoher Geschwindigkeit und eine mit großer Kapazität. Ein dritter Tier mit Speicherservices aus der Cloud lässt sich heute im Bereich Disaster Recovery bereits in der Praxis einsetzen. Doch vor allem im Online-Bereich sollten Kunden die Angebote hybrider Speicherinfrastrukturen kritisch prüfen und klären, ob sich die Daten immer sinnvoll zwischen all den Storage-Bereichen verschieben lassen.

Die altbekannten Tapes wiederum besitzen nach wie vor das beste Preis-/Leistungs-Verhältnis in Bezug auf die Kapazität. Der Nachteil liegt heute noch im Zugriff auf die Daten: Bei dem linearen Medium müssen Bänder langwierig vor- und zurückgespult werden. Mittelfristig wird das Medium aber gerade wegen der ökonomischen Aspekte als Ablageort für selten genutzte Daten - sogenannte "kalte Daten" - eine größere Rolle spielen. Auf der anderen Seite nehmen die Anforderungen von immer mehr Applikationen an den Datendurchsatz und die Vorhersagbarkeit von Latenz zu. Hier liefern die heute noch weit verbreiteten Festplattensysteme nicht die richtigen Antworten.

Storage Trends 2015 - Backup und Disaster Recovery in der Cloud
Hans Schramm, Field Product Manager Enterprise, Dell
"Es wird immer IT-Administratoren geben, die eine Sicherung ihrer wichtigsten Daten – was die auch immer sein mögen – direkt im eigenen Rechenzentrum haben wollen. Andere sind womöglich froh, die Verantwortung für die Daten einem Provider zu übergeben."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Wir haben gerade in Deutschland sehr hohe Datenschutzanforderungen, die häufig nicht mit denen von Providern ausländischer Anbieter übereinstimmen. Manche Anbieter sind offenbar nicht immer frei in der Entscheidung, welche Daten sie weitergeben müssen oder nicht.“
Stefan Roth, Manager Sales Competence Center, Fujitsu
„Auch für das Backup von Archivdaten sind Cloud Services für viele Kunden empfehlenswert. Fujitsu hat in diesem Gebiet schon einige Kundenprojekte laufen."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
„Daten, die sehr hohe Ansprüche an Sicherheit, Performance, Flexibilität und Verfügbarkeit an die Anwendungen stellen, sind für die öffentliche Cloud nicht geeignet. Dagegen sind neben Backups und Disaster Recovery Entwicklungs-, Tests- und bestimmte Archivierungsdaten für die Cloud geeignet."
Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Gerade im KMU-Segment sind Backup-as-a-Service-Angebote sehr beliebt, weil sie einfach und relativ kostengünstig zu realisieren sind und eine höhere Zuverlässigkeit im Vergleich zu anderen Methoden bieten. Bei größeren Unternehmen sowie Kunden mit hohen SLA- und/oder Security-Anforderungen erleben wir, dass man solche Angebote in eine größere Architektur einbindet, zum Beispiel als 3rd Site für Replikationen. Die primären Backup-Lösungen werden dabei nach wie vor On-Premise betrieben.“
Ralf Colbus, Leading Storage Professional, IBM Deutschland
„Für Latency-unkritische Anforderungen - wie etwa das bewusste, nachgelagerte Verschieben von Daten in die Cloud als weiteren Standort oder auch im Archivierungsbereich funktioniert ‚Cloud‘ sehr gut."
Johannes Wagmüller, Director Systems Engineering, NetApp
„Bei den IT-Managern sollte ein Umdenkprozess starten. Es ist heute insbesondere für ein mittelständisches Unternehmen einfach nicht mehr zeitgemäß, sich in aller Tiefe und mit allen technologischen Details eines Backup-Prozesses selbst zu befassen."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Backups und Archivierung sind - die entsprechenden Sicherheitsmaßnahmen vorausgesetzt - zwei Storage-Aufgaben, die von Cloud Services profitieren können. Backup-Prozesse gestalten sich so einfacher und grundsätzlich lassen sich in der Cloud Ausgaben für zusätzliche Infrastruktur und deren laufenden Betrieb einsparen."

Flash sorgt für hohe Geschwindigkeit

Aufgrund ihrer hohen IOPS-Raten und kurzen Latenzzeiten bieten sich Flash-Technologien für den schnellen Datenzugriff bei Online-Speichern an. Sie eignen sich zum Beispiel optimal für eine zeitkritische Informationsverarbeitung in VDI-Umgebungen oder Datenbanken. Bislang werden viele Unternehmen von den vergleichsweise hohen Kosten abgeschreckt. Doch dieser Nachteil verschwindet zunehmend, da sich die Preise den SAS-Laufwerken annähern.

Es gibt jedoch sehr unterschiedliche Flash-Storage-Systeme: als SSD-Festplatte, RAM-Disk, Flash-Karte oder All Flash Array (AFA). Es hängt sehr stark von den gewünschten Funktionen sowie der vorhandenen Infrastruktur ab, welche dieser Technologien für ein Unternehmen optimal geeignet ist. Bestandteil vieler Enterprise-Storage-Systeme sind insbesondere Funktionen zur Datenreduktion wie Kompression und Deduplikation. Aber auch bei AFA-Appliances sind das Zusammenspiel mit traditionellen Speicherlösungen sowie die volle Bandbreite der Datendienste wie Replikation, Snapshots oder die Integration von Anwendungen wichtig.

Storage Trends 2015 - Flash im Server vs. Storage-Rack
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Gibt es eine isolierte Anwendung, die kein Speicher teilen muss, kann man sicher internen Speicher verwenden. Zu beachten ist jedoch, dass das Management dezentraler Komponenten in der Regel aufwändiger und oft nicht so effizient ist."
Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Kunden können nur dann alle Vorteile der Flash-Technologie nutzen, wenn der Flash-Speicher im zentralen Speichersystem zum Einsatz kommt. Der Flash-Speicher kann dann seine Vorzüge komplementär zu den etablierten Redundanztechnologien ausspielen und ist zugleich überall verfügbar, unabhängig von der geografischen Lage."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
"Grundsätzlich können beim heutigen Datenwachstum und Bedarf an Performance nicht alle Daten auf den Server wandern. Die meisten schnell benötigten Daten liegen folglich weiterhin außerhalb des Servers auf leistungsfähigen Speichersystemen."
Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Das kann nur eine sinnvolle Analyse der Workloads darstellen – dabei hat IBM sehr viel Erfahrung gesammelt und Tools entwickelt. Der Einsatz von Flashtechnologie im Rechenzentrum ist derzeit noch kein Standard, wird jedoch immer mehr zum Standard werden – inzwischen verbauen wir Flash sogar in Backup-/Restore-Umgebungen."
Vincenzo Matteo, Disk Product Management Director, Oracle
„Wenn man Anwendungen, die auf mehreren Servern laufen beschleunigen will, ist Flash-Speicher im Storage Array die beste Lösung. Nichtsdestotrotz ist das eine hochgradig ineffiziente und teure Lösung, außer man verfügt über ein intelligentes Array, das I/O-Service-Priorisierung beherrscht."
Johannes Wagmüller, Director Systems Engineering, NetApp
"Vorteil der Storage gestützten Cache-Lösungen ist deren universeller Cache-Ansatz für eine Vielzahl von angebundenen Host- und Client-Systemen. Bei höchsten Anforderungen an extrem niedrige Latenz-Zeiten bietet sich der dezidierte Einsatz von Server Cache an. In jedem Fall ist hier jedoch auf eine durchgängige Datenkonsistenz mit dem persistenten Storage Layer - auch im Restore-Fall – zu achten.“
Hans Schramm, Field Product Manager Enterprise, Dell
"Lösungen wie Fluid Cache for SAN erlauben IOPS (Input/Output Operations Per Second) im Millionenbereich. Für Unternehmen, die solche Leistungen permanent benötigen, bieten sie eine elegante Lösung, zumal sie dort dann auch andere Applikationen, die eine solche Leistung nur temporär benötigen, auf- und abschalten können."
Stefan Roth, Manager Sales Competence Center, Fujitsu
"Flash als Cashing kann innerhalb der Server interessant sein. Aber für Datenbanken, virtualisierte Umgebungen und Produktionssysteme sind zentrale Flash-Speicher und noch besser Hybrid-Flash-Storage-Systeme die beste Wahl."

Ein solches AFA-System ist zum Beispiel FlashRay von NetApp. Dieses wird mit dem neuen Betriebssystem MARS ausgeliefert. Es reduziert die Lese- und Schreibaktivitäten auf ein Minimum aufgrund des längenvariablen Block-Layouts bei der Verarbeitung im System. Dadurch steigert sich die effektive Kapazität und es wird ein höherer Durchsatz bei gleichbleibender Latenz im Millisekunden-Bereich möglich. Auf der anderen Seite wird die Version 1.0 des ab April verfügbaren Systems wohl noch auf einige Enterprise-Ready-Dataservices verzichten müssen.

Auch bei anderen Herstellern gibt es in der Produktkategorie der AFAs häufig das Konzept eines eigenen, speziell entwickelten Betriebssystems, um eine optimale Leistung der Systeme zu gewährleisten. Hybride Storage-Systeme mit Anteilen von SSD, Flash und Festplatte basieren häufig auf den etablierten Speicherinfrastrukturen. Sie ermöglichen einen individuell anpassbaren Kompromiss zwischen Performance und der Vollständigkeit von Datendiensten, die spezialisierte AFA-Systeme heute noch nicht immer vollständig vergleichbar bieten können.

Flash vereinfacht das Management

Von Flash erwarten viele Unternehmen, dass sich die Bereitstellung von Speicherkapazität vereinfacht. Die Flash-Technologie selbst ermöglicht dies jedoch nicht. Damit werden die eigentlichen Speicherprozesse sogar noch komplexer als in den traditionellen Disk-Arrays. Die Managementfunktionen sind jedoch vor allem in den spezialisierten Betriebssystemen weitgehend standardisiert und automatisiert. Die Bedienoberfläche bietet damit weniger Einstellungsmöglichkeiten und eine deutlich intuitivere Nutzung.

Unternehmen profitieren dadurch von wesentlichen Vorteilen: Das Management wird effizienter, manuelle Fehler lassen sich durch Automatisierung besser vermeiden und sie benötigen nicht mehr rund um die Uhr hochspezialisierte Storage-Fachkräfte. Im täglichen Betrieb entlasten sie die IT-Kollegen von Routineaufgaben und eröffnen ihnen Freiräume, um sich verstärkt um die Umsetzung von Businessprojekten zu kümmern.

Spindeln und Tapes bieten große Kapazitäten

Aufgrund der vielen Vorteile von Flash gehen einige Hersteller bereits davon aus, dass in den Rechenzentren bald nur noch Flash-basierte Speichersysteme eingesetzt werden. Sie sollten jedoch bedenken, dass Unternehmen auch künftig bis zu 80 Prozent kalte Daten erzeugen, die nicht zeitkritisch sind. Es ist wohl auch in Zukunft wirtschaftlich nicht sinnvoll, diese auf den relativ teuren Flash-Systemen zu speichern. So werden für diese Daten weiterhin großvolumige Festplatten und Tapes eingesetzt.

Spindellaufwerke besitzen allerdings einen entscheidenden Nachteil: Auch wenn Festplatten eine höhere Speicherkapazität besitzen, erhöht sich nicht die Geschwindigkeit des Datenzugriffs. Denn dieser bleibt bei den rund 80 IOPS einer SATA-Disk stabil, da sich die Rate von 7200 Umdrehungen pro Minute (rpm) nicht verändert. Entsprechend halbieren sich faktisch die IOPS pro MByte Speicherplatz bei doppelter Festplattenkapazität. Als Konsequenz daraus könnten Unternehmen zunehmend auf die SAS-Technologie verzichten, performance-intensive Daten auf Flash speichern und kalte Daten eher auf großvolumige SATA-Festplatten speichern.

Cloud erhöht die Flexibilität

Einen vergleichsweise neuen Ansatz, um Daten preiswert zu speichern, bildet ein Object Store in der Cloud. Diesen können Unternehmen, die heute bereits mehrere Storage Tiers nutzen, relativ einfach einführen. Mit Hilfe eines Cloud-Gateways zur Erweiterung der klassischen Speichersysteme lassen sich insbesondere kalte Daten wie Archive oder Datensicherungen zu Cloud-Storage-Providern auslagern.

Die Anwender bemerken im Idealfall nichts von dieser Aufteilung, da diese komplett im Hintergrund läuft. Viele Unternehmen befürchten jedoch Probleme mit der Performance, wenn die Daten in einem anderen Rechenzentrum liegen. Diese Zweifel sind heute in vielen Fällen durchaus berechtigt, sollten aber mit zunehmenden Bandbreiten und effizienteren Übertragungstechnologien in Verbindung mit Inline-Dedupe und -Kompression in Zukunft ausgeräumt werden.

Storage Trends 2015 - Löst die Cloud On-Premise-Storage ab?
Johannes Wagmüller, Director Systems Engineering, NetApp
"Der Trend wird zum Multisourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big Data Analytics."
Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Das ist auch eine Frage der Kosten. Wenn sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein."
Stefan Roth, Manager Sales Competence Center, Fujitsu
"Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcingmodell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
"Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud Services, Virtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte."
Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden.“
Hans Schramm, Field Product Manager Enterprise, Dell
"Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen."

Bedenken hinsichtlich der Sicherheit und des Schutzes persönlicher sowie geschäftskritischer Daten sind ebenfalls weit verbreitet. Entsprechend bieten viele Provider auch Private Cloud- oder sich gerade entwickelnde Hybrid Cloud-Lösungen als Komplettpaket an. Sie werden meist gemeinsam von Cloud-Anbieter und Systemintegrator implementiert.

Alternativ lassen sich bei den bereits im Rechenzentrum installierten Rack-Servern meist brachliegende Speicherkapazitäten nutzen. Zum Beispiel können über Ansätze aus dem Bereich Software Defined Storage (SDS) heute ungenutzte Festplattenkapazitäten, etwa der Betriebssystem-HDDs der Server, zentral als Speicherpool zur Verfügung gestellt werden. Eine solche Lösung liefert schon heute die Firma EMC mit einem Teil ihrer ViPR-Lösungen.

Noch schneller auf Daten zugreifen

Neben Flash werden derzeit Technologien entwickelt, mit denen der Datenzugriff noch schneller realisierbar wird. Dazu muss der Speicher möglichst nah an der CPU sein. Zum Beispiel lässt sich der Flash-Speicher direkt über PCIe an die Server-CPU anbinden. Alleine dadurch kann eine Latenzzeit von 60 Mikrosekunden statt ein bis zwei Millisekunden in den aktuellen AFA-Systemen erreicht werden. Dies könnte zum Beispiel für In-Memory-Datenbanken einen erfolgskritischen Unterschied ausmachen.

Inzwischen gibt es NAND-Flash-Speicher, die sich in freie RAM-DIMM-Slots der Server stecken lassen. Weil der Flash-Speicher hier sehr nah an der CPU sitzt, funktioniert er wesentlich schneller als Flash über PCIe-Bus oder eine Festplatte mit zusätzlicher SCSI-Protokollebene. Jedoch verfügen die NAND-RAM-Disk-Module nur über eine begrenzte Speicherkapazität. Außerdem müssen technische Herausforderungen wie die der Garbage Collection erst noch zufriedenstellend gelöst werden.

Vielversprechend sind auch Decoupled-Storage-Ansätze, die den Performance- und Kapazitäts-Tier in einer Speicherlandschaft physikalisch voneinander trennen. Für eine konsumierende Anwendung führt eine Softwareschicht im Kernel des Hypervisors beide Tiers virtuell zusammen - nicht nur als Lese-Cache, sondern insbesondere auch zur Beschleunigung der Writes im Schreib-Cache. Unternehmen können dann in Flash- oder RAM-Erweiterungen ihrer Server als Performance-Tier investieren. Sie entlasten damit die heute bestehenden Speichersysteme von der IOPS-intensiven Nutzung und vermeiden Performance-Engpässe der zentralen Speicher. Damit verlängert sich die Lebensdauer der bestehenden Speicherinfrastrukturen. Zudem skaliert der Performance-Tier in den Servern linear mit der Anzahl der eingesetzten virtuellen Maschinen. Ein Anbieter in diesem Markt ist das Startup PernixData.

Diese Trends werden sich zwar erst in den kommenden Jahren im Markt durchsetzen, doch Unternehmen sollten sich schon heute damit befassen, um frühzeitig von den Vorteilen profitieren zu können.