Storage & Data Management

So speichern Sie 2020

John Edwards ist freier Autor für Themen rund um die Business-IT.
Über Jahrzehnte ging es beim Thema Storage ausschließlich um Kapazität und Geschwindigkeit. Diese Zeiten sind vorbei.

Die StorageStorage Benchmarks, die einst in Stein gemeißelt waren, laufen heute dank raffinierter neuer Technologien und Methoden immer öfter ins Leere. Storage-Technologien werden zunehmend smarter, flexibler und einfacher zu managen. Alles zu Storage auf CIO.de

Welche Storage-Technologien werden das Jahr 2020 bestimmen? Wir wagen einen Ausblick.
Welche Storage-Technologien werden das Jahr 2020 bestimmen? Wir wagen einen Ausblick.
Foto: Connect world - shutterstock.com

Das Jahr 2020 dürfte für den Storage-Bereich weitere Disruptionen im Gepäck haben - während IT-Entscheider weltweit stets nach neuen, effektiven Methoden suchen, um den durch Künstliche Intelligenz (KI), Internet of Things (IoT) und Co. aufgeworfenen Daten-Tsunami bewältigen zu können. Wir sagen Ihnen, welche Storage-Technologien das Unternehmensumfeld im Jahr 2020 maßgeblich prägen werden.

Software Defined Storage

Software Defined Storage (SDS) verpricht einen höheren Automatisierungsgrad, mehr Speicherkapazität und Ressourceneffizienz. Entsprechend viele Unternehmen wägen deshalb einen Umstieg auf SDS-Lösungen ab.

Software Defined Storage abstrahiert die Speicherressourcen von der zugrundeliegenden Hardware. Im Gegensatz zu konventionellen NAS- oder SAN-Systemen ist SDS darauf ausgelegt, auf jedem Standard-X86-System zu laufen. Unternehmen, die auf Software Defined Storage setzen, stehen smartere Interaktionen zwischen Storage und Workloads, Echtzeit-Skalierbarkeit und mehr Agilität in Sachen Ressourcenverbrauch in Aussicht: "SDS-Technologien virtualisieren verfügbare Speicherressourcen, bieten darüber hinaus aber auch ein vereinfachtes Storage Management Interface, das verschiedene Speicher-Pools in Form einer gesamtheitlichen Storage-Ressource abbildet", erklärt Cindy LaChapelle, Consultant beim Beratungsunternehmen ISG. Die SDS-Technologie verlangt allerdings auch einen Paradigmenwechsel auf Management-Ebene: Hardware ist nicht länger das maßgebliche Element bei Enterprise-Storage-Systemen.

Die Zielsetzungen, die Unternehmen mit dem Einsatz von Software Defined Storage im Jahr 2020 verfolgen, sind vielfältig. Oft geht es dabei darum, die operativen Kosten durch die Minimierung von administrativem Aufwand zu senken. Für Unternehmen, die bereits auf die Solid-State-Drive (SSD)-Technologie setzen, ist ein Umstieg auf Software Defined Storage ganz besonders interessant, wie die ISG-Beraterin weiß: "SDS verleiht Unternehmen größere Kontrolle über die Konfigurationsmöglichkeiten, um das richtige Maß an Performance und Kapazität zu ermitteln - bei optimaler Ressourcennutzung und Kostenkontrolle."

Ein Umstieg auf Software Defined Storage macht ein grundlegendes Verständnis für die Anforderungen von Applikationen an Kapazität und Performance notwendig. Natürlich muss eine Organisation auch über die notwendigen Fähigkeiten verfügen, um solche SDS-Umgebungen zu managen. Je nachdem, wie ausgeprägt das Inhouse Knowhow in diesem Bereich ist, bietet eine SDS Appliance mit vorkonfigurierter Software und Hardware unter Umständen einen guten Startpunkt in Sachen Software Defined Storage.

NVMe/NVMe-oF

Frühe Flash Devices wurden über SATA oder SAS angeschlossen - Interfaces, die vor Jahrzehnten für den Einsatz mit Hard Disk Drives konzipiert wurden. Bei NVMe (Non-volatile Memory Express) handelt es sich hingegen um ein wesentlich leistungsfähigeres Protokoll, das speziell für Flash-Storage-Systeme ausgelegt ist. Durch die Unterstützung von Niedriglatenz-Befehlen und parallelen Queues lässt sich mit Hilfe von NVMe das volle Potenzial von Solid State Drives (SSDs) erschließen. "Darüber hinaus stellt NVMe neue Möglichkeiten für die Datenverarbeitung in Echtzeit zur Verfügung - sowohl im Data Center, als auch 'on the edge' oder in der Cloud", weiß Yan Huang, Assistenzprofessor an der Tepper School of Business.

Das NVMe-Protokoll ist allerdings nicht darauf limitiert, Flash-Laufwerke miteinander zu verbinden, sondern kann auch als Netzwerkprotokoll zum Einsatz kommen: Mit NVMe-oF ist es nun möglich, Hochleistungs-Storage-Netzwerke aufzubauen, deren Latenzzeiten sich auf Augenhöhe mit Direct Attached Storage (DAS) bewegen. In Kombination bringen NVMe und NVMe-oF einen ähnlichen Fortschritt in Sachen Performance und Latenzzeiten, wie es einst bei SATA und SAS der Fall war. Besonders wertvoll kann dieses Doppel deshalb für Unternehmen sein, die datengetrieben arbeiten, beziehungsweise auf Echtzeit-Analytics setzen.

"Die Kombination von NVMe und NVMe-oF erlaubt neue Lösungen, Applikationen und Use Cases, die vorher entweder nicht möglich oder viel zu teuer waren", meint Richrad Elling, Softwareentwickler bei Viking Enterprise Solutions. Derzeit befinde sich der Bereich NVMe/NVMe-oF aber immer noch in der Entwicklung, so der Experte weiter. Mit künftigen Erweiterungen wie NVMe over TCP sei jedoch damit zu rechnen, dass Applikationen und Anwendungsfälle wie Pilze aus dem Boden schießen. "Das Wachstum fiel bislang eher moderat aus - im Jahr 2020 wird der Markt drastisch an Fahrt aufnehmen", ist sich Elling sicher.

Computational Storage

Eine wachsende Anzahl von IT-Entscheidern interessiert sich für das Thema Computational Storage. Dabei handelt es sich um einen Ansatz, der bestimmte Rechenoperationen auf dem Storage Layer - und nicht nur im Hauptspeicher durch die Host-CPU - zulässt. Insbesondere im Fall von IoT- und KI-Applikationen, die Storage auf High-Performance-Niveau und jede Menge Rechenkraft benötigen, kann dieser Ansatz gewinnbringend sein. Marktkenner rechnen für 2020 mit dem endgültigen Durchbruch von Computational Storage im Business Mainstream.

Computational Storage kann in vielen verschiedenen Bereichen zum Einsatz kommen, wie Paul von Stamwitz, Senior Storage Architect bei Fujitsu Solutions Labs, erklärt: "Das können kleine Edge Devices sein, die Daten filtern, bevor sie sie an die Cloud zur Verarbeitung weiterleiten - aber auch Storage Arrays die im Big-Data-Bereich zum Einsatz kommen."

Die wesentlichen Treiber für Computational Storage sind NVMe und die Container-Technologie. Von Stamwitz empfiehlt IT-Entscheidern deshalb, über einen Umstieg auf NVMe- und Container-Infrastrukturen nachzudenken. Dazu sollten im ersten Schritt Applikationen identifiziert werden, die von der verbesserten Effizienz durch Computational Storage am ehesten profitieren können.

Storage Class Memory

Schon seit einigen Jahren wird der Durchbruch von Storage Class Memory (SCM) immer wieder prognostiziert. Im Jahr 2020 könnte es tatsächlich dazu kommen. Zwar sind Intel Optane, Toshiba XL-Flash und Samsung Z-SSDs bereits erhältlich - von einem Durchbruch zu sprechen, wäre allerdings gewagt. "Inzwischen hat Intel sein Persistent-Memory-Modul für Optane zum Laufen gebracht", entgegnet Andy Watson, CTO bei Weka.io. "Das ist ein Game Changer."

Das Intel Device verbindet die Charakteristiken des schnellen, aber volatilen DRAM mit denen des langsameren, aber robusteren NAND. Dabei ist Storage Class Memory nicht nur "ein bisschen" schneller als NAND-basierte Flash-Alternativen, sondern um Welten, wie Watson erklärt: "Die Latenzzeit liegt im Bereich von Mikrosekunden, nicht Millisekunden. Es wird noch einige Zeit dauern, bis wir voll und ganz realisieren, was das für unsere Applikationen und Infrastrukturen bedeutet." Der Experte geht davon aus, dass SCM zunächst vor allem als Speichererweiterung weite Verbreitung finden wird.

Die Fähigkeit zur Adoption von Storage Class Memory hängt im Wesentlichen davon ab, ob die neueste Generation von Intels CPUs (Cascade Lake) zum Einsatz kommt. Dieser Fakt könnte ein Hemmnis für den SCM-Durchbruch darstellen. "Allerdings könnte der ROIROI dabei so verlockend ausfallen, dass er eine Welle von Rechenzentrums-Upgrades verursacht", orakelt Watson. Alles zu ROI auf CIO.de

Intent-based Storage Management

Auf der Grundlage von SDS und weiteren Storage-Innovationen soll Intent-based Storage Management die Planung, das Design und die Implementierung von Storage-Architekturen im Jahr 2020 (und darüber hinaus) deutlich optimieren - ganz besonders für Unternehmen, die kritische Infrastrukturen betreiben.

"Wie beim Intent-based Networking stehen zahlreiche Vorteile in Aussicht: schnelle Skalierbarkeit, mehr Agilität und bessere Voraussetzungen für die Einbindung neuer Technologien etwa. Das gilt sowohl für bestehende als auch für neue Applikationen", sagt Hal Woods, CTO bei Datera. Darüber hinaus, so der Experte, ließe sich mit Intent-based Storage Management sowohl der Zeitrahmen für das Deployment wesentlich verkürzen als auch administrative Aufwände deutlich reduzieren.

Im Vergleich zu konventionellen Storage-Management-Lösungen werde auch die Fehleranfälligkeit minimiert. "Betreiber von Infrastrukturen können so optimieren, dass die Datenlandschaft perfekt zu den Anforderungen von Applikation und Entwickler passt", erklärt Woods. Storage Policies lassen sich übrigens einfach einstellen - tagelanges Feintuning einzelner Parameter gehört der Vergangenheit an.

Möglich wird Intent-based Storage Management durch einen fortlaufenden, autonomen Zyklus, der Deployment, Verbrauch, Telemetrie, Analytics und die SDS-Technologie miteinbezieht. Eine Software-Defined-Storage-Lösung kann zusätzlich um KI-Features erweitert werden, um die Bedürfnisse der Kunden voll und ganz zu erfüllen.

Der Haken an der Sache: Wie bei jeder aufstrebenden Technologie gilt es abzuwägen, ob die Deployment-Anstrengungen durch einen entsprechenden Mehrwert gerechtfertigt sind. "Intent-based Storage Management ist keine One-Size-fits-all-Technologie. Sie entfaltet ihren Nutzen insbesondere in verteilten, skalierbaren und kritischen Umgebungen, in denen es vor allem auf schnelle Entwicklungsarbeit und unternehmerische Agilität ankommt. Für kleinere Umgebungen eignen sich Ansätze wie DAS oder Hyperconverged oft wesentlich besser", weiß CTO Watson. (fm)

Zur Startseite