Cloud Computing


Das sagen Dell, EMC, Fujitsu, HDS, HP, IBM, NetApp und Oracle

Storage-Trends: Wird On-Premise-Speicher durch die Cloud überflüssig?

Christian Vilsbeck war viele Jahre lang als Senior Editor bei TecChannel tätig. Der Dipl.-Ing. (FH) der Elektrotechnik, Fachrichtung Mikroelektronik, blickt auf langjährige Erfahrungen im Umgang mit Mikroprozessoren zurück.
Wird im Zuge der Cloud-Auslagerung von datenintensiven Workloads wie Big Data Analytics eigener On-Premise-Storage bald überflüssig? Wir haben die führenden Storage-Anbieter nach ihrer Meinung gefragt.

Es gibt kaum noch Services, die nicht in der einen oder anderen Form als Cloud-Dienst angeboten werden. Dies fängt bei der Auslagerung von Backup- und Archivierungsprozessen an und hört auch bei Business-Anwendungen für Finanz-, Kunden- und Personalmanagement sowie Beschaffungs- oder Lieferprozesse nicht auf. Selbst datenintensive Workloads wie für Big-Data-Analysen wandern schon in die Cloud.

Unternehmen können sich durch die Cloud-Dienste den Betrieb eigener IT-Infrastrukturen zunehmend sparen; schenkt man den Aussagen der entsprechenden Cloud-Provider Glauben. Macht das umfangreiche Angebot an Cloud-Diensten eigenes On-Premise-Storage wirklich überflüssig?

Wir haben die Experten der führenden Unternehmen im Storage-Segment nach ihrer Meinung gefragt:

Wird On-Premise-Storage durch die Cloud überflüssig?

Hans Schramm - Dell: "Hier müssen zunächst einmal Fragen geklärt werden wie: Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen. Hat ein Unternehmen Bedenken, seine Daten außer Haus zu geben, wird es auch die Analysen im eigenen RechenzentrumRechenzentrum durchführen." Alles zu Rechenzentrum auf CIO.de

Dr. Stefan Radtke - EMC: "Das ist auch eine Frage der Kosten. Wenn sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein. Hier finden natürlich Entwicklungen bei allen Herstellern statt. Nehmen Sie als Beispiel das Scale-Out-NAS-System Isilon von EMC.

Neben den gängigen NAS-Protokollen wurde auch HDFS als Protokoll implementiert und zwar nativ. Das heißt, es sind keine weiteren Treiber auf der Client-Seite notwendig. Dadurch kann man alle gespeicherten Daten mit den gängigen Hadoop-Lösungen von Cloudera, Hortonworks, Pivotal etc. analysieren. Dafür müssen die Daten nicht - wie üblich - erst in einen Hadoop-Cluster kopiert werden. Isilon bietet die Möglichkeit, sowohl POSIX-konform wie als per HDFS auf die Daten zuzugreifen. Das ist wesentlich kostengünstiger und schneller, als die Daten zwischen beiden Welten hin- und her zu kopieren. Letzteres kostet Zeit und viele Netzwerkressourcen."

Stefan Roth - Fujitsu: "Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcingmodell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert. Die Infrastruktur im eigenen Rechenzentrum muss jedoch mit der Cloud-Infrastruktur ideal harmonieren und zusammenarbeiten können."

Dr. Georgios Rimikis - Hitachi Data Systems: "Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud Services, VirtualisierungVirtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte. Für welche Lösung bzw. welche Kombination sich ein Unternehmen entscheidet, hängt von den Business-Anforderungen und einer entsprechend ausgearbeiteten Speicher-Strategie ab. Alles zu Virtualisierung auf CIO.de

Wie auch immer diese aussieht, die wichtigste Prämisse ist, dass die Storage-Architektur im Zusammenspiel mit entsprechenden Analyse-Tools dabei unterstützt, alle Arten von Daten in Echtzeit zu analysieren und damit dem Unternehmen einen echten Business-Mehrwert liefert."

Guido Klenner - Hewlett-Packard: "Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden."

"Abhängig von der Art der Daten empfehlen wir einigen Kunden eine Verlagerung von On-Premise- zu Cloud-Speicherangeboten. Allerdings ist auch hier eine präzise Analyse der Datenart, des Speichers und des Speicherorts entscheidend. Für den Kunden ist es wichtig, offene Systeme zu wählen, die eine dynamische Datenverlagerung und Elastizität bei kurzzeitigen Erfordernissen ermöglichen, ohne ihn an den Anbieter zu binden."

"Wir beobachten allerdings, dass gerade im Einstiegssegment neue Speicherkonzepte wie Software-defined Storage (SDS) vermehrt Einzug halten. Diese können sich zu einer angemessenen Alternative zu den bisherigen FC-basierten Einstiegslösungen entwickeln. Gerade die Industrie 4.0Industrie 4.0 wird mit ihren Maschinendaten aus dem Internet of Things die bisher bekannten Dimensionen an Datenmengen und Wachstumsraten kräftig verändern. Hier sehen wir die Chance für hochskalierbare, dynamische und kostenminimierte Cloud-Storage-Lösungen. Neue Lösungen wie unser Content-Depot HPHP Helion auf OpenStack- und Industrie-Standard-Architekturbasis zielen darauf ab." Alles zu HP auf CIO.de Alles zu Industrie 4.0 auf CIO.de

Ralf Colbus - IBM: "Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen. Man denke nur an Flash-Systeme, die Millionen IOPS im Mikrosekunden-Latency-Bereich durchführen können für EPR, VDI oder Datenbanken im direkten Zugriff."

"Dazu kommt stets eine wichtige Abwägung der Kosten (Total Cost of Ownership): Ab wann rechnen sich Big Data-Analysen in der Cloud, wann On-Premise?"

Johannes Wagmüller - NetApp: "Der Trend wird zum Multisourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird. Hoch standardisierte Services wie etwa CollaborationCollaboration, Backup, Infrastruktur werden hingegen als Managed Services erbracht oder in der Public Cloud stattfinden. Wir werden eine Koexistenz verschiedener Betreibermodelle sehen. Hybride Modelle sind schon heute Realität und dieser Trend setzt sich fort." Alles zu Collaboration auf CIO.de

"Wenn es um die Themen Storage- und Datenmanagement geht, dann wird die Gravität von Daten meist unterschätzt. Diese Daten ‚kleben‘ förmlich an der Infrastruktur. Daten von A nach B und wieder zurück zu bewegen ist alles andere als trivial, und meist ein Professional Service-Projekt, das einen Riesenaufwand nach sich zieht."

Vincenzo Matteo - Oracle: "Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big DataBig Data Analytics. Die Hybrid Columnar Compression für Oracle Datenbanken ist ein Beispiel. Sie ist nur auf Oracle Storage Systemen verfügbar und ermöglicht 5- bis 10-mal schnellere Abfragen." Alles zu Big Data auf CIO.de