Automatisierung, Cloud, Big Data, SSD

Storage-Trends: Speichertechnologien für 2013

19.02.2013 von Christian Vilsbeck
Unverändert nimmt die zu speichernde Datenmenge zu. Gleichzeitig wird es immer schwieriger, die Daten zu managen. IT-Verantwortliche stehen bei der Planung der Storage-Infrastruktur vor vielen Herausforderungen. Experten führender Hersteller erläutern, welche Strategien 2013 wichtig sind.

IT-Verantwortliche und Administratoren haben es in den meisten Unternehmen nicht leicht. Die Anwender jammern, dass ihnen der Speicherplatz im Netzwerk ausgeht und alles immer zu langsam ist. Und durch die Vielzahl der ungebremst wachsenden Datenmenge wird das Finden der richtigen Daten zunehmend schwieriger. Big Data ist inzwischen mehr als ein Buzzword, bei vielen Firmen ist der Wildwuchs der Daten und der Versuch, diese zu strukturieren, längst Realität.

Das Budget für Storage-Ausgaben skaliert dabei nicht wirklich mit den wachsenden Anforderungen und Problemen. Die vorhandene Speicherlandschaft muss somit noch besser ausgenutzt werden. Neuanschaffungen sollen vor allem die Komplexität reduzieren, den Level der Automatisierung erhöhen. Hinzu kommt die Frage vieler IT-Verantwortlicher, welche Storage-Dienste sich in die Cloud auslagern lassen.

Und bei all den Maßnahmen zur Steigerung der Storage-Effizienz darf nach wie vor der Klassiker Backup und die gesetzeskonforme Speicherung der Daten nicht außer Acht gelassen werden.

Bildergalerie: Storage-Trends 2013
Hans Schramm, Field Product Manager Large Enterprise, Dell
"Das Daten-Management und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen."
Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland
"Innovative Unternehmen migrieren zu konvergenten Infrastrukturen, bei denen Server, Storage und Netzwerk in einer Einheit zusammengefasst sind. Das bietet die nötige Agilität, Flexibilität und auch Effizienz im Hinblick auf das weltweite Datenwachstum."
Robert Guzek, Senior Alliance Manager im Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions
"Während das Thema Big Data 2012 im Regelfall hauptsächlich Großunternehmen betroffen hat, wird sich 2013 auch der Mittelstand damit auseinandersetzen müssen."
Thomas Meier, Chief Technologist Storage, Hewlett Packard
"Das Verlangen nach 24-7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen 'Konsolidierung der Infrastrukturen' zur wichtigsten Herausforderung im Storage-Bereich."
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Eine Verdoppelung der Speicherdichte im Zeitraum von 18 bis 24 Monaten ging einher mit einer Preiserosion von 30 Prozent jährlich. Diese Trends werden sich voraussichtlich dramatisch verändern."
Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland
"Es gibt immer mehr und schneller wachsende Daten, der Kostendruck bleibt bestehen, hinzu kommt noch der Fachkräftemangel. Für uns bedeutet das, dass wir die Effizienz in der Storage-Infrastruktur durch Technologien steigern müssen. Ein Administrator muss mehr verwalten können und zwar schneller und einfacher!"
Galvin Chang, Associate Director Global Product Marketing, Infortrend
"Da die Kapazitäten einzelner Laufwerke auf 3 bis 4 TByte zugehen, können Enterprise-Kunden, die aus Kosten- oder Kapazitätsgründen keinen RAID-6-Schutz verwenden, möglicherweise Probleme durch lange RAID-5-Wiederaufbauzeiten bekommen."
Herbert Bild, Solutions Marketing Manager, NetApp
"Aus unserer Sicht wird 2013 ein Meilenstein für den Einsatz von Flash-Technologien werden. Dabei wird es in erster Linie um die Frage gehen, ob Produkte und Hersteller die Anforderungen erfüllen können, die sich durch den Einsatz dieser Produkte im Unternehmen ergibt."
Stefan Weidner, Technical Services Manager, Central Europe, Silicon Graphics GmbH
"Die größten Herausforderungen im klassischen Unternehmensumfeld sind weiterhin die Bedienbarkeit der Systeme, der Preis für heutige Systeme und die Flexibilität in der Nutzung. Kunden benötigen eine modulare, flexible und schlicht bezahlbare Lösung für jede Art der Datenhaltung, ob es sich hierbei um Block-, NAS- oder Objektbasierten Storage handelt."

Damit die Storage-Infrastruktur im Unternehmen möglichst problemlos funktioniert, sollten Sie auf den richtigen Trend und Technologie setzen. Wir haben die Experten der führenden Unternehmen im Storage-Segment um ihre Meinung gebeten, welcheTrends sie im Jahr 2013 erwarten:

Einfachheit und Automatisierung

Für IT-Verantwortliche und Administratoren sind Einfachheit und die Automatisierung beim Storage zunehmend essenziell. Wie helfen Ihre Produkte, das Management zu vereinfachen und Optimierungen automatisch ablaufen zu lassen?

Hans Schramm - Dell: "Das Management der Storagesysteme soll intuitiv und sicher erfolgen. Auslastung und Zustand der Systeme müssen auf einen Blick zu erkennen sein. Das gleiche gilt für das Reporting und das weitgehend automatische Ermitteln von Trends. Nicht zu vergessen sind der Einsatz von Snapshots und Funktionen, um Systeme asynchron oder auch synchron zu replizieren. Einfache, grafische und interaktive Oberflächen sind ein Muss, ebenso wie die Möglichkeit, Meldungen der Systeme über unterschiedliche Kommunikationswege zu versenden. Diese Vorgabe gilt für das Storagesystem selbst, aber auch für das Zusammenspiel mit Hypervisor-Umgebungen, da viele IT-Administratoren die Storagesysteme aus dem jeweiligen Hypervisor managen wollen. Das spart Zeit und damit Geld."

Dirk Pfefferle - EMC: "Mit dem weltweiten Datenwachstum stehen IT-Verantwortliche vor einer Herausforderung; das zeigt die Digital Universe Studie, die wir im Dezember 2012 veröffentlicht haben: Während die Daten von 2010 bis 2020 um das 50-fache wachsen werden, steigt die Anzahl an Fachkräften nur um das 1,5-fache - eine eindeutige Diskrepanz. IT-Verantwortliche benötigen Lösungen, mit denen sie diesen Herausforderungen begegnen können. Grundvoraussetzung ist eine flexible, skalierbare und einfach zu verwaltende IT-Infrastruktur. Ein erster Schritt dahin ist die Virtualisierung der bestehenden Infrastruktur und damit der Weg in die Private Cloud."

Robert Guzek - Fujitsu Technology Solutions: "Storage-Management ist eine Pflichtaufgabe jedes Unternehmens. Je nach Hersteller werden Storage-Systeme jedoch sehr unterschiedlich gemanagt. Generell sind natürlich hierbei die Anforderungen des Anwenderunternehmens ausschlaggebend. Wichtig ist auch, ob und wenn ja, welche Service Level Agreements vereinbart wurden. Darüber hinaus muss bekannt sein, wer im Unternehmen welchen Zugriff auf die Systeme hat. Vorab definierte Prozesse erleichtern ein Management. Soll das Management vereinfacht werden und Optimierungen automatisch erfolgen, gilt es Funktionaltäten wie AST (Automated Storage Tiering) zu implementieren. Diese Technologie bieten beispielsweise alle Speichersysteme der Reihe Fujitsu Eternus DX in Verbindung mit der Eternus SF Management-Software Version 15 (V15). AST verfolgt dabei zwei Ziele. Erstens ermöglicht es den schnellen Zugriff auf häufig genutzte Daten. Diese werden auf Speichermedien - vorzugsweise Solid State Drives (SSDs) - mit kurzen Zugriffszeiten platziert. Zweitens bietet es ein besseres Preis-/Leistungsverhältnis beim Speichern selten genutzter Daten: Diese legt AST auf Massenspeichern ab, die eine geringere Performance bieten, dafür aber preisgünstiger sind, etwa SAS- (Serial-Attached SCSI) oder SATA-Festplatten."

Robert Guzek, Senior Alliance Manager im Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions: "Storage-Management ist eine Pflichtaufgabe jedes Unternehmens. Je nach Hersteller werden Storage-Systeme jedoch sehr unterschiedlich gemanagt."
Foto: FTS

"AST kann - auch im laufenden Betrieb - richtlinienbasiert eingerichtet oder durch das System selbst übertragen werden. Ein Vorteil von AST ist die bessere Auslastung der Speichermedien. Laut IDC liegt sie bei konventionellen Storage-Architekturen im Schnitt bei 45 Prozent. Bei einem Storage-System wie der Fujitsu Eternus DX in Verbindung mit AST steigt sie auf mehr als 80 Prozent. Da das Speichersystem Daten automatisch den optimalen Speicherplatz zuweist, können sich die IT-Administratoren um ihr eigentliches Tagesgeschäft kümmern."

Thomas Meier - Hewlett Packard: "Voraussetzung für einfaches Management und effiziente Automatisierung ist die Konsolidierung der Daten auf durchgängigen und schlanken Speicherinfrastrukturen. HP hat dieses unter dem Stichwort Polymorphic Simplicity (in etwa: "vielgestaltige Einfachheit") adressiert: Beispielsweise bieten 3PAR StoreServ-Speichersysteme verschiedene Ausprägungen von Kapazität, Performance und Verfügbarkeit auf Grundlage einer einheitlichen Technologie- und Management-Plattform. 3PAR-Systeme lassen sich sehr einfach in eine vollautomatische Speicherbereitstellung (Provisionierung) einbinden, da sie interne Virtualisierung unterstützen (das heißt die Verteilung der Daten auf alle Platten, Widestriping genannt) und eine Web-/RESTful-API zum Speichermanagement bieten. Dadurch befreit das System IT-Verantwortliche von der manuellen Speicherbereitstellung - so werden Ressourcen für wichtigere, strategische Aufgaben frei. Ein einzelnes physikalisches 3PAR-System lässt sich mandantenfähig in mehrere logische, virtuelle Speichersysteme aufteilen."

Dr. Georgios Rimikis - Hitachi Data Systems: "Unified-Konzepte werden verstärkt Einzug in Rechenzentren halten und sowohl Einfachheit als auch Automatisierung vorantreiben. Sie reduzieren darüber hinaus den Testaufwand im Unternehmen, der sonst mit massiven organisatorischen und finanziellen Aufwänden verbunden ist. Ein Beispiel: Die Director-Orchestrierungssoftware von Hitachi Data Systems, die Bestanteil der Unified Compute Platform Pro ist, steuert sowohl Server als auch Storage und Netzwerk, das bringt naturgemäß auch Erleichterungen bei einem isolierten Blick auf die Storage-Ebene. Eine noch tiefere Integration von Angeboten wird die nahtlose Bedienung der Systeme weiter vereinfachen, etwa in den Bereichen Dynamic Provisioning und Dynamic Tiering. Die Agilität der Daten ist generell ein interessantes Feld. Es gibt immer mehr Unternehmen, die wegen ihres Datenwachstums und der Technologiewechsel permanent Daten migrieren. Die Notwendigkeit unterbrechungsfreier Migrationen steigt folglich. Zu guter Letzt wird die Verlinkung zwischen Anwendungen und Speicher weiter verbessert werden, das Stichwort lautet hier 'Storage Aware Application'."

Ralf Colbus - IBM: "Wir haben seit der Entwicklung und Einführung des IBM XIV-Speichersystems genau diese beiden Disziplinen herausgestellt. Das XIV-Speichersystem ist einfach zu administrieren. Diesen Ansatz haben wir dann konsequent weiterentwickelt. Heute hat jedes IBM Speichersystem inklusive unseres SRM-Tools (Storage Ressource Management) das gleiche 'look&feel', das heißt, ein Storage-Verantwortlicher kann durch das einheitliche Management in allen Disziplinen der Speicherlandschaft ein Virtualisierungssystem genauso managen wie ein NAS-, Entry- oder Midrange-Disk-System. Dieser Schritt ist für unsere Kunden sehr wichtig. Im Vergleich zur Autobranche: Wenn ich mich in ein Auto setze, weiß ich sofort, wo die wichtigsten Bedienelemente sind, wie das Radio bedient wird, egal ob es ein Kleinwagen oder ein Sportwagen ist! Des Weiteren setzen wir Technologien ein, um mehr Standardaufgaben auf Systemebene zu verlagern (zum Beispiel Performance-Tuning). Durch diese Funktionen können wir bis zu 40 Prozent im Vergleich zu unseren Wettbewerbern an administrativen Tasks einsparen."

Galvin Chang - Infortrend: "Die Anforderungen an die Automatisierung des Speichermanagements sind von Kunde zu Kunde verschieden. Für kleine und einfache Anlagen - generell mit weniger als 5 Arrays - werden Konfigurationsagenten bei der Installation und Grundkonfiguration hilfreich sein. In größeren und bei mehreren Speicherstandorten kann ein flexibles und leistungsfähiges Skript oder CLI (Command Line Interface) erfahrenes technisches Personal dabei unterstützen, diese Maschinen sehr effizient zu managen - beispielsweise bei der Sommerzeit-/Winterzeit-Anpassung und beim Umbenennen von Speichern."

Herbert Bild - NetApp: "Wir sind beim Thema Einfachheit und Automatisierung schon sehr weit und setzen schon seit Jahren auf Unified Storage. Für uns ist Unified Storage mehr als nur die Kombination von file- und blockbasierten Protokollen in einem Storage-System. Die entscheidenden Vorteile eines Unified Storage kommen unserer Meinung nach von einem gemeinsam Management-Layer, der Nutzern den Aufbau von shared und effizienten IT-Infrastrukturen ermöglicht. Bei uns ist dieser Layer unser Betriebssystem Data ONTAP."

"Das Thema Clustering ist ein großer Trend. Mit clustered Data ONTAP müssen Administratoren nicht mehr jedes Storage-System einzeln verwalten, sondern sie können sie in einem großen Pool zusammenfassen. Der Storage wird dabei über mehrere HA-Paare hinweg virtualisiert und in einem einzigen logischen Ressourcen- und Namespace-Container verwaltet. Die Skalierbarkeit reicht von einigen Terabyte bis zu mehreren Petabyte (derzeit bis zu 50) und erfolgt transparent für den laufenden Betrieb."

Stefan Weidner - SGI: "Die Vereinfachung der Administration, Übersichtlichkeit der Funktionalität, Monitorbarkeit der Systemlandschaft und Automatisierung von diversen Funktionen und wiederkehrenden Administrationstätigkeiten sind die Hauptaufgabe des sichtbaren Teils der Storage Software. Nicht ohne Grund konnten die letzten Jahre immer weiter aufzeigen, dass 'Software defined Storage' auf Siegeskurs ist und auch weiterhin sein wird. Die Komplexität von proprietärer Hardware und ihre Bedienung entsprechen nicht mehr den heutigen Erwartungen moderner und schlanker IT Abteilungen, welche in der Lage sein müssen sich auf geänderte Anforderungen mit den vorhandenen Systemen einzustellen."

Datenmanagement für Big Data

Big Data Analytics wird durch das Wachstum unstrukturierter Daten noch wichtiger. Wie erleichtern Ihre Produkte 2013 das Datenmanagement?

Hans Schramm - Dell: "Bei Big Data Analytics werden sich der Storage- und der Serverbereich ergänzen beziehungsweise überlappen. Als Komplettanbieter ist Dell hier gut aufgestellt. Erstens verfügt Dell über ein langjähriges und umfangreiches Know-how bei der Entwicklung von Servern - und dies sowohl bei klassischen Systemen als auch bei den Cloud-Servern. Zweitens bietet Dell ein vollständiges Lösungsportfolio, um Informationen sehr effizient auf den unterschiedlichen Storagemedien zu speichern und diese mit Servern zu verbinden. Die Zusammenarbeit mit spezialisierten Partnern rundet das Lösungsangebot ab."

Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Foto: EMC

Dirk Pfefferle - EMC: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann. Greenplum Chorus, unsere Analyse-Plattform für Big Data entwickeln wir ständig weiter. Erst kürzlich haben wir unsere Greenplum Chorus Software als Open-Source-Code veröffentlicht. Das soll die Entwicklung von Anwendungen fördern. Zudem kooperieren wir mit Kaggle. Im Rahmen der Zusammenarbeit integriert EMC den Zugang zur Kaggle-Community in Greenplum Chorus. Die Kaggle-Community besteht aus 55.000 Datenexperten, die sich auf Wettbewerbsbasis an der Ableitung von Vorhersagen aus einem Datenbestand beteiligen; die jeweils beste Lösung wird vom Auftraggeber des Wettbewerbs honoriert, dieser erhält im Gegenzug die Rechte an der Auswertungsmethode."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu Japan bietet hierfür bereits mit eXtreme Transaction Processing, Big Data Parallel Processing, Big Data Complex Event Processing unterschiedliche Lösungen an. Aufgrund der Komplexität der Infrastruktur, die in der Produktvielfalt und dem produktübergreifenden Portfolio begründet ist, ist ein optimal aufeinander abgestimmtes und übergreifendes Systemmanagement sehr wichtig. Fujitsu bietet Kunden eine auf ihre Systemlandschaft abgestimmte Lösung an."

Thomas Meier - Hewlett Packard: "Durch die konsequente Implementierung der HP-Autonomy-Software in Speicher-Systeme schafft HP Lösungen, mit denen sich unstrukturierte Daten mit einem bisher nicht gekannten Automatisierungsgrad verwalten, speichern, durchsuchen und wiederherstellen lassen. HP hat die Datenanalyse-Plattform Autonomy IDOL (kurz für Intelligent Data Operating Layer) bereits als Standard in zahlreiche Storage-Systeme implementiert und wird dies auch mit neuen Versionen und Systemen tun."

Dr. Georgios Rimikis - Hitachi Data Systems: "Wir nähern uns dem Thema von zwei Seiten. Einmal steigern wir 2013 nochmals die Leistungsfähigkeit unserer Systeme, indem wir unsere Flash-Strategie weiter verfolgen und unser komplettes SAN-Speicherportfolio mit Flash-Speicher anbieten. Sowohl die Hitachi Unified Storage (HUS) als auch die virtualisierungsfähige Variante HUS VM erhalten damit die Technologie, die in der Virtual Storage Platform (VSP) bereits jetzt für Leistungswerte von über einer Million IOPS sorgt. Gerade bei Big Data zählt ja die Leistungsfähigkeit des Speichers in Bezug auf I/Os und Antwortzeit, die Kapazität ist weniger eine Frage als es der Begriff vermuten lässt. Zum anderen ist unsere enge, bereits 18 Jahre dauernde Zusammenarbeit mit SAP ein großer Vorteil. Allein seit 1998 hat HDS zehnmal den SAP Award für höchste Kundenzufriedenheit gewonnen. SAP ist sozusagen das andere Ende unserer Big-Data-Herangehensweise. Seit einigen Wochen ist zum Beispiel mit der Hitachi UCP Select für SAP HANA eine entsprechend optimierte Lösung verfügbar, die auch In-Memory unterstützt. Auch in weiteren Bereichen, etwa mobile Infrastrukturen, unterstützen die HDS-Lösungen SAP."

Ralf Colbus - IBM: "Das Thema unstrukturiertes Datenwachstum lösen wir auf verschiedenen Ebenen: Von Organisationvorschlägen (Beispiel: Ist eine Regel für die Löschung von Daten im Unternehmen eingeführt?) bis hin auf die Subsysteme-Ebenen (automatische Verlagerung von Files gemäß Policies). Datenreduktions-Technologien helfen uns ebenfalls dabei, können aber - je nach Ausprägung - auch negative Effekte haben. Wichtig für uns ist ein skalierbarer Ansatz, der von 'klein' bis 'PB' genügend Speicher liefert und vor allem ein Ansatz, der unstrukturierte Daten schnell sichern und wieder herstellen kann. Der BI- oder Analytics-Bereich wird 2013 durch Appliances angereichert. Es gibt also mehr 'out of the box'-Lösungen, die schneller eingesetzt werden können."

Galvin Chang - Infortrend: "Für die im Datenmanagement tätigen Techniker ist es bei der Ressourcenplanung hilfreich, die History zu konsultieren. Wir erwarten, dass die meisten Speicher SRM-Funktionen (Storage Resource Management) bieten werden, mit denen sich die Speichernutzung effizient nachverfolgen lässt, zum Beispiel als Kapazitätszuwachsrate, wöchentliche Anforderungen an die Speicher-Performance und anwendungsspezifische Statistiken zu den Speicheranforderungen. Diese historischen Daten spiegeln die tatsächlichen physischen Anforderungen der Benutzer wider und können eine wichtige Rolle bei der künftigen Planung der Speicherressourcen spielen."

Herbert Bild - NetApp: "Auch hier unterstützen wir unsere Analytics-Partner wie Hadoop oder SAP im HANA-Umfeld mit unseren Storage-Lösungen. Dabei gehen wir auf die individuellen Anforderungen der einzelnen Applikationen ein und bieten darauf aufbauend den passenden Storage an. So verlangt Hadoop beispielsweise sehr hohe Performance, Bandbreite und Dichte. Hierfür eignet sich die NetApp E-Series-Plattform am besten, da sie die Anzahl der Replikationen und somit den Speicherbedarf des Unternehmens verringern kann. Bei SAP HANA hingegen stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund, wofür sich unsere FAS-Systeme aufgrund ihrer hohen Skalierbarkeit besser eignen."

Stefan Weidner - SGI: "Unstrukturierte Daten bleiben weiterhin die größte Herausforderung. Hier muss noch unterschieden werden zwischen den Anforderungen im Big Data- und HPC-Umfeld und denen im klassischen Unternehmen. Während heute im Big Data-Umfeld schon bekannte und zuverlässige Lösungen für Forschung, Lehre, Wissenschaft und einige spezielle weitere Einsatzgebiete existieren und sich tagtäglich im Einsatz beweisen, ist die Welt der Unternehmen noch nicht so weit, unstrukturierte Unternehmensdaten durch Big Data nutzbar zu machen. Hier finden sich schon einige wenige Software- und Hardwarelösungen auf dem Markt. Jedoch ist derzeit noch nicht zu erkennen, welche Lösungsansätze sich hier langfristig durchsetzen werden. Fakt ist, dass sich zukünftig eine Vielzahl von Technologien aus dem High-Performance-Computing im Unternehmenseinsatz wiederfinden werden. Ob dies Softwarelösungen sind wie SGI LiveArc (TM) als Digital Asset Management oder große Shared Memory Serversysteme wie die SGI UV 2000 (TM) mit der Kapazität von mehreren Duzend TByte RAM auch die größten Datenbanken zu beschleunigen wird von Fall zu Fall zu entscheiden sein."

"Klar ist mittlerweile aber, dass die klassischen Ansätze traditioneller SQL-Datenbanken hier nicht mehr ausreichen können um solche Daten nutzbar zu machen. Alleine HPC-Ansätze aus einer Kombination von Storage und Compute können hier noch weiterhelfen."

Komplettlösung: Server, Netzwerk und Storage

Komplettlösungen von Servern, Netzwerk und Storage werden bei Firmen zunehmend beliebter, beispielsweise für eine neue Cloud-Infrastruktur. Welche Lösungen haben Sie parat?

Hans Schramm - Dell: "Das Consulting, wie es Dell bietet, spielt hier die entscheidende Rolle. Ein komplettes Hard- und Softwareportfolio ist zwar eine wichtige Voraussetzung, denn ein Anwender hat dann einen einzigen Anlaufpunkt für alle Bereiche. Zuvor aber müssen eine Bestandsaufnahme durchgeführt und ein Sollzustand definiert werden: Was genau wird benötigt und welche Schritte sind notwendig, um das Ziel zu erreichen? Speziell im Bereich Cloud-Infrastruktur besteht ein großer Beratungsbedarf."

Dirk Pfefferle - EMC: "Im Vblock der VCE Company werden die unterschiedlichen Verfahren und Produkte aus den Bereichen Virtualisierung, Computing, Netzwerktechnologie, Speichersysteme und Daten-Sicherheit kombiniert. Die dazugehörenden Komponenten kommen von EMC, Cisco und VMware. Dabei stehen Kunden unterschiedliche Konfigurationen zur Verfügung, die sie je nach Bedarf wählen können. Insgesamt profitieren Nutzer von der hohen Flexibilität und der einfachen Verwaltung. Mit der VSPEX Referenzarchitektur bieten wir eine Kombination aus EMC Datenspeicher- und Backup-Technologien, wie Deduplizierung, Kompression und Fully Automated Storage Tiering (FAST) mit Hypervisor und virtuellen Desktop-Umgebungen sowie Virtualisierungs-, Server- und Netzwerklösungen der EMC Alliance Partner Brocade, Cisco, Citrix, Intel, Microsoft und VMware. Die Grundlage von VSPEX sind 14 Ausgangskonfigurationen, die von Kunden am häufigsten als Grundlage für Cloud Computing eingesetzt werden."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu stellt ein umfassendes Angebot an Trusted Cloud-Lösungen und -Services zur Verfügung, unabhängig davon, ob Kunden die Cloud für elementare Computing-Services, ein komplettes Backbone an IT-Systemen oder für die Bereitstellung anspruchsvoller Anwendungen verwenden möchten. Je nach Anforderung des Kunden gibt es Trusted, Public, Private oder Hybrid Cloud-Lösungen. Assessment Services helfen durch ihre Beratung den Unternehmen, die Möglichkeiten der Cloud voll auszuschöpfen und die jeweils konkreten Herausforderungen zu bewältigen. Darüber hinaus liefert Fujitsu auch die nötige Hardware aus den Bereichen Mobility wie zum Beispiel Notebooks, Desktops PCs oder Tablets sowie Storage- und Server-Produkte für das Data Center. Generell stellt Fujitsu seine Cloud-Services auch als Infrastructure as a Service, Software as a Service, Platform as a Service sowie als Enablement und Connectivity Services zur Verfügung."

Thomas Meier - Hewlett Packard: "HP bündelt Server-, Netzwerk- und Storage-Lösungen sowie Services bereits seit längerem nach der Converged-Infrastructure-Strategie und bietet Kunden umfassende Lösungen für die gesamte Unternehmens-IT aus einer Hand. Dabei reicht die Bandbreite von Hard- und Software über Outsourcing-Services und Support bis hin zur Beratung bei Systemkonzeption und -implementierung. Tatsächlich bietet HP das derzeit umfassendste Lösungs-Portfolio am Markt und ist deshalb der einzige Anbieter, der Unternehmen mit integrierten Lösungen für die Cloud-IT-Ära versorgen kann."

Dr. Georgios Rimikis - Hitachi Data Systems: "Hitachi Data Systems hat im Oktober die Hitachi Unified Compute Platform vorgestellt, kurz UCP. Mit dieser Plattform können Unternehmen ein Komplettpaket aus Server, Netzwerk, Speichersystem und teils auch Software beziehen. Insgesamt sind elf Varianten erhältlich, die auf zwei konvergenten Infrastrukturfamilien basieren. Die langjährige Erfahrung unserer Konzernmutter Hitachi Ltd. beim Bau von Servern kommt den Unternehmen hierbei erneut zu Gute, wie auch beim Flash Controller. Grundsätzlich ist eine Komplettlösung für uns aber auch in einer anderen Ausprägung denkbar. Wer wirklich alles aus einer Hand will, kann bereits jetzt über die Hitachi Global Services ein Storage-on-Demand-Modell buchen. HDS übernimmt in diesem Fall den vollständigen Storage-Betrieb. Ein großer bayrischer Automobilhersteller nutzt zum Beispiel ein derartiges Konzept sehr erfolgreich seit einigen Jahren. Ein solches Konzept ist mit der UCP natürlich grundsätzlich auch für den vollständigen Rechenzentrumsbetrieb denkbar."

Ralf Colbus - IBM: "Das Thema ist bei uns in der PureSystems-Produktlinie zusammengefasst: einer Kombination aus Servern, Infrastruktur, Storage und der Management-SW. Wir bieten unseren Kunden hier eine komplette Vertikalisierung der IT, sozusagen ein Rechenzentrum in der 'box', bei dem es unwichtig ist, welchen Hypervisor der Kunde bevorzugt. Wichtig ist, dass er eine schnell einsetzbare, leistungsfähige, praktisch schlüsselfertige Lösung ohne großen Administrationsaufwand erhält."

Galvin Chang - Infortrend: " Wir arbeiten mit Microsoft Private Cloud Fast Track"

Herbert Bild - NetApp: "Auch wir sehen die steigende Nachfrage nach 'Out-of-the-box'- Lösungen. Daher haben wir vor mehr als zwei Jahren mit Cisco die Referenzarchitektur FlexPod auf den Markt gebracht und sehr viel positive Resonanz erhalten. So haben wir heute bereits mehr als 1300 Kunden in 35 Ländern. Alleine in Deutschland setzen mittlerweile über 50 Unternehmen auf die Referenzarchitektur, darunter zum Beispiel Langenscheidt oder die Börse Stuttgart. Auch die FlexPod Partnerlandschaft hat sich seitdem stark erweitert und umfasst alleine in Deutschland 16 Partner, darunter Computacenter, Fritz & Macziol, Bechtle, Cancom und Stemmer."

Herbert Bild, Solutions Marketing Manager, NetApp: "Auch wir sehen die steigende Nachfrage nach 'Out-of-the-box'- Lösungen. Daher haben wir vor mehr als zwei Jahren mit Cisco die Referenzarchitektur FlexPod auf den Markt gebracht und sehr viel positive Resonanz erhalten."
Foto: NetApp

"Speziell für den Bedarf an 'Out-of-the-box'-Lösungen beim Mittelstand haben wir im Oktober letzten Jahres den ExpressPod vorgestellt. Genau wie der FlexPod kombiniert dieser Storage-Systeme von NetApp mit Servern und Netzwerkkomponenten von Cisco. Bei der Wahl des Virtualisierungspartners sind wir offen und arbeiten beispielsweise neben VMware auch verstärkt mit Microsoft und Citrix zusammen."

Stefan Weidner - SGI: "SGI hat in den vergangenen zwei Jahren mehrere Produkte auf den Markt gebracht, welche genau diese Aufgabenstellung adressieren. SGI MIS (Modular Infinit Storage) wird seinem Namen mehr als gerecht und stellt eine auf dem Markt einmalige Lösung dar, um hierauf höchstflexibel beliebige Aufgabenstellungen durch den Einsatz unterschiedlichster Software zu realisieren. Hierbei werden große Server- und Diskkapazitäten auf einer Hardware Plattform vereint und durch unterschiedlichste Software für ihre Verwendung optimiert. Der Kunde hat mit einer einzigen Plattform ein ganzes Universum von Möglichkeiten um hierauf sein Geschäft abzubilden. Hierbei bedienen wir alle Anforderungen an modernes IT Design. Ob 'Object-based Storage' für höchstskalierende und globale Cloudkonzepte oder NAS Lösungen für den Enterprise Anspruch kann hier ebenso realisiert werden wie klassische Block-Level Storage Systeme mit voller Enterprise-Funktionalität oder schlicht nur extremer Performance ohne überflüssige Funktionalität."

"SGI kann hier mit dem vollen Know-How seiner Professional Services, den gemachten Erfahrungen aus einigen der größten IT-Umgebungen der Welt und einer hochmotivierten und einsatzbereiten Servicetruppe dabei unterstützen, die Anforderungen des Kunden zu analysieren, zu lösen und eine Umgebung zu schaffen. Wenn gewünscht, unterstützt SGI auch jederzeit beim Betrieb und der Weiterentwicklung bereits bestehender IT-Landschaften. Nicht zu vergessen ist hier, dass SGI über ein weltweites Partnernetz verfügt, welches dem Kunden zur Verfügung steht und ihm einerseits die Wahl lässt, andererseits aber eine hohe Verfügbarkeit von Spezialisten sicherstellt."

Clustering statt Tiering

Durch die Parallelisierung von "einfachem" Storage lässt sich hohe Performance ohne ein klassisches "teures" Tiering erzielen. Gleichzeitig werden die Trends Kosteneffizienz und Einfachheit bedient. Sehen Sie einen Trend für dieses "Clustering"?

Hans Schramm - Dell: "Das wird spannend, denn die Anwender müssen da natürlich auch mitspielen. Die IT-Verantwortlichen werden sich das genau anschauen wollen, da es hier ja um das bislang investierte Wissen in vorhandene Lösungen geht. Es bleibt abzuwarten, wer sich für ein Pilotprojekt bereiterklärt. Auch hier ist Dell als Komplettanbieter gut gerüstet, zum einen durch ein sehr ausgefeiltes Storage Tiering in den Arrays selbst, zum anderen durch die Möglichkeit, recht günstigen Storage auf kleinem Raum anzubieten - Server bauen und entwickeln wir ja auch noch."

Dirk Pfefferle - EMC: "Unsere Lösung lautet Unified Storage. Das Tiering läuft hier automatisch ab; die passende Software erlaubt entsprechende Performance-Anpassungen, was den Aufwand für Wartung und Verwaltung erheblich vereinfacht. Weitere Vorteile von Unified Storage ist die Integration mit wichtigen Softwaretools wie zum Beispiel von VMware oder Microsoft."

Robert Guzek - Fujitsu Technology Solutions: "Parallelisierung kann kurzfristig eine Alternative darstellen. Mögliche Kostenvorteile bei der Anschaffung werden schnell durch den erhöhten administrativen Aufwand wieder neutralisiert. Mit einer steigenden Systemzahl wird eine parallelisierte Landschaft letztendlich nicht günstiger, sondern wirtschaftlich teuer. In einer Vollkostenrechnung wären unter anderem auch die Service- und Wiederbeschaffungskosten zu berücksichtigen, sowie insbesondere die Migrationskosten bei einem Technik-Refresh. Parallelisierung wiederspricht dem Konsolidierungsgedanken und erhöht die Komplexität nachhaltig."

Thomas Meier - Hewlett Packard: " HP hat dieses unter dem Stichwort Storage Federation adressiert. HPs 3PAR-StoreServ-Systeme können im Verbund betrieben werden. Dann lassen sich Datenbereiche (LUNs) von einem System auf das andere transferiert werden - ganz ohne zusätzlichen Virtualisierungslayer und transparent für die Applikation. Mit dieser Technologie adressiert HP zugleich das Thema 'Transparent Failover' aus dem Bereich Servervirtualisierung. In Sachen Kosteneffizienz liegt der Fokus aus HP-Sicht auf Thin-Strategien, das heißt der logischen Überquotierung real vorhandenen, physikalischen Speichers. Diese wird von allen modernen Betriebssystemen per T10-Unmap-Funktion unterstützt. Die hardwarebasierte 3PAR-Thin-Technologie (ASIC) und die automatische Umsetzung der T10-Unmap- Funktion senken den Bedarf an Kapazität, Strom, Kühlung und Stellfläche im Rechenzentrum, was die Betriebskosten um bis zu 50 Prozent senkt. Dabei entstehen keine Einschränkungen anderer Array-Funktionen wie Snapshots, Remote Mirroring, automatisches SubLUN Tiering usw."

Dr. Georgios Rimikis - Hitachi Data Systems: "Das hängt vom einzelnen Anwendungsfall ab. In wenig komplexen Umgebungen mag das eine erfolgreiche Herangehensweise sein. Aus unserer Sicht steigt jedoch die Zahl komplexer Umgebungen an. Auch die Anforderungen hinsichtlich der Leistungsfähigkeit nehmen zu, nicht nur wegen Big Data. Wir verstehen unter Tiering - genauer Dynamic Tiering - das regelmäßige, voll dynamische Verschieben von Daten auf Page-Ebene, also 42 beziehungsweise 32 Megabyte Blockgröße. Gerade in Verbindung mit leistungsfähigem Flash verfügen Unternehmen hier über Performance-Vorteile, die auch gefragt sind. Zudem senkt Dynamic Tiering ja auch in einer nicht parallelisierten Umgebung die Speicherkosten. In einem parallelisierten Cluster werden vermutlich nur selten extrem günstige, wenig leistungsfähige Low-End-Systeme stehen. In einer Umgebung mit dynamischem Tiering lassen sich jedoch bedarfsgerecht wirklich alle Speicherebenen einsetzen."

Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland: "Durch Tiering und Aufteilung in Storage-Klassen können Kosten sogar drastisch reduziert werden."
Foto: IBM

Ralf Colbus - IBM: "IBM beherrscht beide Technologien, das heißt wir können Scale-out, Tiering oder eine Kombination aus beiden Ansätzen wählen. Entscheidend hierfür ist der Anwendungsfall und die Applikation. Bestimmte Applikationen benötigen kein Scale-out, sondern einen Scale-up-Ansatz, um die Performance abzurufen, das heißt eine klassische, monolithische Storage-Architektur."

"Teures Tiering ist hier aber nicht ganz richtig. Unsere Funktion des 'Easy Tierings', bei dem Daten gemäß ihrer Anforderung zum Beispiel auf SSD ausgelagert werden, ist kostenfrei. Durch Tiering und Aufteilung in Storage-Klassen können Kosten sogar drastisch reduziert werden."

Galvin Chang - Infortrend: "Wir haben den Einsatz von Clustern (Dateisystemen) dieser Art in leistungsfähigen technisch-wissenschaftlichen Rechenanwendungen, in der Medienverarbeitung und im Broadcasting-Bereich gesehen. Wir glauben auch, dass viele öffentliche Cloud-Anbieter diese Art von Cluster-Architektur anbieten."

Herbert Bild - NetApp: "Definitiv sehen wir den Trend des Clustering. Wenn wir heute in ein Rechenzentrum schauen, finden wir viele unterschiedliche Storage-Systeme vor. Häufig muss der Administrator unterschiedliche Betriebssysteme beherrschen, was aufgrund des immer geringer werdenden Fachpersonals und der Geschwindigkeit von IT-Innovationen immer schwieriger wird. Wir setzen hier verstärkt auf eine agile Daten-Infrastruktur und somit auf unser Betriebssystem Data ONTAP. Dieses legt sich wie eine Art Überbau über die einzelnen Storage-Systeme und lässt sich somit einfach administrieren. Unser clustered Data ONTAP fügt dem Ganzen noch die Clustering-Möglichkeiten hinzu. In einem virtualisierten Bereich werden alle Storage-Systeme zusammengefügt und können gemeinsam verwaltet werden. Auch eine einheitliche Automatisierung wird so erreicht. Das entlastet die IT-Administratoren ungemein und ermöglicht einen unterbrechungs- und störungsfreien Betriebslauf."

Stefan Weidner - SGI: "Diese Ansätze sind nicht neu, werden aber immer leichter und zuverlässiger realisierbar durch den weiter zunehmenden Einsatz von Software im Storagebetrieb. Heute sind die Möglichkeiten hier noch nicht mal im Ansatz ausgereizt. Wie begrüßen diese Entwicklung sehr, haben mit SGI MIS hierfür eine wunderbare Hardwareplattform, aber eben auch die hierfür notwendige Softwarefunktionalität im Angebot, um solche Systeme zu erzeugen und zu betreiben. Die Virtualisierung von Storage steht hier in den Startlöchern, um klassische Storagesysteme auch im hochkritischen Enterprise-Umfeld abzulösen. Die gesamten Möglichkeiten sind noch gar nicht alle abzusehen."

Cloud-Integration

Wie unterstützen Ihre Produkte die Einbindung von Cloud-Storage, was ist geplant?

Hans Schramm - Dell: "Cloud-Computing und Cloud-Storage sind vielfach eine Frage der Definition. Wir sind momentan in der Lage, umfassende Storagekonzepte auch für die Cloud zu entwickeln und umsetzen. Das bezieht sich sowohl auf die Datenzugriffe als auch auf Bereiche wie die Zuordnung und Berechnung von genutzten Ressourcen. Entscheidend ist, dass die Lösungen einfach zu verwalten sowie schnell zu erweitern sind und somit eine gute Basis für das Cloud-Storage bieten, was auch immer der einzelne Kunde darunter verstehen mag."

Dirk Pfefferle - EMC: "Die zunehmende Cloud-Nutzung stellt Unternehmen und Service Provider vor die Herausforderung, Cloud-Storage-Anwendungen in großen und global verteilten Umgebungen zu betreiben. Die Explosion von unstrukturierten Daten, erzeugt von Web-Anwendungen, Tablets und mobilen Geräten, erfordert sowohl on-Demand-Skalierbarkeit als auch Unterstützung für mehrere Gerätetypen und Anwendungen. Unsere Antwort darauf ist Atmos. Mit der Cloud-Storage-Plattform Atmos steht Unternehmen eine Lösung für die Verwaltung von großen Datenmengen in der Cloud zur Verfügung, die nicht nur die nötige Flexibilität, sondern auch umfangreiche Sicherheitsmechanismen bietet. Erst kürzlich haben wir erhebliche Erweiterungen von Atmos angekündigt, die Migration einfacher gestalten sowie mehr Leistung und Dichte bieten."

Robert Guzek - Fujitsu Technology Solutions: "Cloud-Storage von Fujitsu umfasst beispielsweise Bereiche wie Online-Storage oder Online-Backup. Cloud-Storage ohne die Möglichkeit, einen zweiten Desaster Recovery-Standort nutzen zu können, eignet sich - wenn überhaupt - nur für weniger wichtige Daten. Storage aus der Cloud ermöglicht eine Flexibilisierung bei der Beschaffung von Storage-Kapazitäten. Ein schnelles Zuschalten oder Abmieten von Kapazitäten ist einfach möglich und begünstigt ein schnelles Reagieren auf wechselnde Anforderungen an den Speicher."

Thomas Meier - Hewlett Packard: "Die HP-3PAR-StoreServ-Systeme wurden Anfang 2000 für den Bereich 'Infrastructure-as-a-Service' entwickelt, dem Vorläufer zu Cloud-IT-Services. Sieben der Top-Ten-Serviceprovider in den USA setzen 3PAR-StoreServ-Systeme als Cloud-Storage ein. Zudem setzt HP die Systeme weltweit für die Umsetzung des Cloud-Infrastruktur-Dienstes cCell Services ein. In Deutschland ist die 3PAR-Storage-Plattform darüber hinaus Bestandteil der Strato ServerCloud. Besonders hervorzuheben sind die Kosteneffizienz durch das einfache Management und die hardwarebasierte Thin Technologie (ASIC) sowie die Automatisierung über Templates für Storage-Klassen (Disktyp, RAID Level,....): Mit 3PAR-Systemen wird die Storage-Bereitstellung automatisiert und zusätzlich vereinfacht. Das RESTful-Interface und die 3PAR FileServices runden das Paket ab."

Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems: "Alle unsere Produkte und Lösungen sind grundsätzlich für den Einsatz in Cloud-Storage-Umgebungen geeignet."
Foto: Hitachi Data Systems

Dr. Georgios Rimikis - Hitachi Data Systems: "Alle unsere Produkte und Lösungen sind grundsätzlich für den Einsatz in Cloud-Storage-Umgebungen geeignet. Mit unseren Enterprise-Baureihen realisieren wir ohnehin seit vielen Jahren Private-Cloud-Umgebungen, auch wenn solche Umgebungen früher vielleicht einen anderen Namen hatten. Hervorzuheben für Public Clouds ist die Hitachi Content Platform HCP mit ihrer Mandantenfähigkeit. Auf jeden Fall verfügen unsere Produkte über alle nötigen Schnittstellen und Leistungsmerkmale, um sie in Cloud-Umgebungen einzusetzen. HDS wird aber mit Stand heute keine eigenen Lösungen jenseits bestehender Partnerschaften für Cloud Storage anbieten, wir befähigen vielmehr Cloud-Storage-Anbieter."

Ralf Colbus - IBM: "Wir unterstützen Abrechnungsmodelle (Chargeback), einfache Provisionierung, automatische Datenverteilung, Enduser-Portale, Openstack, VMware-API, Globale Dateizugriffe, QoS etc. Die IBM Cloud ist über mehrere Datacenter verteilt und läuft auf voll virtualisierten IBM Storage Systemen.

Galvin Chang - Infortrend: "Speicher von Infortrend unterstützen die Cloud-Speicheranbieter Amazon S3, ElephantDrive, DropBox und NTT Docomo."

Herbert Bild - NetApp: "Auch im Bereich Cloud-Storage setzen wir voll und ganz auf unsere Partner. Im letzten Jahr haben wir hier zwei große Partnerschaften angekündigt, zum einen mit Citrix und zum anderen mit Amazon Web Services. Mit Citrix arbeitet NetApp zusammen, um Unternehmen einfache und schnellere On-Premise, hochskalierbare Datenaustausch- und Storageumgebungen zu bieten. So haben Citrix ShareFile Kunden Zugriff auf FAS und V-Series Storage Systeme mit clustered Data ONTAP. Das ermöglicht Kunden, die ihre Daten auf Abruf speichern, mit dem NetApp Betriebssystem Data ONTAP Zugriff auf diese zu erhalten, Performance und Kapazität zu skalieren, sowie den Datacenter Footprint zu reduzieren."

"Bei Citrix liegt der Schwerpunkt der gemeinsamen Projekte auf der Kombination der NetApp Unified Storage-Lösungen und dem weltweit führenden Storage-Betriebssystem Data ONTAP mit der Citrix CloudPlatform. Den Anwendern kann somit eine Lösung zur Verfügung gestellt werden, die die Storage-Nutzung in der Cloud optimiert, die Wartung vereinfacht und den Übergang zu einer agilen Daten-Infrastruktur beschleunigt."

"Für Amazon Web Services liefern wir mit NetApp Private Storage eine Enterprise Storage-Lösung für deren Produkt AWS Direct Connect. Dadurch erhalten Kunden die Möglichkeit, eine dedizierte Netzwerkverbindung schnell und einfach von ihrer existierenden Infrastruktur zu den Amazon Web Services aufzubauen."

"Auch in Deutschland sehen wir diesen Trend verstärkt und starten speziell für den lokalen Markt ein 'Cloud Services Made in Germany'- Programm. Dabei unterstützen wir Service Provider, um zum Beispiel Dropbox-ähnliche Lösungen für Unternehmen aufzusetzen. Diese stellt Unternehmen sichere und einfache Cloud-Dienste zur Verfügung, die gleichzeitigen die hier geltenden Datenschutzbestimmungen erfüllen."

Stefan Weidner - SGI: "Mit Scality hat SGI heute den führenden Hersteller von Object-based Storage als Partner auf der SGI MIS Plattform. Hiermit - und noch einer Anzahl von weiteren Softwarepartnern - kann SGI heute jede Storage-Anforderung im mittleren und großen Bereich nicht nur zuverlässig und hochwertig, sondern auch kosteneffizient und zukunftssicher abbilden. SGI zählt bereits heute einige der größten Cloud-Service-Provider weltweit zu ihren Kunden."

Storage-Herausforderungen 2013

Was sind die Herausforderungen der Unternehmen - Ihrer Kunden - im Jahr 2013 bei der Storage-Infrastruktur?

Hans Schramm - Dell: "Nicht alle Daten sind gleich, und auch der Zugriff auf Daten oder Datenbereiche ist recht unterschiedlich. Analysten zufolge wird auf 90 Prozent der einmal abgelegten Daten später gar nicht mehr zugegriffen. Diese Daten sollten auf keinen Fall auf schnellen teuren Storagemedien gespeichert werden. Also sind wir doch wieder beim Storage Tiering. Das muss aber anpassungsfähig, einfach verwaltbar und ohne viel Aufwand verständlich sein. Da das größte Wachstum bei den unstrukturierten Daten erfolgt, wird das Thema NAS Handling zu einem wichtigen Punkt."

Dirk Pfefferle - EMC: "Das Thema Storage sollte zukünftig anders betrachtet werden, denn hier vollzieht sich ein Wandel. EMC spricht deshalb von IT-Transformation. Die IDC Digital Universe Studie 2012 sagt bis 2020 ein Datenwachstums auf 40 Zetabyte vorher. Aber dem Datenwachstum können Unternehmen nicht durch den Hinzukauf von Speicherkapazität begegnen. Es gilt, die Strategie zu überdenken und neue Technologien und Ansätze zu verfolgen. Innovative Unternehmen migrieren zu konvergenten Infrastrukturen, bei denen Server, Storage und Netzwerk in einer Einheit zusammengefasst sind. Das bietet die nötige Agilität, Flexibilität und auch Effizienz im Hinblick auf das weltweite Datenwachstum. Das Thema Cloud wird im Storage-Bereich 2013 demnach weiter an Bedeutung gewinnen."

Robert Guzek - Fujitsu Technology Solutions: "Die Herausforderungen sind ähnlich geblieben wie 2012. Das rasant steigende Datenvolumen auf 4,4 Yotabyte bis 2050 (Quelle Horizon) erschwert ein konsistentes Management der Infrastruktur. Ebenso steigen die verfügbaren Budgets nicht im gleichen Maße wie die Datenmengen. Neue Technologien könnten Chancen bieten, den Herausforderungen zu begegnen, aber oft fehlen die Mittel, um Evaluierungen durchzuführen und entsprechende Änderungen planen zu können. Wenn der Ist-Zustand nicht ausreichend bekannt ist, können die Vorteile neuer Technologien nicht detailliert bewertet werden. Trotzdem müssen Unternehmen mit dem Wachstum und der Komplexität der sich ständig verändernden Speicher- und Performanceanforderungen Schritt halten. Schulungen und eine klare Unternehmensstrategie können möglich Antworten bieten. Storage-Anbieter, die über ihr Portfolio Lösungen für eine durchgängige Storage-Strategie bieten, können helfen, die Herausforderungen zu meistern."

"Während das Thema Big Data 2012 im Regelfall hauptsächlich Großunternehmen betroffen hat, wird sich 2013 auch der Mittelstand damit auseinandersetzen müssen. Big Data macht viele relevante Daten und Know-how nutzbar, das nachhaltig zum Geschäftserfolg beitragen kann. Insbesondere der Analytics-Bereich stellt mit dem Erkennen von Zusammenhängen, Bedeutungen, Mustern, Vorhersagemodellen, Data Mining, Text Mining, Bildanalytik, Visualisierung in Echtzeit die größte Herausforderung dar."

Thomas Meier, Chief Technologist Storage, Hewlett Packard: "Das Verlangen nach 24-7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen 'Konsolidierung der Infrastrukturen' zur wichtigsten Herausforderung im Storage-Bereich."
Foto: Hewlett Packard

Thomas Meier - Hewlett Packard: "Das Verlangen nach 24-7-Verfügbarkeit, weiter wachsende Datenmengen und der zunehmende Mangel an IT-Spezialisten machen 'Konsolidierung der Infrastrukturen' zur wichtigsten Herausforderung im Storage-Bereich. Die Unternehmen brauchen hochverfügbare, automatisierte, einfach zu verwaltende Systeme, die zudem effizient und entsprechend günstig zu betreiben sind. Weil 15 Jahre alte Storage-Architekturen diese Anforderungen nicht erfüllen können, werden sie zunehmend mit Cloud-affinen, schlanken Speicherinfrastrukturen ersetzt. HP unterstützt seine Kunden dabei mit modernster Infrastruktur und 'Speicher nach Bedarf'-Konzepten - entweder mit Hardware vor Ort und im Rechenzentrum des Kunden oder mit Kapazitäten aus der Cloud."

Dr. Georgios Rimikis - Hitachi Data Systems: "Eine der großen Herausforderungen nicht nur bei unseren Kunden ist der Wandel bei Kapitalkosten, also CAPEX, und Betriebskosten oder OPEX. Bisher haben die stetig sinkenden Kosten pro Speichereinheit die Kosten für die steigenden Kapazitäten mehr als ausgeglichen. Während der letzten zehn Jahre ist der Total Cost of Ownership beim Storage um etwa sieben Prozent pro Jahr gewachsen. Die Speicherkapazität hat jedoch um 30 bis 40 Prozent pro Jahr zugelegt. Die Kostensteigerungen rührten von der OPEX-Seite, die Beschaffungskosten für neue Speicher haben sich stetig verringert. Eine Verdoppelung der Speicherdichte im Zeitraum von 18 bis 24 Monaten ging einher mit einer Preiserosion von 30 Prozent jährlich. Diese Trends werden sich voraussichtlich dramatisch verändern. Virtualisierungstechnologien haben bei Hitachi dazu beigetragen, den TCO um 40 Prozent zu senken, aber die Hardware-Kosten verzeichnen derzeit eher einen Trend nach oben. Im Jahr 2020 soll die Preiserosion bei nur noch 20 Prozent liegen. Mehr Funktionen und nach wie vor extrem wachsende Kapazitäten sind dafür verantwortlich. Wir sprechen bereits von Exabyte-Planungen."

Ralf Colbus - IBM: "Die Themen leiten sich direkt aus den Herausforderungen ab, die sich bereits 2012 abgezeichnet haben: Es gibt immer mehr und schneller wachsende Daten, der Kostendruck bleibt bestehen, hinzu kommt noch der Fachkräftemangel. Für uns bedeutet das, dass wir die Effizienz in der Storage-Infrastruktur durch Technologien steigern müssen. Ein Administrator muss mehr verwalten können und zwar schneller und einfacher!"

"Das Thema Flash/SSD wird zudem massiven Einzug halten. Daten müssen in Zukunft schneller abgerufen werden können. Hybrid-Kombinationen aus langsamen, hoch-kapazitiven Drives und SSD sind bereits im Einsatz."

Galvin Chang - Infortrend: "Da die Kapazitäten einzelner Laufwerke auf 3 bis 4 TByte zugehen, können Enterprise-Kunden, die aus Kosten- oder Kapazitätsgründen keinen RAID-6-Schutz verwenden, möglicherweise Probleme durch lange RAID-5-Wiederaufbauzeiten bekommen."

Herbert Bild - NetApp: "Im Jahr 2013 stehen unsere Kunden vor der Herausforderung, dass sie ihre IT noch effizienter gestalten müssen. Das Datenwachstum bereitet ihnen genauso Probleme, wie die Zunahme unstrukturierter Daten und geplanter Downtimes. Gerade für E-Commerce Unternehmen ist jeder Ausfall gleichbedeutend mit Umsatzverlust. Daher ist gerade für diese 2013 das Ziel auch geplante Downtimes durch Updates etc. abzuschaffen. Da geclusterter Storage in den Unternehmen immer stärker eingesetzt wird, wird die hundertprozentige Uptime nach und nach zur Realität und auch geplante Downtime lässt sich so abschaffen."

Stefan Weidner - SGI: "Die größten Herausforderungen im klassischen Unternehmensumfeld sind weiterhin die Bedienbarkeit der Systeme, der Preis für heutige Systeme und die Flexibilität in der Nutzung. Kunden benötigen eine modulare, flexible und schlicht bezahlbare Lösung für jede Art der Datenhaltung, ob es sich hierbei um Block-, NAS- oder Objektbasierten Storage handelt. Wir können das heute für mittlere und große Umgebungen auf einer extrem performanten Plattform anbieten, die alle diese Möglichkeiten in sich vereint. Da es sich dabei im Kern immer um das gleiche System handelt, kann der Kunde mit einem Minimum an Einarbeitungsaufwand bei einem Maximum an Skalierbarkeit und Nutzbarkeit rechnen. Damit wird die eigentliche Zukunftssicherheit einer Investition in die IT-Infrastruktur erreicht."

Ausblick: Weitere Storage-Trends 2013

Welche weiteren allgemeinen Storage-Trends sind 2013 zu erwarten?

Hans Schramm - Dell: "Hier sind unterschiedliche Aspekte zu nennen, die am Ende in der Regel auf die Themen laufende Kosten - englisch OPEX für Operational Expenditures - und Investitionskosten - englisch CAPEX für Kapitalkosten - hinauslaufen. Big Data, also die Auswertung von sehr großen und komplexen Datenmengen, ist auf jeden Fall ein Thema, nicht nur im Jahr 2013. Daraus resultiert auch ein weiteres Umdenken im Hinblick auf die Storage-Infrastruktur. Hadoop und Open Source sind weitere Aspekte, die uns alle beschäftigen werden."

Hans Schramm, Field Product Manager Large Enterprise, Dell: "Das Daten-Management und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen."
Foto: Dell

"Das Daten-Management und das Datenwachstum bleiben auch im Jahr 2013 wichtige Herausforderungen. Dynamische und automatisierte Storagekonstrukte werden sich weiter durchsetzen, das heißt, Daten werden je nach Zugriffshäufigkeit auf dem passenden Medium gespeichert. Informationen mit häufigem Zugriff liegen auf schnellen, aber kleinen und teuren Medien. Sinkt die Zugriffshäufigkeit, werden sie automatisch auf große, langsame, aber günstige Medien verlegt; das Ganze erfolgt unabhängig von der Applikationsebene. Unterstützt wird die Verbreitung solcher dynamischer Tiering-Strukturen durch die Weiterentwicklung der SSDs oder die Integration von Serverspeicher in solche Konstrukte."

"Mittelfristig wird auch das Thema Archivierung, nicht nur aus rechtlichen Aspekten, eine größere Rolle spielen, da ein gut funktionierendes und dimensioniertes Archiv zum einen das Backup-Thema deutlich entspannt, aber auch die primären Arrays effizienter macht. Kombiniert mit einem dynamischen Storage Tiering entstehen daraus attraktive Lösungen."

Dirk Pfefferle - EMC: "Die ITK-Branche muss ihr Angebot auf die Herausforderungen, die durch das Datenwachstum entstehen, anpassen. Das funktioniert über einen lösungsorientierten Ansatz. Neben Cloud Computing, das Unternehmen die nötige Flexibilität für die Speicherung der Daten gibt, sehen wir im Einsatz von Flash-Technologien für Performance-Steigerung einen weiteren Trend ebenso gilt es die Verfügbarkeit der Daten garantieren. EMC Fully Automated Storage Tiering (F.A.S.T.) verschiebt automatisch aktive Daten an Speicherebenen mit hoher Performance und inaktive Daten an günstige Speicherebenen mit hoher Kapazität. Das ermöglicht eine höhere Performance, niedrigere Kosten und weniger Platzbedarf als bei konventionellen Systemen. Neben Speicherung sehen wir aber auch einen großen Bedarf an Backup- und Recovery-Lösungen, die Daten vor dem Ausfall schützen. Zum einen erfordern gesetzliche Bestimmungen von Unternehmen das Speichern und Archivieren von elektronischen Datensätzen ohne deren Veränderung zum anderen muss ein Unternehmen sicherstellen, dass sensible Daten nicht verloren gehen."

Robert Guzek - Fujitsu Technology Solutions: "2013 wird die Umsetzung von Storage-Virtualisierung, Cloud-Storage oder Unified Storage deutlich präsenter sein. Ebenso werden transparente, kundenorientierte Services eine wichtige Rolle spielen."

"Auch Big Data gehört zu den großen Storage-Trends des neuen Jahres. Hier werden die vier Themenfelder Datenmenge (Volume), Datenvielfalt (Variety), Geschwindigkeit (Velocity) und Analytics je nach Kunde unterschiedlich im Fokus stehen und behandelt werden."

Thomas Meier - Hewlett Packard: "Big Data, Cloud, Virtualisierung und Automatisierung sind auch im Storage-Bereich die maßgeblichen Trends. Die von ihnen ausgelösten Umbrüche machen es erforderlich, dass Unternehmen größere Datenmengen in noch kürzerer Zeit speichern, durchsuchen und wiederherstellen können. Weil die Cloud hierbei als Speicherort zunehmend Bedeutung erlangt, werden in Zukunft Cloud-gerechte Prozesse, entsprechende Services und eine entsprechende Governance deutlich wichtiger werden."

Dr. Georgios Rimikis - Hitachi Data Systems:"Flash und SSD werden ihren Siegeszug weiter fortsetzen, auch wenn die klassischen drehenden Platten noch die Oberhand behalten werden. Weniger einen Trend als vielmehr ein Thema könnte sich im Bereich der RAID-Gruppen abzeichnen; deren Größe hat inzwischen ein Maß erlangt, das bei Wiederherstellungen vielfach zum Flaschenhals und zur Sicherheitsproblematik wird. Hier besteht auf jeden Fall Diskussionsbedarf. Darüber hinaus wird uns Big Data weiter auf Trab halten, denn hier stehen wir erst am Anfang. Eine IDC-Umfrage im Auftrag von HDS hat ergeben, dass Mitte des Jahres 2012 lediglich zehn Prozent der Mitarbeiter in IT-Führungspositionen einen Big-Data-Prozess begonnen haben. Etwa 20 Prozent wollten zu diesem Zeitpunkt in den nächsten 24 Monaten damit beginnen. Nur zehn Prozent wollen in diese Richtung gar nicht aktiv werden. Die große Mehrheit von 60 Prozent hat jedoch schlicht noch gar keine Pläne. Eine solche Vogel-Strauß-Taktik werden die Unternehmen aber auf Dauer nicht durchhalten können, so dass es nach Erreichen der kritischen Masse sehr schnell mit Big Data vorwärts gehen kann."

Ralf Colbus - IBM: "Ich sehe Weiterentwicklungen bei All-SSD/Flash, Application Driven Backup und Restore, Application Driven Data-Placement. HPC-Systeme mit der entsprechenden Speicherarchitektur werden aufgrund der zunehmenden Wirtschaftlichkeit weiter stark wachsen. Es wird In-Memory-Applikationen sowie globale, konsistente Datenzugriffe geben. Weitere Automatisierung und Verschiebung/Delegation der Verantwortung an die End-User (Services abrufen) ist zu erwarten."

Galvin Chang - Infortrend: "SSDs (Solid-State Drives) werden immer beliebter in Enterprise-Speicher-Arrays, und automatisierte Speicher-Tiering-Technologien werden immer wichtiger, um ihre Vorteile voll auszunutzen."

Herbert Bild - NetApp: "Aus unserer Sicht wird 2013 ein Meilenstein für den Einsatz von Flash-Technologien werden. Dabei wird es in erster Linie um die Frage gehen, ob Produkte und Hersteller die Anforderungen erfüllen können, die sich durch den Einsatz dieser Produkte im Unternehmen ergibt. Die Software-Integration, derzeit noch von nachgeordneter Bedeutung, wird stärker in den Vordergrund rücken. Kriterien bei der Auswahl werden sich gleichermaßen auf Performance-Vorteile und das Daten-Management konzentrieren. Sobald NAND-Flash mehr und mehr im Fokus steht, werden auch andere Solid-State-Storage-Technologien ins Spiel kommen."

"Ein weiterer Trend, der uns sicherlich im Jahr 2013 stark beschäftigen wird, ist das In-Memory-Computing. Dabei wird SAP HANA als Beispiel von kombinierten OLTP/Analyse-Plattformen diskutiert. Auch das Interesse für NoSQL-Technologien wird zunehmen, da die Kunden kostengünstige Alternativen suchen, um die traditionell sehr unterschiedlichen Applikations-Plattformen zu konsolidieren."

Stefan Weidner - SGI: "Wir erwarten eine zunehmend dichte Einbindung von Storage und Storage-Funktionen direkt in Applikationen. Dies gilt primär für Web- und Cloud-Services, jedoch bedingt durch Big Data-Probleme auch bei Unternehmenssoftware, Anwendersoftware oder mobile Applikationen. Hierfür ist eine Vielzahl von Schnittstellen und professionelle Unterstützung bei der Integration gefragt. Wir beraten und unterstützen unsere Kunden hierbei sehr gerne."