Unified Storage, Cloud, Tiering, Konsolidierung

Die Storage-Trends 2011

18.02.2011 von Christian Vilsbeck
Der Storage-Bedarf steigt unvermindert. Vorhandene Mittel müssen deshalb optimal genutzt und neue Technologien mit Bedacht gewählt werden. Experten führender Hersteller erläutern, welche Storage-Strategie 2011 wichtig ist.

Die Talsohle der Wirtschaftskrise ist bei vielen Unternehmen durchschritten, die Gewinne steigen wieder. Auch nimmt unvermindert der Bedarf an mehr Storage-Kapazitäten und höherer Performance zu. Leider sehen sich die meisten IT-Verantwortlichen und Administratoren weiterhin mit stagnierenden Budgets konfrontiert.

Kosteneffizienz beim Unternehmens-Storage bleibt somit für die Verantwortlichen das zentrale Thema. Am besten wird eine hohe Storage-Effizient bei den vorhanden Mitteln und Hardware mit einem Mix aus Storage-Virtualisierung, Cloud-Storage und Konsolidierung erreicht. Und bei Neuanschaffungen nimmt der Unified-Storage-Ansatz, also ein System, das alle Speicherprotokolle unterstützt, immer mehr an Fahrt auf.

Bei all den eingesetzten Storage-Technologien darf aber der Klassiker Backup und auch die gesetzeskonforme Speicherung der Daten - Stichwort Complicance - nicht außer Acht gelassen werden.

Die Storage-Trends 2011
Hans Schramm - Dell
"Wenn Kunden über einen langen Zeitraum ihren „IT-Zoo“ oder hier den „Storage-Zoo“ aus Kostengründen kontinuierlich erweitert haben, fällt es ihnen oft schwer, das Ruder grundlegend herumzureißen. Es besteht dann die Gefahr, dass der „Storage-Wildwuchs“ weitergeht."
Mika Kotro - EMC
"Neben den wirtschaftlichen Aspekten wird beim Cloud Storage in erster Linie die einfache Integrierbarkeit in bestehende Infrastrukturen ein wichtiges Thema sein. Das heißt, Cloud Storage muss ohne wesentliche Anpassungen für bereits bestehende Anwendungen nutzbar sein."
Robert Guzek - Fujitsu Technology Solutions
„Mit zunehmender Storage-Vielfalt lohnt sich auch eine Konsolidierung, denn oft gehen neue oder zusätzliche Funktionen mit einem starken Wachstum einher. Hierzu könnte beispielsweise die Replikation gehören. Fehlende Funktionalitäten bei Einstiegssystemen erhöhen zudem den Charme, über eine Konsolidierung ernsthaft nachzudenken."
Juergen Krebs - Hitachi Data Systems
"FCoE wird sich erst dann durchsetzen, wenn sich die ersten neuen Umgebungen als stabil und gut zu managen erweisen. Nach einer gewissen Lernphase wird es zur sukzessiven Umstellung kommen, da die Budgets keinen Komplettaustausch erlauben."
Ingo Kraft - Hewlett Packard
"Bei einer längerfristigen Rentabilitätsbetrachtung fällt die reine Hardware nur mit etwa 20 bis 25 Prozent ins Gewicht, der Hauptanteil der Kosten entsteht tatsächlich durch den Verwaltungsaufwand. Je mehr unterschiedliche Speichersysteme und je mehr unterschiedliche Instanzen bestehen, desto mehr Kosten werden verursacht."
Ralf Colbus - IBM
"Die Cloud Welle wird 2011 auch im Mittelstand aufschlagen. Als zentrales Thema sehen wir die Verfügbarkeit, die Sicherheit der Daten und die Abrechnungsmodelle."
Johannes Wagmüller - NetApp
"Ob Storage, Server, Applikationen oder Desktop, Virtualisierung bleibt Trend. Eine zentrale Voraussetzung für den Erfolg ist jedoch eine Shared Storage Infrastructure, die mehrere Dienste und Kundengruppen von einer einzigen, integrierten Plattform aus unterstützt. Diese Art der Architektur ist weiter im Kommen."
Norbert Funke - Symantec
"Weiterhin im Fokus der Unternehmen sollte die Identifizierung der Datenbestände liegen, um die Fragen zu klären: Wem gehören die Daten, wie alt sind die Daten, wer benutzt die Daten, welche Daten können archiviert oder sogar gelöscht werden."

Um den Betrieb der Speicherlandschaft im Unternehmen auch künftig ohne Engpässe aufrecht zu erhalten, sollten Sie auf den richtigen Trend setzen. Wir haben die Experten der führenden Unternehmen im Storage-Segment um ihre Meinung gebeten, welche Trends sie im Jahr 2011 erwarten:

Transparente Kostenstrukturen

Entscheidend für Unternehmen, die in Storage jetzt investieren wollen, sind transparente Kostenstrukturen. Stimmen Sie dem zu und wie wollen Sie hier punkten?

Hans Schramm - Dell: "Das sehen wir genauso, der Kunde will gezielt investieren. Wir verfolgen deshalb im Storage-Bereich einen ganzheitlichen Ansatz mit transparenten Kosten. Er umfasst die Bereitstellung von Hardware und Software ebenso wie ein umfassendes Dienstleistungsangebot. Im Mittelpunkt stehen dabei unsere Intelligent-Data-Management (IDM)-Lösungen, die alle Storage-Themen von der Konsolidierung über das Storage-Management und das klassische Backup bis zur Deduplizierung abdecken."

Mika Kotro - EMC: "Das ist absolut richtig. Um dies zu unterstützen, haben wir unsere Preisgestaltung vereinfacht. In der Praxis bedeutet das, dass Kunden statt eine Vielzahl an Einzelprodukten Pakete zu bestimmten Aufgabenbereichen - wie etwa die Fernspiegelung - kaufen. In diesen Paketen sind alle für den jeweiligen Aufgabenbereich benötigten Produkte enthalten."

Robert Guzek - Fujitsu Technology Solutions: "Ja, das sehen wir auch so. Wir bieten beispielsweise spezielle Software-Pakete für unsere ETERNUS-Speichersysteme wie die ETERNUS SF Express, die im Preis bereits enthalten sind. Mit der Software lassen sich mehrere ETERNUS DX60/DX80/DX90 Plattenspeichersysteme über eine zentrale Konsole überwachen. Ergänzend verwaltet ETERNUS SF Express optionale Snapshots und Clone-Funktionen des Speichersystems über eine einfache Managementkonsole. Um Business Continuity zu gewährleisten, verwaltet die ETERNUS SF Express die Remote Replikation zwischen ETERNUS DX90-Plattenspeichern. Darüber hinaus benötigen Unternehmen transparente Hardwareerweiterungen und Services. Entscheidend ist, dass sich die Storage-Infrastruktur gut in die Hardware eingliedert, das heißt zum Beispiel kompatibel mit den Servern anderer Hersteller ist. Darauf legen wir bei Fujitsu großen Wert."

Ingo Kraft, Hewlett Packard: "Bei einer längerfristigen Rentabilitätsbetrachtung fällt die reine Hardware nur mit etwa 20 bis 25 Prozent ins Gewicht, der Hauptanteil der Kosten entsteht tatsächlich durch den Verwaltungsaufwand. Je mehr unterschiedliche Speichersysteme und je mehr unterschiedliche Instanzen bestehen, desto mehr Kosten werden verursacht."
Foto: Hewlett Packard

Ingo Kraft - Hewlett Packard: "Absolut! Gerade bei dem kontinuierlich steigenden Speicherbedarf ist das ein wichtiger Punkt, weil das Datenwachstum die Storage-Kosten in die Höhe treiben kann. Das Wichtigste ist jedoch, dass Unternehmen auf die modulare Erweiterbarkeit ihrer Hardware mit einer transparenten Kostenstruktur achten. Dazu ist beispielsweise die Software-Lizenzierung genau zu betrachten. Wie sind hier die Lizenzierungen? Nach Terabyte, nach SAN-Array? Wie werden Kapazitätszuwächse berechnet? Sind nicht nur die Funktionen, die ich jetzt benötige, berücksichtigt, sondern auch meine Anforderungen innerhalb des nächsten Jahres? Um nur ein Beispiel zu nennen: Mit unseren P4000 LeftHand-Systemen machen wir es Unternehmen ganz einfach - alle Funktionen eines Speichersystems wie beispielsweise Thin Provisioning, synchrone und asynchrone Replikation, transparenter Failover, Snapshots oder Clones sind ungeachtet der genutzten Speicherkapazität im Kaufpreis gleich lizenziert. So haben Unternehmen volle Kostentransparenz - mit jeder Speicherbox erhalten sie Hardware, Software, Lizenzen sowie drei Jahre Wartungs- und Support-Service gleich mit."

Jürgen A. Krebs - Hitachi Data Systems: "Transparente Kostenstrukturen werden seit Anbeginn der EDV gefordert - ihr Mehrwert kommt jedoch nur zum Teil bei den Kunden an. Häufig liegt dies an internen Strukturen wie der getrennten Budgetierung von IT - Dienstleistungen, Software, Systeme - und den Stromkosten unter Facility-Management. Oftmals spielen Kosten, egal wie transparent, auch nur eine untergeordnete Rolle. Dann geht quasi Investitionsschutz vor den gesunden Menschenverstand und Ausgaben werden allein für den Erhalt des operativen Systems getätigt. Auf dem Weg zu einem ganzheitlichen IT- und Kostenansatz bieten wir unseren Kunden mit großem Erfolg unseren SES (Storage Economics Service) an. Das Ergebnis wird auf Basis fundierter Methoden gemeinsam mit dem Kunden erzielt. Er kann jederzeit bestimmen, welche Maßnahmen in welcher Tiefe umgesetzt werden sollen. Bereits nach einem Tag wird sichtbar, welche positiven Auswirkungen die Änderungen auf den ROI haben werden. Das ist der "Takt", der den Kunden in eine echte Entscheiderposition versetzt. Optional unterstützen wir die durch den SES gewonnenen Erkenntnisse mit unserer neuen Hitachi Command Suite, die Unternehmen dabei hilft, OPEX-Kosten einzusparen."

Ralf Colbus - IBM: "Hier stehen eher die Optimierung der internen Prozesse SLA und Preismodell-Definitionen im Vordergrund. Die Kostenstrukturen werden nicht unbedingt durch neue Investitionen transparenter!"

Johannes Wagmüller - NetApp: "Ja definitiv. Cloud- oder Outsourcing-Angebote gelten verstärkt als Benchmark für interne IT-Projekte und -Dienste. Und so werden transparente Kostenstrukturen ein Muss für anstehende Beschaffungsmaßnahmen. Integrierte Storage-Effizienz-Features und einfaches Management mit Funktionen für Überwachung und Verrechnung schaffen größtmögliche Effizienz und Transparenz. Offene Schnittstellen und Integrationen in Frameworks, wie etwa von BMC oder CA, erweitern das Spektrum. Von NetApp gibt es mit SANscreen eine bewährte Monitoring-Software, die den Nutzungsgrad heterogener Storage-Umgebungen und damit deren Kosteneffizienz ermitteln kann."

Norbert Funke - Symantec: "Natürlich sind transparente Kostenstrukturen von enormer Bedeutung. Denn Unternehmen stehen unter hohem Kostendruck, der auch in die IT-Abteilungen weiter gegeben wird. Dies ist ein wichtiger Grund für die Implementierung einer intelligenten Storage Ressource-Management (SRM)-Lösung - besonders, wenn der Return on Investment (ROI) ins Kalkül gezogen wird. Erfahrungsgemäß lässt sich ein ROI für entsprechende Systeme bereits nach wenigen Monaten erreichen. Mit SRM-Lösungen optimieren Unternehmen die Verwaltung von Daten während ihres gesamten Lebenszyklus und vermeiden eine Überkapazität an Speicher. Die tatsächlich vorhandenen Speicherressourcen werden besser ausgeschöpft und damit teure Hardware-Investitionen vermieden."

Storage-as-a-Service

Die meisten Unternehmen nutzen Storage-as-a-Service laut IDC überwiegend für Backup-/Desaster-Recovery. Wird 2011 der Trend hin zum Hauptdatenspeicher deutlich steigen?

Hans Schramm - Dell: "Das sehe ich eher etwas vorsichtiger. Geschäftskunden sind heute hier noch zurückhaltend. Der Trend geht aber in diese Richtung, wenn auch noch nicht in 2011, so doch in den kommenden Jahren."

Mika Kotro - EMC: "Das ist vor allem davon abhängig, welche Marktteilnehmer ein solches Angebot zu welchen Konditionen anbieten. Wenn die Rahmenbedingungen attraktiv genug sind, ist davon auszugehen, dass es vom Markt zunehmend angenommen werden wird."

Robert Guzek - Fujitsu Technology Solutions: "Storage-as-a-Service eignet sich hervorragend, um Lastspitzen abzufangen. Beim Backup wird oft ein zweiter Standort für den Desaster-Fall bereitgestellt. Wie schnell sich der Trend zum Hauptdatenspeicher ergeben wird, hängt stark von den verfügbaren Leitungskapazitäten und der Preisgestaltung ab. Intelligente Konzepte können beispielsweise eine Kombination aus Infrastructure-as-a-Service for Storage mit eigenem Storage und Managed Storage sein, wie wir sie bereits heute bei Fujitsu realisieren."

Ingo Kraft - Hewlett Packard: "Die Aussage von IDC können wir in Bezug auf unsere Angebote in diesem Segment nicht bestätigen. Wir bieten mit HP Utility Services ein SaaS-Portfolio mit über 20 verschiedenen Applikations- und Infrastruktur-Modulen für Firmenkunden an - darunter auch Speicher und Backup. Die Speicher- und Backup-Module werden dabei nie isoliert, sondern immer im Verbund einer Gesamtlösung bezogen, etwa als Ergänzung eines SAP-, CRM- oder Server-Betriebs."

Jürgen A. Krebs - Hitachi Data Systems: "Es bleibt abzuwarten wie sich der Trend auf Enterprise- und Midrange-Speicher für die Kundenanwendungen auswirken wird. Ein Trend, der sich hingegen deutlich abzeichnet, ist das Technologie-Leasing, durch das bestehende und zukünftige Risiken gedeckelt werden sollen."

Ralf Colbus, IBM: "Das Thema 'as-a-Service' befindet sich in einigen Bereichen - ähnlich Cloud- noch in der Findungsphase. Es herrscht Aufklärungsbedarf der Hersteller, nicht jedes Offering ist 'as a Service' ready."

Ralf Colbus - IBM: "Das Thema "as-a-Service" befindet sich in einigen Bereichen - ähnlich Cloud- noch in der Findungsphase. Es herrscht Aufklärungsbedarf der Hersteller, nicht jedes Offering ist "as a Service" ready. Ebenso kann nicht jedes Offering heute als Cloud angesehen werden. Hier ist die Kommunikation oft schneller als die einsetzbaren Produkte! Und: Für Testläufe nimmt man keine Produktivsysteme!"

Johannes Wagmüller - NetApp: "Unserer Einschätzung nach nur in Teilbereichen. In erster Linie wird das für Public-Cloud-fähige Dienste wie E-Mail, ERP und so weiter der Fall sein. Die Mehrzahl der IT-Projekte wird nach wie vor "on premise", also in einer Privat Cloud, realisiert. Allgemeine Sicherheitsbedenken, Rechtsthematiken, Audit-Themen und physische Anforderungen wie Bandbreiten und Latenzzeiten sind die Gründe dafür."

Norbert Funke - Symantec: "Storage-as-a-Service kann verschiedene Facetten haben. Einmal kann dieser Service in der Cloud von einem externen Dienstleister angeboten werden. Oder Unternehmen bilden ihre eigene private Cloud und ermöglichen diesen konsolidierten Dienst intern. Dies scheint die überzeugendere Variante zu sein. Denn Unternehmen sind vorsichtig, wenn sie Informationen in einer Infrastruktur ablegen, die sie nicht kontrollieren können. Zudem dürfen bestimmte Daten auch gar nicht Unternehmens- oder geografische Grenzen verlassen. Ein externer Storage as a Service-Anbieter kann nur überleben, wenn der den so genannten "Economics of Scale" Prinzipien folgt. Doch das gestaltet sich schwierig, da viele Unternehmen einfach nicht bereit sind, die Kontrolle über Daten aufzugeben. Vor allem, wenn auch noch rechtliche Einschränkungen dabei eine Rolle spielen. Da das eigentliche Datenwachstum im Bereich der unstrukturierten Daten liegt, gehen immer mehr Unternehmen dazu über, ihre Network Attached Storage (NAS) Speicherinseln zu konsolidieren und durch eine massive Scale-Out versus Scale-Up NAS-Lösung zu ersetzen."

Trends bei Cloud-Storage

Was wird 2011 beim Cloud-Storage das zentrale Thema?

Hans Schramm - Dell: "Cloud-Storage wird sich nach und nach etablieren. Die Angebote sollten stimmen und vor allem das Vertrauen auf Kundenseite muss gewonnen werden, insbesondere wenn es über eine reine "Private Cloud" hinausgeht. Hilfreich ist es, wenn der Cloud-Anbieter die Kunden mit Dienstleistungen unterstützt und ihnen zum Beispiel die unterschiedliche Beschaffenheit ihrer Datenstruktur aufzeigt. Das könnte der erste Schritt zur Auslagerung der eher "zweitrangigen" Daten in die Cloud sein."

Mika Kotro - EMC: "Neben den wirtschaftlichen Aspekten wird beim Cloud Storage in erster Linie die einfache Integrierbarkeit in bestehende Infrastrukturen ein wichtiges Thema sein. Das heißt, Cloud Storage muss ohne wesentliche Anpassungen für bereits bestehende Anwendungen nutzbar sein."

Mika Kotro, MC: "Neben den wirtschaftlichen Aspekten wird beim Cloud Storage in erster Linie die einfache Integrierbarkeit in bestehende Infrastrukturen ein wichtiges Thema sein. Das heißt, Cloud Storage muss ohne wesentliche Anpassungen für bereits bestehende Anwendungen nutzbar sein."

Robert Guzek - Fujitsu Technology Solutions: "Transparente kundenorientierte Services werden weiter in den Vordergrund treten. Hybrid Cloud, eine Mischform von Private, Trusted und/oder Public Cloud, wird sicherlich stark im Kommen sein. Außerdem wird es neben den Sicherheitsfragen für Unternehmen immer entscheidender, ob die Daten in einem politisch stabilen Land vorgehalten werden."

Ingo Kraft - Hewlett Packard: "Das zentrale Thema für Cloud-basierte Speichersysteme ist die Abdeckung spezieller Anforderungen bezüglich Skalierbarkeit, Service-Levels und Performance. Außerdem ist es in Cloud-Umgebungen wichtig, dass ein Anwender nicht auf die Daten eines anderen Anwenders zugreifen kann und Probleme in einen User-Bereich nicht andere Bereiche beeinflussen. Unser 3PAR-Produktportfolio unterstützt diese Aspekte der Storage-Cloud, etwa die Sicherung des Zugriffs auf Daten durch Virtuelle Private Arrays. Diese sind vergleichbar mit virtuellen Privat-Netzwerken (Virtual Private Networks, VPN) und erlauben die Trennung von Anwendern und Fachbereichen. Des Weiteren wird bei Cloud-Systemen die Leistungsoptimierung der Speicherblöcke immer wichtiger. Abhängig von der Benutzung der Daten werden mit der 3PAR-Technologie unterschiedliche Speicherklassen verwendet. So wird zum Beispiel bei der Benutzung eines leistungsstarken SSD-Bereiches schon während der Laufzeit die Zugriffshäufigkeit analysiert; die Daten werden auf unterschiedliche Speicherblöcke verschoben und somit die Leistung optimiert."

Jürgen A. Krebs - Hitachi Data Systems: "Das Thema Cloud wird sich in seinen unterschiedlichen Facetten weiter etablieren. Hier wird es sich zum einen um die Consumer drehen, die die Cloud zum Speichern privater Inhalte wie Urlaubsbilder nutzen, zum anderen um Firmen, die die schnelle Verfügbarkeit als Local Cloud nutzen werden. Solange jedoch die sehr wichtige Sicherheitsfrage nicht hinreichend geklärt ist, werden die Industriekunden nicht in die Public Cloud gehen."

Ralf Colbus - IBM: "Die Cloud Welle wird 2011 auch im Mittelstand aufschlagen. Als zentrales Thema sehen wir die Verfügbarkeit, die Sicherheit der Daten und die Abrechnungsmodelle. Ein weiteres zentrales Thema ist die Frage, wie sich Hybrid-Cloud-Formen in Unternehmen einsetzen lassen."

Johannes Wagmüller - NetApp: "Integrationsfähigkeit in heterogene Rechenzentrums-Infrastrukturen und Prozesse sowie die zunehmende Automatisierung der Betriebsabläufe auf Service Level."

Norbert Funke - Symantec: "Unternehmen werden zunehmend Storage Cloud-Technologien einführen - allerdings um primär eine private Storage Cloud aufzubauen. Im Bereich Collaboration sind hybride Cloud-Ansätze denkbar. Also wenn zwei oder mehrere Unternehmen für eine bestimmte Zeit zusammenarbeiten und dafür ein Kontingent an Speicher benötigen. Für mittelständige Unternehmen etablieren sich zudem Public Storage Clouds als sinnvolle Lösung. Problemloser sind diese Public Clouds im Konsumerbereich. Das heißt, Serviceanbieter stellen große Speicher für den privaten Bereich zur Verfügung, die dann für verschiedene Anwendungen genutzt werden können. Beispiele dafür sind Backup oder Data Repository (Musik, Video, Bilder)."

Storage-Konsolidierung

Durch geringe Budgets haben viele kleine Unternehmen die Kapazität für den wachsenden Speicherbedarf möglichst günstig zugekauft - den steigenden Managementaufwand in Kauf nehmend. Wird bei wachsenden Budgets der Trend zur Storage-Konsolidierung deshalb deutlich beschleunigt?

Hans Schramm - Dell: "Ja und nein. Wenn Kunden über einen langen Zeitraum ihren "IT-Zoo" oder hier den "Storage-Zoo" aus Kostengründen kontinuierlich erweitert haben, fällt es ihnen oft schwer, das Ruder grundlegend herumzureißen. Es besteht dann die Gefahr, dass der "Storage-Wildwuchs" weitergeht. Ein klares "Ja" gilt für Unternehmen, die eine Konsolidierung immer schon im Auge hatten, die Projekte aber aus Budgetgründen bisher nicht umsetzen konnten."

Mika Kotro - EMC: "Auch wenn die wirtschaftliche Lage sich deutlich verbessert hat, wird immer noch stark auf Kosteneffizienz geachtet. Deshalb zählt Speicherkonsolidierung weiterhin zu den Trends, weil sie sich in der Praxis bereits bewährt hat."

Robert Guzek, Fujitsu Technology Solutions: "Mit zunehmender Storage-Vielfalt lohnt sich auch eine Konsolidierung, denn oft gehen neue oder zusätzliche Funktionen mit einem starken Wachstum einher. Hierzu könnte beispielsweise die Replikation gehören. Fehlende Funktionalitäten bei Einstiegssystemen erhöhen zudem den Charme, über eine Konsolidierung ernsthaft nachzudenken."
Foto: Fujitsu Technology Solutions

Robert Guzek - Fujitsu Technology Solutions: "Mit zunehmender Storage-Vielfalt lohnt sich auch eine Konsolidierung, denn oft gehen neue oder zusätzliche Funktionen mit einem starken Wachstum einher. Hierzu könnte beispielsweise die Replikation gehören. Fehlende Funktionalitäten bei Einstiegssystemen erhöhen zudem den Charme, über eine Konsolidierung ernsthaft nachzudenken. Häufig kann auch eine Konsolidierung in Infrastrukturwerten, wie zum Beispiel Strom oder Abwärme schnell wirtschaftliche Vorteile bringen. Fujitsu bietet beispielsweise die Optimized Services an: der Kunde erhält zu einem geringen Festpreis von etwa 10.000 Euro eine Evaluierung hinsichtlich des möglichen Optimierungspotential. (Preisangabe gilt für 5 Server, 5 Storage-Systeme und 50 SAN- Ports)."

Ingo Kraft - Hewlett Packard: "Nicht immer. In der Vergangenheit haben wir gerade in Situationen mit wachsenden Budgets erlebt, dass dann eher neue Lösungen gekauft werden als sich der einer Daten- und Systemkonsolidierung zu stellen. Mittel- und langfristig wird es aber einen deutlichen Trend zur Konsolidierung geben. Mittelständische Kunden müssen von den großen Unternehmen lernen, die bereits vor Jahren den steigenden Administrationsaufwand kennengelernt haben. Sie haben zwischenzeitlich Konsolidierungen durchgeführt, ihre Storage-Strategien entwickelt und diese angepasst. Bei einer längerfristigen Rentabilitätsbetrachtung fällt die reine Hardware nur mit etwa 20 bis 25 Prozent ins Gewicht, der Hauptanteil der Kosten entsteht tatsächlich durch den Verwaltungsaufwand. Je mehr unterschiedliche Speichersysteme und je mehr unterschiedliche Instanzen bestehen, desto mehr Kosten werden verursacht. Es empfiehlt sich also bei Neuanschaffungen, nicht nur auf das vermeintlich günstige Angebot zu achten, sondern ganzheitlich die Kosten zu ermitteln - also einschließlich des Administrationsaufwands. Insbesondere sollte analysiert werden, ob besondere Schulungen für die Administratoren nötig sind, und ob die Aufgabenstellungen im laufenden Betrieb einfach vorgenommen werden können, ohne große Wartungsfenster einzuplanen. Zukunftssichere Systeme sind darauf ausgelegt, den Aufwand so gering wie möglich zu halten und unterstützen dies nachhaltig. Zum Beispiel benötigt die HP StorageWorks EVA-Produktlinie bis zu 89 Prozent weniger Administrationsaufwand als vergleichbare Produkte der gleichen Leistungsklasse am Markt (Edison Group, White Paper "Comparative Management Cost Survey, Februar 23, 2009)."

Jürgen A. Krebs - Hitachi Data Systems: "Nach wie vor besteht bei Unternehmen jeder Größe ein sehr hohes Potenzial durch Konsolidierung. Dabei ist eine Speichervirtualisierung noch gar nicht berücksichtigt. Besonders das Segment bis 150.000 Euro sehen wir als einen der Fokusbereiche, in dem Konsolidierung eine erhebliche Verbesserung der Betriebskosten (OPEX) bedeuten würde. Oftmals wird die vermeintlich hohe Investition noch losgelöst sowohl vom zu erwartenden OPEX- als auch CAPEX- (Investitionsausgaben) Vorteil über einen Zeitraum von drei Jahren gesehen."

Ralf Colbus - IBM: "Die Bedienbarkeit der Systeme (das Management) wird zukünftig immer wichtiger. Dies ist ein personell bedingter Zwang, keine Option mehr. Die zerklüftete Systemlandschaft fängt IBM mit Speichervirtualisierung ein, sie homogenisiert das Backend und sorgt für den Abbau von Storage-Inseln."

Johannes Wagmüller - NetApp: "Ja, schließlich geht erhöhter Verwaltungsaufwand bei geringerer Flexibilität und Effizienz deutlich zu Lasten der laufenden Kosten und Profitabilität der IT. Steht wieder mehr Budget zur Verfügung, werden die Defizite korrigiert."

Norbert Funke - Symantec: "In den meisten Unternehmen wächst der Bedarf nach mehr Speicher schneller als das IT Budget. Deshalb müssen Unternehmen kreativ werden, um neue Wege zu finden, wie sie dieses Dilemma lösen. Der erste Ansatz schlägt vor, die Speicherauslastung zu erhöhen. Doch dazu müssen Unternehmen erst einmal wissen, zu wie viel Prozent ihr vorhandener Speicher bereits ausgelastet ist. Im Industriedurchschnitt liegt die Auslastung bei nur 30 bis 40 Prozent. Das heißt, die meisten Unternehmen besitzen bereits genug physikalischen Speicher in ihrem Datacenter - es muss nur die Auslastung erhöht werden. Der zweite Ansatz fällt unter den Begriff "Data Lifecycle Management". Hier ist es notwendig, dass Unternehmen zuerst die Daten identifizieren, die nicht mehr benötigt werden oder für das Unternehmen keinen Wert mehr bieten. Diese gehören gelöscht. Andere Daten, die nicht mehr benutzt aber dennoch aus beispielsweise rechtlichen Gründen aufbewahrt werden müssen - Stichwort Aufbewahrungsfrist - werden archiviert. Der dritte Punkt betrifft die Konsolidierung von Speicherinseln. Dies kann ein kompliziertes Thema für beispielsweise alte oder selbst entwickelte Applikationen sein. Aber die von diesen Applikationen anfallenden Datenmengen sind oftmals gering und stellen kein allzu großes Problem dar. Doch für die meisten Anwendungen und Daten ist die Konsolidierung ein großer Schritt in Richtung Kosteneinsparung."

Compliance noch immer vernachlässigt

Compliance-Vorgaben, revisionssichere Archivierung: Sind die Unternehmen inzwischen vertraut mit dem Thema?

Hans Schramm - Dell: "Prinzipiell ja, aber in unseren Augen immer noch zu wenig. Das Thema ist einerseits seit Jahren bekannt, andererseits sieht man aber auch immer wieder Berichte über Vorfälle, bei denen Firmen einen wirtschaftlichen Schaden erlitten haben: zum Beispiel, weil sie aufgrund von nicht gefundenen Mails einen Rechtsstreit verloren haben."

Mika Kotro - EMC: "Theoretisch sind viele Unternehmen mit dem Thema bereits vertraut. In der Praxis wird solchen Auflagen jedoch oftmals eine eher niedrige Priorität zuteil. Es wird insbesondere aus Kostengründen darauf verzichtet, das Thema tatsächlich umzusetzen."

Robert Guzek - Fujitsu Technology Solutions: "Die Frage lässt sich nicht abschließend beantworten. Für einen Storage-Hersteller ist es jedoch wichtig, hier entsprechende Angebote zu machen. Fujitsu bietet mit SEC Docs eine revisionssichere Lösung, die hochverfügbare rechtssichere Langzeitarchivierung, Beweiswerterhaltung mittels elektronischer Signaturen und Trustcenter, lokalen Produktivbetrieb und Managed Service abdeckt sowie mandantenfähig ist."

Ingo Kraft - Hewlett Packard: "Als wir das Thema Compliance vor einigen Jahren mit unseren Kunden diskutiert haben, war die Verunsicherung bezüglich der durchzuführenden Schritte sehr viel größer als heute. In den letzten Jahren konnten wir eine Einführung von rechtskonformen Prozessen mit entsprechender Umsetzung in der IT beobachten. Nichtsdestotrotz ist es wichtig, dieses Thema auch in aktuellen Projekten mit Kunden zu beachten. Gerade im Zusammenhang mit wachsenden Datenmengen, der steigenden Verfügbarkeit von Daten und dem massiven Budgetdruck sind aktuelle Projekte hinsichtlich der Compliance-Anforderungen ständig neu zu bewerten."

Jürgen A. Krebs, Hitachi Data Systems: "Die Compliance-Vorgaben sind noch lange nicht bei allen Unternehmen umgesetzt. Dies liegt in den meisten Fällen nicht an Unkenntnis, sondern an mangelnden Ressourcen."
Foto: Hitachi Data Systems

Jürgen A. Krebs - Hitachi Data Systems: "Die Compliance-Vorgaben sind noch lange nicht bei allen Unternehmen umgesetzt. Dies liegt in den meisten Fällen nicht an Unkenntnis, sondern an mangelnden Ressourcen. Hinzu kommt, dass mit dem Thema primär kein Ertrag erwirtschaftet wird. Und auch die Bankenkrise hat maßgeblich zur Verzögerung dieser Projekte beigetragen."

Ralf Colbus - IBM: "Größere Unternehmungen ja, hier herrschen klare Regeln und stringente Umsetzung. Bei kleineren Unternehmen ist immer noch Nachholbedarf."

Johannes Wagmüller - NetApp: "Großteils ja. Interne und externe Revisionen gab es immer schon, so dass die Archivierung darauf ausgelegt ist. Betriebskonzeptanpassungen an aktuelle technische Möglichkeiten passieren sukzessive."

Norbert Funke - Symantec: "Einerseits wissen die Unternehmen über Compliance-Vorgaben und gesetzeskonforme Archivierung von Daten Bescheid - andererseits scheitern die guten Vorsätze oftmals an der schier unübersichtlichen Datenmenge. Wie die Symantec Studie "2010 Information Management Health Check Survey" zeigt, klaffen zwischen Theorie und Praxis beim Thema Datenspeicherung große Lücken. Denn ein Großteil der Unternehmen ist vom Wert eines formalen Plans für die Datenspeicherung überzeugt. Aber nur knapp die Hälfte der befragten Unternehmen kann bereits einen vorweisen. So werden massenweise Daten gespeichert, ohne dass es verbindliche Regeln gibt, welche davon wichtig sind und welche risikofrei gelöscht werden können. Wenn jedoch Informationen gesucht werden, dauert es erheblich länger sich durch die Datenflut zu wühlen. Dies ist beispielsweise im Fall einer Rechtsstreitigkeit ein großes Problem, da hier wichtige Dokumente innerhalb einer festen Frist gefunden und vorgelegt werden müssen. Abhilfe kann hier der Ansatz des bereits erwähnten "Data Lifecycle Management" bringen."

Datenverkehr auf Ethernet-Basis

Unternehmen wollen zunehmend den kompletten Storage-Datenverkehr auf Ethernet-Basis abwickeln. Verschwinden mit 10-Gbps-Ethernet und FCoE vorhandene Fibre-Channel-Installationen zunehmend?

Hans Schramm - Dell: "Insgesamt gesehen ja, aber dies ist ein kontinuierlicher Prozess. 10 GbE ist der Einstieg, höhere Übertragungsraten werden folgen. Im Hinblick auf FCoE ist anzumerken, dass die Komponenten, um durchgängig FCoE zu nutzen, heute vorhanden sind, das heißt von CNA (Converged Network Adapter) über geeignete Switches bis hin zu den Storage-Arrays. Ob ein Anwender allerdings bereit ist, seine bisher installierten Komponenten gegen neue auf DCB (Data Center Bridging) basierende auszutauschen, ist eher fraglich. Sinn macht DCB aber auf jeden Fall bei der Planung von neuen Rechenzentren oder Implementierung größerer IT-Infrastrukturen."

Mika Kotro - EMC: "Zurzeit ist ein solcher Trend noch nicht deutlich im Markt erkennbar. Das Verschwinden von Fibre Channel zu prognostizieren wäre im Augenblick also Spekulation. Im Laufe der Zeit wird sich zeigen, inwieweit sich vor allem FCoE durchsetzt."

Robert Guzek - Fujitsu Technology Solutions: "Dieser Prozess wird ganz entscheidend von der Preisgestaltung abhängen. Hier spielen die Kosten für Schulungen der Mitarbeiter um Falle einer Umstellung eine große Rolle. Nach wie vor gilt jedoch, dass bereits getätigte Investitionen erst einmal abgeschrieben sein sollten, bevor ein Unternehmen über die Umstellung nachdenkt."

Ingo Kraft, Hewlett Packard: "iSCSI-basierte Lösungen sind heute typischerweise im Mittelstand und bei Neueinsteigern im Storage-Bereich zu finden, wohingegen umfangreiche FC-Umgebungen typischerweise bei Kunden mit bereits verfügbaren großen Speicherlandschaften zu finden sind."
Foto: Hewlett Packard

Ingo Kraft - Hewlett Packard: "Nicht zwangsläufig, jedoch sind mittlerweile häufig Funktionalitäten gefragt, die ältere FC-Arrays entweder nicht oder nur sehr kostenintensiv erfüllen können, etwa durch Zusatzlizenzen für solche Funktionalität. Neue leistungsstarke iSCSI-Lösungen, wie unsere P4000-Serie, beinhalten solche Funktionalitäten als Standard, so dass sich ein Wechsel auch rechnen kann. Ich sehe jedoch die neuere iSCSI-Speichertechnologien nicht zwangsläufig als eine Verdrängung des bereits etablierten Fiber-Channel-Geschäfts, sondern eher als eine Ergänzung. iSCSI-basierte Lösungen sind heute typischerweise im Mittelstand und bei Neueinsteigern im Storage-Bereich zu finden, wohingegen umfangreiche FC-Umgebungen typischerweise bei Kunden mit bereits verfügbaren großen Speicherlandschaften zu finden sind. Neben den Kosten für die reine Technologie sind vor allem auch die Kosten für Ausbildung und Schulung des Fachpersonals zu betrachten. Somit werden wir in diesen etablierten Speicherumgebungen vielfach natürliche Erneuerungen der FC-Basis sehen, gegebenenfalls auch den ein oder anderen Wechsel in Richtung FcoE (Fibre Channel over Ethernet). Auf längere Sicht kann sich das allerdings deutlich ändern."

Jürgen A. Krebs - Hitachi Data Systems: "Fibre-Channel hat sich über die letzten 15 Jahre als eine hoch zuverlässige Technologie bewährt. Kunden haben enorme Summen in die Infrastruktur investiert und kennen sich erstklassig in deren Management aus. Um die bereits getätigten Investitionen zu schützen, setzen viele Firmen daher auf die Umrüstung auf 4Gb. FCoE wird sich erst dann durchsetzen, wenn sich die ersten neuen Umgebungen als stabil und gut zu managen erweisen. Nach einer gewissen Lernphase wird es zur sukzessiven Umstellung kommen, da die Budgets keinen Komplettaustausch erlauben."

Ralf Colbus - IBM: "Nein, alleine die installierte Basis im FC-SAN-Umfeld ist riesig. Es findet eine langsame Migration statt (Top-of the Rack Switches als "Weichensteller"). Das Thema FCoE wird aber - nach Standardisierung - bei etlichen Kunden auf der Agenda stehen!"

Johannes Wagmüller - NetApp: "10 GbE und FCoE sind ein großes Thema. Das wachsende Angebot an kosteneffektiven Infrastrukturlösungen (Server, Netzwerk, Storage) fördert die Verbreitung dieser beiden Protokolle ebenso wie der Vorteil der "Single Wire"-Architektur. Fibre Channel wird aber aufgrund der hohen Verbreitung noch lange eingesetzt werden."

Energie-Effizienz erhöhen

Energie-Effizienz im Rechenzentrum wird weiter wichtiger. Beim Storage wir in diesem Zusammenhang oft nur von Deduplizierung und Datenkompression gesprochen, um weniger Kapazität und somit weniger Energie zu benötigen. Was tun Sie, um 2011 "grüner" zu werden?

Hans Schramm - Dell: "Auch hier greift unser IDM-Ansatz (Intelligent Data Management), denn signifikante Einsparungen erzielt man nur, wenn man ein eher übergreifendes Lösungskonzept verfolgt. Wichtige Themen im Hinblick auf "grün" sind dabei Storage Tiering, das heißt die sinnvolle Verteilung von Informationen auf unterschiedliche Storage-Medien, ein durchgängiges und strukturiertes Backup-Konzept sowie Deduplizierung."

Hans Schramm, Dell: "Wichtige Themen im Hinblick auf 'grün' sind Storage Tiering, das heißt die sinnvolle Verteilung von Informationen auf unterschiedliche Storage-Medien, ein durchgängiges und strukturiertes Backup-Konzept sowie Deduplizierung."
Foto: Dell

Mika Kotro - EMC: "Wir arbeiten kontinuierlich an der Energie-Effizienz unserer Systeme. Das fängt bei den Netzteilen an, geht über die Konzeption der zur Kühlung notwendigen Luftzirkulation sowie das Abschalten von "inaktiven" Laufwerken bis hin zu einem geringeren Energieverbrauch durch ein automatisches Storage Tiering (FAST). Bei Letzterem kann die Anzahl an benötigten Laufwerken und damit der Energieverbrauch bei gleicher Kapazität verringert werden."

Robert Guzek - Fujitsu Technology Solutions: "ETERNUS Systeme verfügen seit 2007 danke der Maid Technologie über einen Eco Mode. Weiter bietet Fujitsu Standards wie Thin Provisioning, Daten-Deduplizierung und Power Management Software. Darüber hinaus ist Fujitsu seit über 20 Jahren führend in Punkto Green IT. Seit 1993 hat das Unternehmen in Umweltschutzprogramme investiert. So engagiert sich Fujitsu für nachhaltige Entwicklungsinitiativen, um die Umweltbelastung durch IT zu reduzieren und auch die IT zur Lösung von Umweltproblemen einzusetzen."

Ingo Kraft - Hewlett Packard: "Energie-Effizienz hat viele Facetten und die Deduplizierung von Daten ist dabei nur ein Baustein. Wichtig ist, dass man eine nachhaltige Strategie entwickelt und analysiert, welche Daten für welchen Zeitraum auf welchen Speichermedien liegen sollen. Die gewählte Strategie können wir mit unterschiedlichsten Produkten umsetzen. Umfangreiche Entwicklungen im Bereich von Server, Netzwerk, Storage, und Access-Devices haben dafür gesorgt, dass der Stromverbrauch massiv reduziert und der Kühlungsbedarf der IT drastisch gesenkt werden kann."

Jürgen A. Krebs - Hitachi Data Systems: "Hitachi treibt das Thema umweltbewusstes Handeln und Agieren seit 1972 unter dem Namen "Monozukuri" voran. Das schließt selbstverständlich auch den Storage-Bereich mit ein, in dem kontinuierlich Fortschritte hinsichtlich der Energie-Effizienz gemacht werden. Mit unserem Speichersystem VSP konnten wir zuletzt einen um 77 Prozent geringeren Stromverbrauch gegenüber der USPV erzielen. Wobei diese bereits den weltweit niedrigsten Stromverbrauch aller Enterprise-Speichersysteme hatte. In Yokohoma hat Hitachi Data System sein komplett mit Hitachi-Komponenten ausgestattetes Rechenzentrum gebaut, das auf einer Fläche von 10.000 qm alle heutigen Möglichkeiten der Energie-Effizienz nutzt. Unser Partner Green Data Systems hat in den Niederlanden ein auf europäische Verhältnisse ausgerichtetes Rechenzentrum gebaut. Beide Einrichtungen stehen Besuchern offen. Des Weiteren geht Hitachi auch bei den eigenen Produktionsstätten mit gutem Beispiel voran. Weltweit wurden bereits etliche Standorte nach hohen ökologischen Standards zu sogenannten "Super Eco Factories" umgewandelt. Energie-Effizienz, Nachhaltigkeit und geringe Schadstoffemission stehen hierbei im Vordergrund."

Ralf Colbus - IBM: "Gutes Monitoring mit intelligenter Automatisierung und Lastverteilung über alle verfügbaren Storage-Tier-Klassen. Funktionen wir Dedup oder Kompression bieten wir inzwischen in den Systemen oder als "Appliances" für ältere, installierte Systeme an. Thin Provisioning ist inzwischen Standard. Tape hat nach wie vor eine zentrale Rolle in der "grünen" Story - es ist beispielsweise perfekt für Archivierung! In Verbindung mit Cloud kann dies auch die Verlagerung von selten genutzten Daten in die Cloud (oder zum Cloud-Dienstleister) bedeuten!"

Johannes Wagmüller - NetApp: "Die NetApp-Architektur ist grundsätzlich auf effizienten, und das heißt auf möglichst wenig physischen, Platzverbrauch ausgerichtet. Wir arbeiten seit 2004 mit virtualisiertem Storage, um einen hohen Konsolidierungsgrad zu erreichen, und können mit einem ganzen Portfolio von hochintegrierten Effizienztechnologien aufwarten wie Thin Clones, Thin Replication, Thin Provisioning, Snapshots, FCoE (Unified Connect), Deduplizierung und Kompression."

Norbert Funke - Symantec: "Energie-Effizienz ist natürlich auch 2011 weiterhin ein zentrales Thema und das nicht nur aus Kostengründen. Die Technik der Storage-Management-Strategien auf Basis der Deduplizierung bleibt hier ein zentraler Faktor. Sie zielt darauf ab, doppelt oder mehrfach vorhandene Daten nur ein einziges Mal zu speichern und zu sichern. So sind IT-Verantwortliche in der Lage, den Speicherplatz, der durch die Deduplizierung nicht benötigt wird, anderweitig zu nutzen. Redundante Informationen werden dabei durch Verweise ersetzt, die nur auf den Speicherort des Originals verweisen. Gleichzeitig sinkt so der Bedarf an Netzwerkbandbreite, weil weniger Informationen kopiert und verschoben werden müssen. Durch den geringeren Speicheraufwand sinkt auch der Energiebedarf. Weitere Punkte sind hier erneut die Erhöhung der Storage-Auslastung, Speicherkonsolidierung und ein "Data Lifecycle Management". Wenn die durchschnittliche Auslastung bei 30 bis 40 Prozent liegt, könnten theoretisch 60 bis 70 Prozent der betrieblichen Energiekosten für die Speicherlösungen eingespart werden. Denn ein nicht belegter Speicherplatz frisst genauso viel Strom wie ein belegter und muss zudem auch gekühlt werden. Daten, die nicht benötigt werden, brauchen auch keine Energie für die Speicherung."

Solid State Disks in Storage-Systemen

Wie entwickeln sich SSDs in Storage-Systemen 2011? Etabliert sich der Flash-Speicher weiter primär als schneller und intelligenter Cache?

Hans Schramm - Dell: "Ja, diese Technologie wird sich auf jeden Fall weiterentwickeln: zum einen in Form von SSD-Laufwerken, bei denen die Kapazitäten steigen werden, und zum anderen durch spezielle Lösungen wie zum Beispiel PCIe-Karten, die mit einem Speicher bestückt sind und sehr hohe I/O-Werte bieten. Wichtig ist dabei, immer das Thema Storage Tiering im Auge zu behalten, denn SSDs sind und werden auch in Zukunft kein kompletter Ersatz für SAS,- SATA- oder FC-Platten sein."

Mika Kotro - EMC: "SSDs werden auch 2011 weiter auf dem Vormarsch sein. Sie können sehr flexibel entweder dediziert als extrem schnelles Laufwerk im Verbund mit anderen Laufwerken unter Nutzung von automatischem Storage Tiering oder als Erweiterung des System-Caches eingesetzt werden."

Robert Guzek - Fujitsu Technology Solutions: "Die zunehmende Preisreduktion macht SSDs für einen breiten Anwenderbereich interessant. Im Zuge von HSM (Hierarchisches Speicher-Management)-Konzepten können diese für intelligente Lösungen genutzt werden. SSD-Platten werden zunehmend Marktwachstum erzielen."

Ingo Kraft - Hewlett Packard: "Aufgrund der begrenzten Kapazitäten und dem Verhältnis Preis zu Gigabyte werden die schnellen SSDs derzeit in der Tat überwiegend für spezielle Cache-Aufgaben eingesetzt. Die SSDs werden daher als intelligenter Cache stärker Verwendung finden - allerdings einhergehend mit Neuerungen in den Speicher-Arrays, da die hohen Datendurchsätze auch bedingen, dass die davor geschalteten Controller mit diesen Bandbreiten sinnvoll arbeiten können."

Jürgen A. Krebs - Hitachi Data Systems: "SSDs werden sich auch in 2011 weiter etablieren, bleiben aber auf die nächsten drei Jahre gerechnet teurer als konventionelle Festplatten. Unsere VSP ist das erste Speichersystem, das SSDs voll auslastet. Hierfür kommt Dynamic Tiering zum Einsatz, das automatisch Hotspots über die Tierklassen verschiebt - also Thin Provisioning V2.0."

Ralf Colbus - IBM: "SSDs werden großflächig 2011 Einzug halten. SSDs werden dabei als Cache-Erweiterung (hier aber eher RAM wegen Langlebigkeit) und als Speicher in Primären Systemen (als klassischer Disk-Ersatz) eingesetzt - die Kunst wird darin bestehen, die teure Technologie perfekt zu "Utilisieren". Wir haben hierfür Easy-Tiering eingeführt, eine Funktion, bei der das Storage-System selbst entscheidet, welche Blöcke es auf die geeignete Technologie transparent verlagert. Eine Preisgleichheit zu konventionellen Drives wird auch 2011 noch nicht erreicht!"

Johannes Wagmüller, NetApp: "Solid State Caching ist die effektivste Methode, um den technologischen Vorteil von Flash kommerziell effizient zu nutzen."
Foto: NetApp

Johannes Wagmüller - NetApp: "Solid State Caching ist die effektivste Methode, um den technologischen Vorteil von Flash kommerziell effizient zu nutzen. Das Interessante ist dabei die Option auf ein so genanntes Virtual Storage Tier (VST) Konzept. NetApp vereint hier intelligentes Caching, Virtualisierung und Storage-Effizienz auf ein und derselben Plattform, die sich ohne Daten zu migrieren in Echtzeit selbst verwaltet. Damit erreichen wir einen Grad an Automatisierung und Regulierung, den HSM- und ILM-Konzepte nur versprechen konnten, und optimieren in Echtzeit die Performance, ohne die Storage-Effizienz zu vernachlässigen. Das lässt Kosten und Komplexität sinken. Auch im Enterprise-Segment ist Flash-Speicher also im Kommen. SSD in Reinform, den auch wir zusätzlich zum Solid State Caching im Programm haben, kommt derzeit in der Regel nur für besondere Workloads zum Zuge."

Storage-Herausforderungen 2011

Was sind die Herausforderungen der Unternehmen - Ihrer Kunden - im Jahr 2010 bei der Storage-Infrastruktur?

Hans Schramm - Dell: "Die Einbindung von Storage-Infrastrukturen in die gesamten IT-Prozesse wie beispielsweise Virtualisierung. Nur so kann die IT eines Anwenders möglichst effizient gestaltet werden. Consulting-Leistungen des IT-Anbieters sind hierbei in vielen Fällen ein Schlüssel zum Erfolg."

Mika Kotro - EMC: "Durch das immer noch ansteigende Datenwachstum gilt es Daten weiterhin möglichst effizient zu speichern und zu verwalten. Im Zuge dessen bleibt auch Backup ein Dauerthema. Denn auch wenn es gelingt, die Daten auf dem Primärsystem zu deduplizieren oder zu komprimieren, so müssen diese beim Backup wieder auf ihre ursprüngliche Größe gebracht werden. Es sei denn, man setzt auch beim Backup auf Deduplizierung."

Robert Guzek - Fujitsu Technology Solutions: "Nach wie vor die Evergreens: Die Verwaltung der unstrukturierten Daten, das kontinuierlich zunehmende Datenwachstum, das Sicherstellen der Aufbewahrungszeiträume und Archivierung von Geschäfts- oder steuerrelevanten Daten."

Ingo Kraft - Hewlett Packard: "Die Herausforderungen sind der wachsende Speicherbedarf, erforderliche Kosteneinsparungen und eine nachhaltige Energieeffizienz. Andere Anforderungen werden erst auf den zweiten Blick sichtbar. Dazu zählen etwa die notwendige Konsolidierung von Speichersystemen und die Hochverfügbarkeit von Daten bei der Server-Virtualisierung. Um bei der Konsolidierung von physischen Servern Ausfälle zu vermeiden, ist es unabdingbar, auch die Speicherlandschaft zu überprüfen und anzupassen. Traditionelle Speicher-Arrays erfüllen vielfach nicht mehr die geforderten Hardware-Funktionalitäten wie Replikation oder Mirroring (Datenspiegelung) und machen den Lizenzerwerb für weitere Funktionalitäten nötig. -

Jürgen A. Krebs - Hitachi Data Systems: "IT-Entscheidungen werden 2011 wieder verstärkt anhand der zur Verfügung stehenden Budgets gefällt. Diese sind nach wie vor knapp, weswegen auch immer mehr Technologie-Leasing-Verträge, als Rückversicherung für die noch unklare Zukunft, geschlossen werden. Die Frage nach der "Quo Vadis Technologie" wird 2011 über die Aufhänger Cloud und FCoE diskutiert werden. In diesem Jahr setzen Unternehmen verstärkt auf Cloud Computing, gerade im File-basierten Bereich, wo es auf schnelles Provisioning ankommt, die Geschwindigkeit aber zweitrangig ist. Bei der Frage nach FCoE oder Fibre-Channel wird die Mehrheit der Kunden die Entscheidung auf 2012 vertagen und ihre Umgebungen eventuell erst einmal auf 4Gb migrieren."

Ralf Colbus - IBM: "Es müssen mehr Daten mit weniger Budget und höheren SLAs verwaltet werden!"

Norbert Funke, Symantec: "Eine zentrale Herausforderung ist, die Speicherauslastung zu erhöhen und zu konsolidieren. Zudem wird die Online-Storage-Erweiterung ein wichtiges Thema sein."
Foto: Symantec

Johannes Wagmüller - NetApp: "Zum einen die Bewältigung des Datenwachstums und der damit verbunden SLAs, zum anderen die Flexibilisierung der IT-Infrastrukturen, um den wirtschaftlichen Anforderungen schneller gerecht zu werden. Der Storage muss damit noch flexibler, dynamischer und effizienter werden. Wir haben im vergangenen November unser Produktportfolio rundum erneuert und bieten Kunden Lösungen, mit denen die IT den Unternehmenserfolg beschleunigen kann."

Norbert Funke - Symantec: "Eine zentrale Herausforderung ist, die Speicherauslastung zu erhöhen und zu konsolidieren. Zudem wird die Online-Storage-Erweiterung ein wichtiges Thema sein. Mit Scale-Out Storage wird erst dann Speicherplatz zur Verfügung gestellt, wenn er auch wirklich gebraucht wird. Dadurch erübrigt es sich für Unternehmen, Speicherkapazitäten auf Vorrat zu kaufen und zu betreiben. Dies wirkt sich positiv auf Management-Ressourcen und Energiekosten aus. Weitere Herausforderungen sind neben dem "Data Lifecycle-Management" auch ein effizientes Storage-Management für virtuelle Server-Umgebungen zu schaffen. Ebenfalls wichtige Trends sind Deduplizierung, Datenmigration von einem Storage Array zu einem anderen sowie heterogenes Speichermanagement und "Dynamic Storage Tiering"."

Ausblick: Weitere Storage-Trends 2011

Welche weiteren allgemeinen Storage-Trends sind 2011 zu erwarten?

Hans Schramm - Dell: "Ein allgemeiner Storage-Trend ist eindeutig das Thema Unfied Storage. Dabei sollte man allerdings genau darauf achten, wie viel "unified" für ein Unternehmen wirklich sinnvoll ist. Auch hier sollte der Anwender auf Serviceleistungen des Lösungsanbieters zurückgreifen können."

Hans Schramm, Dell: "Ein allgemeiner Storage-Trend ist eindeutig das Thema Unfied Storage. Dabei sollte man allerdings genau darauf achten, wie viel 'unified' für ein Unternehmen wirklich sinnvoll ist. Auch hier sollte der Anwender auf Serviceleistungen des Lösungsanbieters zurückgreifen können."
Foto: Dell

Mika Kotro - EMC: "Der Unified-Storage-Ansatz, also ein System, das alle Speicherprotokolle unterstützt, wird weiter deutlich an Fahrt gewinnen. Bei den Laufwerken wird sich SAS (Serial Atached SCSI) als Interface und der 2,5-Zoll-Formfaktor in Bezug auf die Größe zunehmend etablieren. Daneben wären die üblichen Entwicklungen im Storage-Markt zu nennen wie höhere Performance und noch größere Laufwerke mit mehr Speicherkapazität."

Robert Guzek - Fujitsu Technology Solutions: "Virtualisierung und Unified Storage bleiben Themen ebenso wie die Qualität der Storage Services sowie Cloud und Managed Storage."

Ingo Kraft - Hewlett Packard: "Leistungsfähige Systeme mit bisher der Enterprise-Klasse vorbehaltenen Funktionalitäten wie transparente Failover, synchrone Spiegelung oder Thin Provisioning finden immer breiter ihren Einsatz in Unternehmen und werden auch im Mittelstand stark genutzt. Des Weiteren sieht HP eine stärkere Verbreitung der SSD, 10- später 40-... 60-Gbit-iSCSI-Technologie und das weitere Zusammenwachsen unterschiedlicher Storage-Tier-Technologien hinsichtlich gemeinsamen Managements und Automatisierung. FCoE wird erste Gehversuche in breiteren Kundensegmenten unternehmen, Blade-basierte Speicher finden zunehmen Einsatz, und Storage-Cluster-Technologien werden an Verbreitung zunehmen."

Jürgen A. Krebs - Hitachi Data Systems: "Das Thema "IT Everywhere" kommt mit Macht. Apps sind hierbei die wichtigen Wegbereiter zur Vereinfachung des Zugriffs auf Dienste im täglichen Leben, ohne einen Laptop oder Computer hochfahren zu müssen. In der Gunst der Kunden werden Schnelligkeit und Ausfallsicherheit der Produkte die Spreu vom Weizen trennen."

Ralf Colbus - IBM: "Neue Ownership-Modelle (beispielsweise Cloud), Vereinfachung der Bedienkonzepte für Storage (iPod of Storage), Hochverfügbarkeitslösungen, E2E Management (Applikation-Server-Infrastruktur-Storage), SW-Appliances (beispielsweise BI) sowie Archive."

Johannes Wagmüller - NetApp: "Ob Storage, Server, Applikationen oder Desktop, Virtualisierung bleibt Trend. Eine zentrale Voraussetzung für den Erfolg ist jedoch eine Shared Storage Infrastructure, die mehrere Dienste und Kundengruppen von einer einzigen, integrierten Plattform aus unterstützt. Diese Art der Architektur ist weiter im Kommen."

Norbert Funke - Symantec: "Server und insbesondere Desktop-Virtualisierung stellen neue Anforderungen an das Storage-Management, Backup und Restore dar. Ein weiterer Trend befindet sich im Bereich des Managements von heterogenen Storage-Umgebungen. Dabei suchen Unternehmen nach Lösungen, die das Speicher-Management über verschiede Speicherhersteller hinweg zulassen. Weiterhin im Fokus der Unternehmen sollte die Identifizierung der Datenbestände liegen, um die Fragen zu klären: Wem gehören die Daten, wie alt sind die Daten, wer benutzt die Daten, welche Daten können archiviert oder sogar gelöscht werden."

Quelle: TecChannel