Automatisierung, Cloud, Big Data, SSD

Storage-Trends: Speichertechnologien für 2013

Christian Vilsbeck war viele Jahre lang als Senior Editor bei TecChannel tätig. Der Dipl.-Ing. (FH) der Elektrotechnik, Fachrichtung Mikroelektronik, blickt auf langjährige Erfahrungen im Umgang mit Mikroprozessoren zurück.

Datenmanagement für Big Data

Big Data Analytics wird durch das Wachstum unstrukturierter Daten noch wichtiger. Wie erleichtern Ihre Produkte 2013 das Datenmanagement?

Hans Schramm - Dell: "Bei Big Data Analytics werden sich der Storage- und der Serverbereich ergänzen beziehungsweise überlappen. Als Komplettanbieter ist Dell hier gut aufgestellt. Erstens verfügt Dell über ein langjähriges und umfangreiches Know-how bei der Entwicklung von Servern - und dies sowohl bei klassischen Systemen als auch bei den Cloud-Servern. Zweitens bietet Dell ein vollständiges Lösungsportfolio, um Informationen sehr effizient auf den unterschiedlichen Storagemedien zu speichern und diese mit Servern zu verbinden. Die Zusammenarbeit mit spezialisierten Partnern rundet das Lösungsangebot ab."

Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Dirk Pfefferle, Director Enterprise Sales, EMC Deutschland: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann."
Foto: EMC

Dirk Pfefferle - EMC: "Viele Unternehmen stehen beim Thema Big Data Analytics noch am Anfang. Die Technologien und Lösungen sind vorhanden, doch es fehlt an Know-how beziehungsweise dem Wissen, was mit den Daten gemacht werden kann. Greenplum Chorus, unsere Analyse-Plattform für Big Data entwickeln wir ständig weiter. Erst kürzlich haben wir unsere Greenplum Chorus Software als Open-Source-Code veröffentlicht. Das soll die Entwicklung von Anwendungen fördern. Zudem kooperieren wir mit Kaggle. Im Rahmen der Zusammenarbeit integriert EMC den Zugang zur Kaggle-Community in Greenplum Chorus. Die Kaggle-Community besteht aus 55.000 Datenexperten, die sich auf Wettbewerbsbasis an der Ableitung von Vorhersagen aus einem Datenbestand beteiligen; die jeweils beste Lösung wird vom Auftraggeber des Wettbewerbs honoriert, dieser erhält im Gegenzug die Rechte an der Auswertungsmethode."

Robert Guzek - Fujitsu Technology Solutions: "Fujitsu Japan bietet hierfür bereits mit eXtreme Transaction Processing, Big Data Parallel Processing, Big Data Complex Event Processing unterschiedliche Lösungen an. Aufgrund der Komplexität der Infrastruktur, die in der Produktvielfalt und dem produktübergreifenden Portfolio begründet ist, ist ein optimal aufeinander abgestimmtes und übergreifendes Systemmanagement sehr wichtig. Fujitsu bietet Kunden eine auf ihre Systemlandschaft abgestimmte Lösung an."

Thomas Meier - Hewlett Packard: "Durch die konsequente Implementierung der HP-Autonomy-Software in Speicher-Systeme schafft HP Lösungen, mit denen sich unstrukturierte Daten mit einem bisher nicht gekannten Automatisierungsgrad verwalten, speichern, durchsuchen und wiederherstellen lassen. HP hat die Datenanalyse-Plattform Autonomy IDOL (kurz für Intelligent Data Operating Layer) bereits als Standard in zahlreiche Storage-Systeme implementiert und wird dies auch mit neuen Versionen und Systemen tun."

Dr. Georgios Rimikis - Hitachi Data Systems: "Wir nähern uns dem Thema von zwei Seiten. Einmal steigern wir 2013 nochmals die Leistungsfähigkeit unserer Systeme, indem wir unsere Flash-Strategie weiter verfolgen und unser komplettes SAN-Speicherportfolio mit Flash-Speicher anbieten. Sowohl die Hitachi Unified Storage (HUS) als auch die virtualisierungsfähige Variante HUS VM erhalten damit die Technologie, die in der Virtual Storage Platform (VSP) bereits jetzt für Leistungswerte von über einer Million IOPS sorgt. Gerade bei Big Data zählt ja die Leistungsfähigkeit des Speichers in Bezug auf I/Os und Antwortzeit, die Kapazität ist weniger eine Frage als es der Begriff vermuten lässt. Zum anderen ist unsere enge, bereits 18 Jahre dauernde Zusammenarbeit mit SAPSAP ein großer Vorteil. Allein seit 1998 hat HDS zehnmal den SAP Award für höchste Kundenzufriedenheit gewonnen. SAP ist sozusagen das andere Ende unserer Big-Data-Herangehensweise. Seit einigen Wochen ist zum Beispiel mit der Hitachi UCP Select für SAP HANA eine entsprechend optimierte Lösung verfügbar, die auch In-Memory unterstützt. Auch in weiteren Bereichen, etwa mobile Infrastrukturen, unterstützen die HDS-Lösungen SAP." Alles zu SAP auf CIO.de

Ralf Colbus - IBM: "Das Thema unstrukturiertes Datenwachstum lösen wir auf verschiedenen Ebenen: Von Organisationvorschlägen (Beispiel: Ist eine Regel für die Löschung von Daten im Unternehmen eingeführt?) bis hin auf die Subsysteme-Ebenen (automatische Verlagerung von Files gemäß Policies). Datenreduktions-Technologien helfen uns ebenfalls dabei, können aber - je nach Ausprägung - auch negative Effekte haben. Wichtig für uns ist ein skalierbarer Ansatz, der von 'klein' bis 'PB' genügend Speicher liefert und vor allem ein Ansatz, der unstrukturierte Daten schnell sichern und wieder herstellen kann. Der BI- oder Analytics-Bereich wird 2013 durch Appliances angereichert. Es gibt also mehr 'out of the box'-Lösungen, die schneller eingesetzt werden können."

Galvin Chang - Infortrend: "Für die im Datenmanagement tätigen Techniker ist es bei der Ressourcenplanung hilfreich, die History zu konsultieren. Wir erwarten, dass die meisten Speicher SRM-Funktionen (Storage Resource Management) bieten werden, mit denen sich die Speichernutzung effizient nachverfolgen lässt, zum Beispiel als Kapazitätszuwachsrate, wöchentliche Anforderungen an die Speicher-Performance und anwendungsspezifische Statistiken zu den Speicheranforderungen. Diese historischen Daten spiegeln die tatsächlichen physischen Anforderungen der Benutzer wider und können eine wichtige Rolle bei der künftigen Planung der Speicherressourcen spielen."

Herbert Bild - NetApp: "Auch hier unterstützen wir unsere Analytics-Partner wie Hadoop oder SAP im HANA-Umfeld mit unseren Storage-Lösungen. Dabei gehen wir auf die individuellen Anforderungen der einzelnen Applikationen ein und bieten darauf aufbauend den passenden Storage an. So verlangt Hadoop beispielsweise sehr hohe Performance, Bandbreite und Dichte. Hierfür eignet sich die NetApp E-Series-Plattform am besten, da sie die Anzahl der Replikationen und somit den Speicherbedarf des Unternehmens verringern kann. Bei SAP HANA hingegen stehen Themen wie Skalierbarkeit, einfaches Management und Hochverfügbarkeit im Vordergrund, wofür sich unsere FAS-Systeme aufgrund ihrer hohen Skalierbarkeit besser eignen."

Stefan Weidner - SGI: "Unstrukturierte Daten bleiben weiterhin die größte Herausforderung. Hier muss noch unterschieden werden zwischen den Anforderungen im Big Data- und HPC-Umfeld und denen im klassischen Unternehmen. Während heute im Big Data-Umfeld schon bekannte und zuverlässige Lösungen für Forschung, Lehre, Wissenschaft und einige spezielle weitere Einsatzgebiete existieren und sich tagtäglich im Einsatz beweisen, ist die Welt der Unternehmen noch nicht so weit, unstrukturierte Unternehmensdaten durch Big Data nutzbar zu machen. Hier finden sich schon einige wenige Software- und Hardwarelösungen auf dem Markt. Jedoch ist derzeit noch nicht zu erkennen, welche Lösungsansätze sich hier langfristig durchsetzen werden. Fakt ist, dass sich zukünftig eine Vielzahl von Technologien aus dem High-Performance-Computing im Unternehmenseinsatz wiederfinden werden. Ob dies Softwarelösungen sind wie SGI LiveArc (TM) als Digital Asset Management oder große Shared Memory Serversysteme wie die SGI UV 2000 (TM) mit der Kapazität von mehreren Duzend TByte RAM auch die größten Datenbanken zu beschleunigen wird von Fall zu Fall zu entscheiden sein."

"Klar ist mittlerweile aber, dass die klassischen Ansätze traditioneller SQL-Datenbanken hier nicht mehr ausreichen können um solche Daten nutzbar zu machen. Alleine HPC-Ansätze aus einer Kombination von Storage und Compute können hier noch weiterhelfen."

Zur Startseite