Strategien


Cloud-Strategie und mehr

SAP und Daimler: CEO und CIO im Gespräch

Christoph Witte arbeitet als Publizist, Sprecher und Berater. 2009 gründete er mit Wittcomm eine Agentur für IT /Publishing/Kommunikation. Dort bündelt er seine Aktivitäten als Autor, Blogger, Sprecher, PR- und Kommunikationsberater. Witte hat zwei Bücher zu strategischen IT-Themen veröffentlicht und schreibt regelmäßig Beiträge für die IT- und Wirtschaftspresse. Davor arbeitete er als Chefredakteur und Herausgeber für die Computerwoche. Außerdem ist Witte Mitbegründer des CIO Magazins, als dessen Herausgeber er bis 2006 ebenfalls fungierte.

InMemory hilft, den Datenschatz zu heben

Lassen Sie uns zum letzten Thema dieses Gesprächs kommen - Big Data und In-Memory-Computing.

Snabe: Die Datenmenge ist in den letzten Jahren so stark angestiegen, dass wir vor der Frage stehen, ob wir Daten als Asset benutzen wollen oder ob sie weiter zur Komplexität beitragen und keinen Mehrwert liefern. In-Memory-Computing macht die stark steigende Datenflut zum Asset, weil wir sie in Echtzeit analysieren und sie für zukunftsgerichtete Entscheidungen nutzen können. Dazu mussten wir allerdings die Festplatte umgehen und alle zu analysierenden Daten in den Hauptspeicher bekommen. Das galt aber aufgrund des hohen Preises als zu teuer.

Gilt es wohl immer noch, gerade mit HANA.

Snabe: Nein. Wir haben inzwischen auf Basis von SAP HANA bezahlbare Appliances gebaut. Zum Beispiel haben wir bei einem Kunden, der 320 Millionen Transaktionen pro Tag bewältigt, ein System installiert, das sämtliche Transaktionen von zehn Jahren im Hauptspeicher unterbringt. Das gelingt natürlich nur mit intelligenten Kompressionsverfahren.

IT-Systeme sind nicht zuletzt deshalb so komplex geworden, weil sie mit der Langsamkeit der Festplatten umgehen müssen. Im BI-Bereich zum Beispiel arbeiten wir mit redundaten Daten, die wir in Data Warehouses speichern und sie aufbereiten, um schneller Antworten zu bekommen. Mit dem Einsatz von In-Memory-Computing spare ich mir diesen Zwischenschritt der Datenaufbereitung. Ich halte deshalb diese neue Technologie für eine der wenigen, die Infrastruktur vereinfachen können und sie nicht noch komplexer werden lassen. Mit SAP HANA komprimieren wir Daten um den Faktor 100, so dass Sie etwa ein Petabyte Plattenspeicher mit 100 Terabytes In-Memory-Kapazität vergleichen müssen.

Hinzu kommt das Parallel Processing. Diese beiden Technologien verstärken sich gegenseitig und treiben den Preis von HANA nach unten und die Performance nach oben. Selbst wenn wir HANA nicht weiter entwickeln würden, halbieren sich die Preise für Hauptspeicher (Memory) rund alle 18 Monate und die Rechenleistung verdoppelt sich mit jeder neuen Chipgeneration. Deshalb werden wir Festplatten bald nur noch zur Langzeitspeicherung einsetzen, nicht mehr für Hot Data. Das heißt nicht, dass Festplatten nicht mehr benutzt werden, schließlich ging die Steinzeit auch nicht wegen fehlender Steine zu Ende, sondern weil neue Technologien genutzt wurden.

Gorriz: Wir sollten In-Memory und Big DataBig Data nicht in einen Topf werfen. Wir können heute ganze transaktionale Systeme im Hauptspeicher unterbringen. Dank Technologien wie SAP HANA können wir auch unsere analytischen Aufgaben dort erledigen. Die Ressourcen, die ich vorher für diese Aufgaben brauchte, kann ich dann nutzen, um die wirklich großen Datenmengen zu speichern. Wenn wir von Petabyte sprechen, wird uns auch In-Memory-Computing nicht wirklich weiterhelfen. Physische Speicher werden weiterhin notwendig sein. Aber mit In-Memory habe ich einfachere Architekturen, und ich bekomme Ressourcen frei, die ich für die neuen Aufgaben verwenden kann, die auf die IT zukommen. Alles zu Big Data auf CIO.de

Zur Startseite