Streit um In-Memory-Technologie

SAP gegen Oracle

Alexander Freimark wechselte 2009 von der Redaktion der Computerwoche in die Freiberuflichkeit. Er schreibt für Medien und Unternehmen, sein Auftragsschwerpunkt liegt im Corporate Publishing. Dabei stehen technologische Innovationen im Fokus, aber auch der Wandel von Organisationen, Märkten und Menschen.
Hasso Plattner hat In-Memory-Computing zur Chefsache erhoben. Das Konzept ist augenscheinlich reizvoll. Zudem bringt es Bewegung in die Grundlagen des Daten-Managements. Doch nicht alle Unternehmen werden davon profitieren.
Ingo Brenckmann Program Director Data und Analytic Engines, SAP AG: "Beim Zugriff auf große Datenmengen in Echtzeit über mobile Geräte stoßen Disk-basierte Ansätze an ihre Grenzen."
Ingo Brenckmann Program Director Data und Analytic Engines, SAP AG: "Beim Zugriff auf große Datenmengen in Echtzeit über mobile Geräte stoßen Disk-basierte Ansätze an ihre Grenzen."

In-Memory-Computing ist "das nächste große Ding" in der Enterprise-IT. Sagt Hasso Plattner. "Nonsens", antwortet Larry Ellison. Warum? Beim In-Memory-Computing werden Daten nicht mehr von der Festplatte geladen, sondern im Arbeitsspeicher gehalten. Das ist wesentlich schneller. "Die traditionelle Datenhaltung ist von gestern", sagt Hasso Plattner. "Verrückt", sagt Larry Ellison.

Da flammt sie also wieder auf, die alte Fehde zwischen den zwei segelbegeisterten Haudegen der Software-industrie. Die Zuschauer können sich zurücklehnen und den Streit aus der Ferne genießen. Partei zu ergreifen ist nicht nötig, denn im Fall In-Memory könnten beide recht behalten.

In-Memory - Spalten und Zeilen

SAP kombiniert In-Memory mit einer spaltenorientierten Datenhaltung. Durch hohe Kompression und Verarbeitungsgeschwindigkeit im Hauptspeicher seien rasante Abfragen möglich.

Die In-Memory-Technologie zeichnet sich dadurch aus, dass Daten nicht auf Festplatten oder im Cache, sondern nah an der CPU im Arbeitsspeicher gehalten werden. Dadurch steigt die Geschwindigkeit der Datenverarbeitung signifikant an. Um die Daten im flüchtigen Arbeitsspeicher zu sichern, werden beispielsweise Snapshots, Transaction Logs und Replikationen eingesetzt. Die Daten werden dann bei Bedarf etwa auf herkömmliche Plattensysteme geschrieben.

Die In-Memory-Technologie ist seit mehreren Jahren etabliert, fristet aber ein Nischendasein. Anwendungsbeispiele finden sich in Unternehmen, denen es auf "Echtzeit" ankommt: Telcos, soziale Netzwerke oder Handelsplattformen. Zu den bekanntesten In-Memory-Datenbanksystemen zählen etwa GemStone (VMware), ASE 15.5 (Sybase), QlikView (QlikTech), SolidDB (IBM) und TimesTen (Oracle).

Während in der traditionellen Struktur alle Felder eines Datensatzes in einer Zeile liegen und komplett abgerufen werden, umfasst die spaltenorientierte Datenhaltung in einem Block definierte Attribute mehrerer Datensätze. Dadurch können Analysen auf die tatsächlich benötigten Werte begrenzt werden, der Ressourcenverbrauch sinkt, und die Performance steigt. Schreibvorgänge wiederum lassen sich in der Regel in zeilenorientierten Systemen schneller verwirklichen. Oracle bietet Hybrid Columnar Compression als Bestandteil von Oracle Exadata an, womit sich einzelne Tabellen oder Teile von Tabellen (Partitionen) in einer spaltenorientierten Weise ablegen lassen – unterschieden wird zwischen Query- und Archiv-Optimierung. Zu den Datenbanken mit spaltenorientierter Struktur zählen Vertica (Vertica Systems), LucidDB (LucidEra) und Sybase IQ.

Abseits des In-Memory-Zanks, der seinen ersten Höhepunkt auf der Sapphire Mitte Mai hatte, spricht einiges für den Durchbruch der Technologie. Sie bietet interessante Ansätze und ist zumindest für einige Anwendungen längst Realität (siehe Kasten "Spalten und Zeilen"). Unbestritten ist auch, dass die Informationsmenge explodiert und sich Unternehmen fragen, wie sie die Datenflut effizient kanalisieren können. "Der Fokus im IT-Management verschiebt sich zunehmend auf den Speicher, während der steigende Bedarf im Computing durch neue CPU- und Cloud-Technologien relativ gut zu beherrschen ist", sagt Martin Zentner, Geschäftsführer der Münchner Beratungsfirma v3 Consulting. Schwachstelle sei nämlich nicht der Prozessor, sondern das I/O-Subsystem: "Dieser Performance-Gap setzt jede IT-Architektur unter StressStress." Bedarf an zusätzlicher Leistung ist also prinzipiell vorhanden. Alles zu Stress auf CIO.de

Zur Startseite