Streit um In-Memory-Technologie

SAP gegen Oracle

05.10.2010 von Alexander Freimark
Hasso Plattner hat In-Memory-Computing zur Chefsache erhoben. Das Konzept ist augenscheinlich reizvoll. Zudem bringt es Bewegung in die Grundlagen des Daten-Managements. Doch nicht alle Unternehmen werden davon profitieren.
Ingo Brenckmann Program Director Data und Analytic Engines, SAP AG: "Beim Zugriff auf große Datenmengen in Echtzeit über mobile Geräte stoßen Disk-basierte Ansätze an ihre Grenzen."

In-Memory-Computing ist "das nächste große Ding" in der Enterprise-IT. Sagt Hasso Plattner. "Nonsens", antwortet Larry Ellison. Warum? Beim In-Memory-Computing werden Daten nicht mehr von der Festplatte geladen, sondern im Arbeitsspeicher gehalten. Das ist wesentlich schneller. "Die traditionelle Datenhaltung ist von gestern", sagt Hasso Plattner. "Verrückt", sagt Larry Ellison.

Da flammt sie also wieder auf, die alte Fehde zwischen den zwei segelbegeisterten Haudegen der Software-industrie. Die Zuschauer können sich zurücklehnen und den Streit aus der Ferne genießen. Partei zu ergreifen ist nicht nötig, denn im Fall In-Memory könnten beide recht behalten.

In-Memory - Spalten und Zeilen

SAP kombiniert In-Memory mit einer spaltenorientierten Datenhaltung. Durch hohe Kompression und Verarbeitungsgeschwindigkeit im Hauptspeicher seien rasante Abfragen möglich.

Die In-Memory-Technologie zeichnet sich dadurch aus, dass Daten nicht auf Festplatten oder im Cache, sondern nah an der CPU im Arbeitsspeicher gehalten werden. Dadurch steigt die Geschwindigkeit der Datenverarbeitung signifikant an. Um die Daten im flüchtigen Arbeitsspeicher zu sichern, werden beispielsweise Snapshots, Transaction Logs und Replikationen eingesetzt. Die Daten werden dann bei Bedarf etwa auf herkömmliche Plattensysteme geschrieben.

Die In-Memory-Technologie ist seit mehreren Jahren etabliert, fristet aber ein Nischendasein. Anwendungsbeispiele finden sich in Unternehmen, denen es auf "Echtzeit" ankommt: Telcos, soziale Netzwerke oder Handelsplattformen. Zu den bekanntesten In-Memory-Datenbanksystemen zählen etwa GemStone (VMware), ASE 15.5 (Sybase), QlikView (QlikTech), SolidDB (IBM) und TimesTen (Oracle).

Während in der traditionellen Struktur alle Felder eines Datensatzes in einer Zeile liegen und komplett abgerufen werden, umfasst die spaltenorientierte Datenhaltung in einem Block definierte Attribute mehrerer Datensätze. Dadurch können Analysen auf die tatsächlich benötigten Werte begrenzt werden, der Ressourcenverbrauch sinkt, und die Performance steigt. Schreibvorgänge wiederum lassen sich in der Regel in zeilenorientierten Systemen schneller verwirklichen. Oracle bietet Hybrid Columnar Compression als Bestandteil von Oracle Exadata an, womit sich einzelne Tabellen oder Teile von Tabellen (Partitionen) in einer spaltenorientierten Weise ablegen lassen – unterschieden wird zwischen Query- und Archiv-Optimierung. Zu den Datenbanken mit spaltenorientierter Struktur zählen Vertica (Vertica Systems), LucidDB (LucidEra) und Sybase IQ.

Abseits des In-Memory-Zanks, der seinen ersten Höhepunkt auf der Sapphire Mitte Mai hatte, spricht einiges für den Durchbruch der Technologie. Sie bietet interessante Ansätze und ist zumindest für einige Anwendungen längst Realität (siehe Kasten "Spalten und Zeilen"). Unbestritten ist auch, dass die Informationsmenge explodiert und sich Unternehmen fragen, wie sie die Datenflut effizient kanalisieren können. "Der Fokus im IT-Management verschiebt sich zunehmend auf den Speicher, während der steigende Bedarf im Computing durch neue CPU- und Cloud-Technologien relativ gut zu beherrschen ist", sagt Martin Zentner, Geschäftsführer der Münchner Beratungsfirma v3 Consulting. Schwachstelle sei nämlich nicht der Prozessor, sondern das I/O-Subsystem: "Dieser Performance-Gap setzt jede IT-Architektur unter Stress." Bedarf an zusätzlicher Leistung ist also prinzipiell vorhanden.

Senior Analyst Christian Wieland von Raad Research: "Anwender wollen raschere Auswertungen und Ad-hoc-Analysen auf ihren Datenbeständen, was noch immer eine Hürde ist."

Vom Tribut an eine "schnelllebige Zeit" berichtet auch Christian Wieland, Senior Analyst bei Raad Research: "Anwender wollen raschere Auswertungen und Ad-hoc-Analysen aus ihren Datenbeständen, was noch immer eine Hürde ist.

" Eine Studie der Marktforscher ergab, dass etwa 50 Prozent der Unternehmen nur teilweise zufrieden oder nicht zufrieden mit den Antwortzeiten sind; rund zehn bis 15 Prozent sind sogar sehr unzufrieden (siehe Grafik "Reporting: Nur wenige sind rundum glücklich"). "In-Memory ist ein charmantes und schönes Modell, und die Sapphire hat gezeigt, wo die Reise hingehen kann." Plattners Ziel: möglichst viele Tickets für diesen Trip zu verkaufen.

Ein Mittel zum Zweck

Bei SAP treibt Ingo Brenckmann das Thema als Program Director Data und Analytic Engines mit Nachdruck. Er sieht die Begriffe In-Memory und Computing gleichberechtigt als Antwort auf enorme Datenmengen und Geschwindigkeitsanforderungen bei analytischen und transaktionalen Anwendungen. Computing: wegen neuer Multicore-CPUs und ihrer Rechen-Power. In-Memory: wegen der Verfügbarkeit enormer Speicherkapazitäten. "Damit die Arbeit an die Rechenkerne delegiert werden kann, haben wir eine Software direkt für das Hardware-Software-Interface geschrieben." Spaltenorientierung sei dabei nur ein Teilaspekt, um die Effizienz der Datenhaltung zu steigern: "Ein Mittel zum Zweck, und der ist In-Memory-Computing."

"Reporting: Nur wenige sind rundum glücklich".

Hört man ihm zu, hat man das Gefühl, alles sei möglich. Brenckmann spricht von immenser Performance, großen Veränderungen und neuen Denkmustern bei Applikationen. Er argumentiert mit der Flexibilität geschäftlicher Anforderungen, der breiteren Nutzerbasis sowie mit dem Empfang von Echtzeitinformationen auf Smartphones. Und SAP wisse genau, was Daten umtreibt: "Schließlich haben wir vor Jahren mit unseren Business-Anwendungen die Killerapplikation für relationale Datenbanken geschrieben. Bei heutigen Applikationen, die den Zugriff auf große Datenmengen in Echtzeit über mobile Endgeräte zulassen, stoßen Diskbasierte Ansätze jedoch an ihre Grenzen." Allein, der Kampf gegen die relationale Tradition ist Brenckmanns Sache nicht, das Ziel reicht darüber hinaus: "Unser Interesse liegt darin, die Möglichkeiten der Business-Applikationen zu erweitern." Der Flaschenhals sei die Festplatte, "und deswegen nehmen wir sie raus".

Günther Stürner, Vice President Server Technologies bei Oracle Deutschland, bewertet das Potenzial von In-Memory etwas gelassener - vielleicht, weil er seit einem Vierteljahrhundert in der Branche tätig ist, diverse Fachbücher über Datenbanken geschrieben und viele Trends begrüßt und begraben hat. Natürlich räumt auch er ein, dass In-Memory-Datenbanken eine Daseinsberechtigung haben, schließlich bietet Oracle mit TimesTen seit fünf Jahren ein solches Produkt an. Und natürlich freue ihn die Diskussion, die Plattner "zur Chefsache" gemacht und die überhaupt nur wegen der Person Plattners das hohe Maß an Aufmerksamkeit erlangt habe. "Aber", schränkt der Manager ein, "es ist ja nicht so, dass die Entwicklung bei klassischen Datenbanken vor 20 Jahren stehen geblieben wäre."

Günther Stürner Vice President Server Technologies, Oracle Inc.: "In-Memory ist eine Nische für spezielle Anwendungen, und das wird sich nicht signifikant ändern."

Stürner verweist auf Terabyte-Türme an Cache, auf intelligentes Prefetching, auf mehr als 92 Prozent Cache-Hits im Memory (nicht auf der Platte), auf den zunehmenden Austausch rotierender Scheiben durch Flash-Speicher. Zwar seien technische Herausforderungen der In-Memory-Datenverarbeitung wie der flüchtige Hauptspeicher und die Sicherung der Daten auf klassische Platten seit Jahren gelöst. Schwerer würden ökonomische Sinnfragen wiegen: Welche Applikationen brauchen überhaupt Echtzeit, und lohnt sich das? "Wenn Sie schon Antwortzeiten von zehn Millisekunden haben, lässt sich das kaum noch wirtschaftlich optimieren." So fällt denn auch die Bilanz des Oracle-Managers verhalten aus: "In-Memory ist eine Nische für spezielle Anwendungen, und das wird sich nicht signifikant ändern."

Gegen diese Position arbeitet Brenckmann an. Ende 2010 will SAP mit der "High Performance Analytical Appliance" ("Hana") auf den Markt kommen, eine Art In-Memory-Appliance zum "Anflanschen" an Bestandssysteme. Oracle hat vor über einem Jahr mit der Exadata-Datenbank-Maschine die Performance-Mess-latte hoch gelegt. Hier werde "Datenbankintelligenz vom Server auf die Platten verlagert", so Stürner. SAP hingegen wolle die Daten näher "an die Rechenkerne heranholen", so Brenckmann. Damit zeichnet sich in der Tat ein Paradigmenwechsel in der Datenhaltung ab - nur ist nicht klar, in welche Richtung.

Anwender sind noch vorsichtig

Kurz-, mittel- oder langfristig? "Bei Speichertechnologien und kritischen Daten ist jeder Anwender übervorsichtig", sagt IT-Management-Berater Zentner von v3 Consulting. "Ohne intensive Tests werden die Kunden SAP In-Memory-Computing nicht aus Händen reißen." Am begehrtesten dürften bessere Lösungen wohl in der Finanzindustrie und bei Telkos sein. "Aber", so Raad-Analyst Wieland, "Finanzdienstleister haben entweder Millionen in eigene In-Memory-Lösungen investiert, oder sie sind zu risikoscheu, um als Early Adopter zu dienen."

Immerhin ist das Timing von SAP gut gewählt: Die anziehende Konjunktur eröffnet zumindest die Chance, dass Kunden wieder über Investitionen nachdenken. Und in diesem Punkt ist man sich mit der Konkurrenz aus den USA einig. Auch Oracle-Manager Stürner freut sich: "Wir werden die Steilvorlage von Plattner zu nutzen wissen." Auf den TechEd-Entwicklerkonferenzen ab Oktober will SAP die Informationen zu In-Memory-Computing präzisieren. Dann zeigt sich, wie steil die Vorlage tatsächlich ist.