Database Award 2012

Das herausragende Datenbank-Projekt

06. Februar 2012
Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Über Datenbank-Projekte und aktuelle Entwicklungen sprachen wir mit dem Juror des diesjährigen Database Awards Andreas Ströbel, Consulting-Manager bei Opitz Consulting.
Bei herausragenden Datenbank-Projekten gibt es keine 08/15-Lösungen, sagt Datenbank-Experte und Consulting-Manager Andreas Ströbel.
Bei herausragenden Datenbank-Projekten gibt es keine 08/15-Lösungen, sagt Datenbank-Experte und Consulting-Manager Andreas Ströbel.
Foto: Opitz Consulting

Herr Ströbel, Sie sind für die Steuerung von Datenbank-Projekten zuständig. Was macht aus Ihrer Sicht ein herausragendes Datenbank-Projekt aus?

Grundsätzlich denke ich, dass allen herausragenden Datenbank-Projekten eines gemeinsam ist: Die Tatsache, dass es keine einfachen 08/15-Lösungen gibt, sondern dass die Abwicklung eines solchen Projektes eine spezielle Herangehensweise, intensive Planung und innovative Ideen erfordert.

In der Regel spielt auch nicht die Datenbank alleine eine wichtige Rolle, sondern die gesamte Infrastruktur - beginnend mit den Storage-Systemen im Backend über die eingesetzten, häufig geclusterten Rechnersysteme bis zu vorgeschalteten Middleware-Systemen oder Load Balancern und Firewalls.

Gibt es in dem Bereich spezielle Trends?

In dem Kontext werden sogenannte Appliances immer wichtiger, die eine optimal aufeinander abgestimmte Systemumgebung für spezielle Anforderungen bieten, zum Beispiel OracleOracle’s Exadata Database Machine oder auch schon länger auf dem Markt etablierte Systeme wie Teradata, die konkret im Kontext Data Warehouse ihren Ursprung haben. Alles zu Oracle auf CIO.de

Ein großes Thema ist derzeit Big Data. Spielen großen Datenmengen tatsächlich bei aktuellen Datenbank-Projekten eine große Rolle?

Ja, große Datenmengen beziehungsweise große Datenwachstumsraten sind in immer mehr Projekten ein wichtiger Faktor. Waren vor fünf Jahren Datenbanken im Terabyte-Bereich noch eher selten, so sind heute Datenvolumina von mehreren 10 Terabyte üblich. Richtig große Datenbanken reichen dann oft in den Peta- oder gar Exabyte-Bereich hinein. Leider ist es nicht immer so, dass die Unternehmen wissen, welchen "Datenschatz" sie eigentlich im Keller haben. Meist ist es so, dass die Unmengen an Daten gar nicht wirklich sinnvoll ausgewertet und verwendet werden können.

Bei großen Datenmengen müsste die Datenqualität noch mehr leiden als bei normalgroßen Datenmengen. Potenziert sich das Qualitätsproblem bei Big Data?

Ja. Das große Datenvolumen bringt häufig auch den Nebeneffekt mit, dass die Qualität der Daten unzureichend ist. Insbesondere bei großen Data Warehouses und den darauf aufbauenden Business IntelligenceBusiness Intelligence Lösungen ist das ein großes Problem, denn diese gelten oft als "Single Point of Truth" und damit als Basis für strategische Unternehmensentscheidungen. Stimmt die Qualität dieser Basis nicht, birgt das naturgemäß hohe Risiken. Alles zu Business Intelligence auf CIO.de

Dabei ist jedoch in der Regel nicht alleine die Tatsache ausschlaggebend, dass es sich um große Datenmengen handelt, sondern vielmehr dass die Quellen ungenügende Qualität liefern. Zwischengeschaltete Datenqualitäts-Lösungen können hier auch nur einen kleinen Teil zur Verbesserung der Lage beitragen.