Datenqualität bei Business Intelligence

Ende der Verunsicherung

24.08.2009 von Christa Manta
Hinter jedem erfolgreichen BI-Projekt steht eine starke Datenquelle. Doch oft fließen Daten aus verschiedenen Datenbanken und -quellen verunreinigt in das zentrale Data Warehouse und schmälern sowohl den Erfolg, als auch die Akzeptanz von Business Intelligence. "Wer will schon wichtige geschäftliche Entscheidungen auf fehlerhafte Daten stützten?", fragen die Autoren des Buches "Datenqualität erfolgreich steuern" und versuchen aufzuzeigen, wie Unternehmen aus einem Datenfriedhof einen Datenschatz heben können.

Die Datenqualität ist das Damoklesschwert der Business Intelligence, behaupten Detlef Apel, Wolfgang Behme, Rüdiger Eberlein und Christian Merighi. Sie entscheide über Effektivität, Erfolg und Akzeptanz von BI-Projekten. In ihrem Ratgeber "Datenqualität erfolgreich steuern. Praxislösungen für Business-Intelligence-Projekte" befassen sich die Autoren mit Datenqualitätsmanagement (DQM) und wie man es in der Praxis umsetzt. Dabei fragen sie nach den Ursachen für schlechte Datenqualität und den Konsequenzen für das Geschäft, wo die Weichen für Datenqualität gestellt werden müssen und wie man die Ergebnisse messen kann. Anhand von Best Practices und Lessons Learned erfahren die Leser, welche Verfahren, Methoden und Werkzeuge des DQM in der Praxis greifen.


Das detaillierte und dennoch übersichtliche Werk wendet sich an Projektleiter, IT-Manager und -Verantwortliche, an Entwickler und Unternehmensführung. Es erhebt nicht den Anspruch, unternehmensweites Datenqualitätsmanagement zu beschreiben, sondern fokussiert auf den Bereich Business Intelligence. Gleichzeitig beschränkt es sich auf den Umgang mit strukturierten Daten, die für das Data Warehouse aufbereitet werden sollen und spart unstrukturierte Daten, die mittels Content- oder Dokumenten-Management erschlossen, werden aus.

Geballtes Theoriewissen

Das Werk "Datenqualität erfolgreich steuern" zeigt anhand von praktischen Beispielen, wie man die Datenqualität rund um Business-Intelligence-Projekte verbessern kann.

Dem theoretischen Teil des Datenqualitätsmanagements folgt die Anleitung zur technischen Umsetzung. So erfährt der Leser, wie er zu fachlich korrekten Metadaten kommt, auch wenn seine Daten aus unterschiedlichen Quellen in das Data Warehouse einfließen. Die Autoren stellen drei Architekturen für ein Metadaten-Repository vor und wägen deren Vor- und Nachteile ab. Anhand von praktischen Beispielen wird der Prozess des Data Profiling aufgezeigt, also die Analyse der vorhandenen Daten in Hinsicht auf Inhalt, Qualität und Struktur. Es wird aufgezeigt, wie man Daten validiert, das heißt nach festen Regeln auf ihre Eignung für das Projekt hin überprüft. Hat man die guten Daten ins Töpfchen und die schlechten ins Kröpfchen aussortiert, stellt sich die Frage nach der Standardisierung und Bereinigung. Schließlich wird auf die Datenanreicherung eingegangen. Ein Kapitel soll bei der Auswahl von Werkzeugen für das Datenqualitätsmanagement helfen. Hier stellen die Autoren die Produkte jedoch nicht explizit mit ihren Stärken und Schwächen vor, sondern listen eine Reihe von Kriterien, an denen sich IT-Entscheider orientieren können.

Datenqualitätsmanagement in der Praxis

Im dritten und mit rund 30 Seiten kürzesten Teil des Buches geht es um die Projektpraxis. Vor dem eigentlichen Projektstart empfehlen die Autoren eine Machbarkeitsstudie, die grob den Funktionsumfang sowie Technik, Termine und Kosten beschreibt. Mithilfe einer Studie ließe sich ein häufiger Fehler von BI-Projekten vermeiden: Nämlich, dass nach wochenlanger Arbeit festgestellt wird, dass die Spezifikationen nicht mit den realen Daten aus den Quellsystemen übereinstimmen. Für die einzelnen Realisierungsphasen eines BI-Projektes - Studie, Spezifikation, Konstruktion, Realisierung und Betrieb - benennen die Autoren wichtige Schritte und geben Tipps aus der Praxis. Zum Beispiel hätte die Erfahrung gelehrt, dass die Wirksamkeit von Datenqualitätsmaßnahmen mit der Zeit abnimmt. Dementsprechend sei ein regelmäßiges Monitoring notwendiger Bestandteil des Datenqualitätsmanagements. Das Autorenquartett entlässt den Leser mit dem Hinweis, Datenqualitätsmangement sei für jeden Datenverantwortlichen eine Daueraufgabe. Bei dieser kann ihr Ratgeber "Datenqualität erfolgreich steuern" gut helfen. Denn er ist umfassend, gut gegliedert und in einer leicht verständlichen Sprache geschrieben.