Mangelnde Datenqualität

Warum BI-Projekte scheitern

10.09.2010 von Werner Kurzlechner
BI-Projekte scheitern vor allem wegen schlechter Datenqualität. Dabei würden sich Investitionen in diesem Bereich für Unternehmen in jeglicher Hinsicht lohnen. Das verdeutlichen mehrere aktuelle Studien.
Wer in Datenqualität investiert, kann sich über klingende Münze freuen. Die Rendite sei exorbitant, behaupten Wissenschaftler aus den USA und Indien.
Foto: eyewave - Fotolia.com

Investitionen in bessere Daten sind der einfachste Weg, Wettbewerbsfähigkeit, Effizienz und Performance eines Unternehmens zu verbessern. Zu diesem Ergebnis kommt eine Studie der University of Texas und der Indian School of Business heißt.

Dazu passt ein Ergebnis aus dem gerade veröffentlichten „BI Survey 9“. Demnach ist schlechte Datenqualität nach Einschätzung der Anwender die häufigste Ursache eines Scheiterns von Projekten im Bereich Business Intelligence (BI). 18,2 Prozent der befragten 2500 Unternehmen nannten dieses Problem. „Während Anbieter schlechte Datenqualität routinemäßig für in der Vergangenheit gescheiterte Implementierungen verantwortlich gemacht haben, wird diesem Kernproblem nun zum ersten Mal von den Nutzern die gleiche Bedeutung beigemessen“, sagt Melanie Mack, Head of Market Research beim für die Studie mitverantwortlichen Business Application Research Center (BARC).

Mit dieser Problemerkenntnis ebnen sich die Firmen den Weg zu rasant größerem Geschäftserfolg, wenn man der Studie aus Texas glaubt. Denn nach Einschätzung von Studienautor Prof. Anitesh Barua lassen sich durch eine Verbesserung von Datenqualität, Benutzerfreundlichkeit, Informationsgehalt, Zugriff von mobilen Geräten und Sales Mobility die finanziellen Eckdaten eines Unternehmens in drastischer Weise optimieren. Ein plastisches Beispiel: Eine Steigerung der Benutzerfreundlichkeit der Geschäftsdaten um 10 Prozent bringe einem durchschnittlichen Fortune 1000-Unternehmen mit 36.000 Mitarbeitern ein Umsatzplus von 2 Milliarden US-Dollar jährlich, behauptet Barua. Das entspreche einer Erhöhung des durchschnittlichen Umsatzes pro Mitarbeiter um 55.900 Dollar.

Mutige Thesen, die insbesondere CFOs interessieren dürften. Denn die Forscher deklinieren auf diese Weise verschiedene Messgrößen aus dem Finance-Bereich durch. So könne auch der Return on Equity (ROE) als wichtiger Indikator für die Wachstumsfähigkeit eines Unternehmens durch moderate Investitionen in die IT deutlich gesteigert werden. Wer zugleich die Qualität und Zugänglichkeit der Daten um 10 Prozent steigere, könne im Schnitt einen um 16 Prozent erhöhten ROE verbuchen.

Ähnliches gilt für den Return on Invested Capital (ROIC) als Messgröße für die Effizienz, mit der Kapital profitabel investiert wird. Ein durchschnittliches Fortune 1000-Unternehmen, dass die Mobilität seiner Verkaufsdaten um 10 Prozent erhöhe, kann nach Berechnung der Wissenschaftler mit einem um 1,4 Prozent höheren ROIC kalkulieren.

Forscher sehen viel Luft nach oben

Beim Return on Assets (ROA) als Maß für einen effizienten Einsatz der Ressourcen ist durch Erhöhung von Informationsgehalt und Zugänglichkeit um 10 Prozent ein Zuwachs von 0,7 Prozent drin. Was erst einmal mickrig klingt, entspricht laut Studie in einem amerikanischen Konzern immerhin 2,87 Millionen Dollar an zusätzlichen Einnahmen.

Warum die Qualität der Daten so direkt auf die finanzielle Performance durchschlägt, erklären die Wissenschaftler an mehreren Beispielen. Bei einer Verbesserung der Benutzerfreundlichkeit müsse man sich beispielsweise vor Augen halten, welche Zeit ungenutzt verstreicht, bis Anwender die für sie relevanten Informationen herausgefiltert haben.

Man stelle sich etwa Finanzberater vor, die Rohdatenströme auf mehreren Bildschirmen beobachten, während sie ihren Klienten Ratschläge erteilen. Neben dem Zeitverlust seien in diesem Fall auch eventuelle durch diese Arbeitsweise verursachte Beurteilungsfehler zu berücksichtigen.

An der Existenz beträchtlicher Spielräume selbst in den untersuchten Top-Unternehmen haben die Forscher keinen Zweifel. Auf einer Skala von 1 bis 7 liege die durchschnittliche Benutzerfreundlichkeit in den untersuchten Firmen bei 4,21. Mit 4,66 im Mittel ist es um die Datenqualität kaum besser bestellt.

Zu Beginn des Jahres stellte auch Ventana Research erhebliche Mängel in der Datenqualität fest. 57 Prozent der Firmen seien noch damit beschäftigt, Sinn und Ordnung in ihre Datensätze zu bringen. Es bestünden weithin Unordnung in den Datenformaten, ein Wirrwarr unterschiedlicher Versionen von IT-Systemen und überhaupt eine unsystematische Streuung der Daten über die einzelnen Geschäftsbereiche.

Schlechte Daten torpedieren Entscheidungsprozesse

Der Handlungsbedarf erscheint offensichtlich. Aber was ist von den schillernden Ergebnissen zu halten, die University of Texas und Indian School of Business vorlegen? BI-Experte Thomas Wailgum hat sich für unsere Schwesterpublikation CIO.com dazu kritische Gedanken gemacht. Dass Anbieter Sybase als Sponsor der Studie fungiere, stimme durchaus skeptisch. An Umsatzsteigerungen im Milliardenmaßstab mag Wailgum auch kaum glauben.

An der Grundaussage zweifelt er indes nicht. „Sogar die besten Anwendungen und Entscheidungsprozesse laufen ins Leere, wenn die Daten schlecht sind“, so Wailgum. Bei der Studie komme es letztlich darauf an, wie effektiv ein Unternehmen ihre Resultate zum eigenen Nutzen verwenden kann.