Schlechte Datenqualität und hohe Kosten

Verlorene Big Data-Illusionen

Werner Kurzlechner lebt als freier Journalist in Berlin und beschäftigt sich mit Rechtsurteilen, die Einfluss auf die tägliche Arbeit von Finanzentscheidern nehmen. Als Wirtschaftshistoriker ist er auch für Fachmagazine und Tageszeitungen jenseits der IT-Welt tätig.
Eine AIIM-Studie zeigt, dass der ROI durchwachsen ausfällt. Fehlende Skills, teure Tools und schlechte Datenqualität sind nur die Spitze des Problem-Eisbergs.
Die Übersicht zeigt, welche Herausforderungen die Befragten der AIIM-Studie besonders hoch bewerten.
Die Übersicht zeigt, welche Herausforderungen die Befragten der AIIM-Studie besonders hoch bewerten.
Foto: AIIM

Leistet man sich den Luxus der Ignoranz in kulturindustriellen Hype-Angelegenheiten, kann man auf peinliche Weise den Anschluss verlieren. Dann will man vielleicht irgendwann diesen Harry Potter-Film anschauen, während längst schon Teil Zwei, Drei oder 748 in den Kinos läuft. Bei Business IntelligenceBusiness Intelligence (BI) und Big Data nun sind CIOs gewiss nicht ignorant, aber wohl ziemlich hype-resistent geworden. Alles zu Business Intelligence auf CIO.de

Neues Buzzword Big Content

Deshalb sei erwähnt, dass es in dem Segment womöglich ein neues Buzzword gibt: Big Content. AIIM (Association for Information and Image Management), die internationale Community von IT-Profis, grenzt jedenfalls in einer aktuellen Studie Big Data- und Big Content-Projekte voneinander ab. Big Data in diesem engeren Sinne meint die Auswertung strukturierter Transaktionsdaten, Big Content demgegenüber ProjekteProjekte, in denen unstrukturierte Text- und Rich Media-Inhalte oder eine Kombination aus beiden ebenfalls im Fokus sind. Alles zu Projekte auf CIO.de

Vermutlich kommt diese Differenzierungsstufe ein bisschen früh. Doug Miles, Autor der von IBMIBM und Datawatch unterstützten Studie, stellt zwar fest, dass im Vergleich zum April 2012 die Konfusion gegenüber Big Data erkennbar weniger geworden sei. Ansonsten kann man die Ergebnisse der auf einer Befragung von 340 AIIM-Mitgliedern basierenden Studie nicht anders interpretieren, als dass es weiterhin zäh vorangeht mit Big Data. Das ist jetzt nicht neu. Aber der AIIM-Report erhellt ebenso wie eine vom Anbieter QlikTech beauftragte Blitzumfrage der Harvard Business Review (HBR) unter 440 Entscheidern gut, woran das liegt. Alles zu IBM auf CIO.de

ROI-Bestimmung gestaltet sich schwierig

Handfest an der AIIM-Studie ist jedoch vor allem, dass die noch kleine Minderheit der Unternehmen mit bereits laufenden Big Data-Projekten nach ihren Erfahrungen befragt wird. Wie ist es beispielsweise um den Return-on-Investment (ROIROI) bestellt? Nun, mehr als die Hälfte jener Firmen findet, es sei noch zu früh für eine Antwort. Vom Rest äußert sich ein gutes Fünftel sehr zufrieden, weitere 30 Prozent schränken ihr Urteil auf spezifische Projekte ein. Ebenfalls 30 Prozent sagen, der ROI sei klein, weil die Kosten für Experten und Technologie so hoch seien. Die übrigen Anwender waren nach eigenen Angaben nicht in der Lage, den ROI zu messen. Alles zu ROI auf CIO.de

Auf den ersten Blick zieht also eine Mehrheit ein positives Fazit – das ist besser, als zu erwarten war. Schaut man genauer auf die zahlenmäßige Basis dieses Befundes, so steht selbst dieses gute Resultat auf wackligen Füßen. Durchwachsen dürfte als Zusammenfassung wohlwollend formuliert sein.

Die Unterscheidung zwischen Big Data und Big Content erweist sich im Übrigen als bisher wenig aussagekräftig, weil die Unterschiede gering sind. „Die Erfolgsraten von Big Data- und Big Content-Projekten sind ähnlich", so Studienautor Miles. „Der ROI variiert, was zum Teil an den hohen Einstiegskosten für Tools und den Skill-Erwerb liegt." Big Content-Projekte seien einen Tick weniger ausgereift, so Miles weiter. Komplett scheiterten aber nur wenige Projekte: 11 Prozent bei Big Content, 7 Prozent bei Big Data.

Vertrauen in die Analyseergebnisse fehlt

Als Indikator für den Projekterfolg wohl noch über dem ROI anzusiedeln sind Analyseergebnisse, die tatsächlich in die Entscheidungsprozesse im Unternehmen einfließen oder sogar mehr. Und auch hier gibt es Luft nach oben. Weniger als ein Zehntel der Befragten zeigen sich sehr froh mit den Ergebnissen und geben an, dass diese regelmäßig als Basis für strategische Entscheidungen dienen. Weitere 40 bis 50 Prozent sagen, das Projekt sei in dieser Hinsicht gut angelaufen und man beginne, die Resultate in die Entscheidungsfindung einzubauen. Ein gutes Drittel der Anwender beklagt hingegen, dass es intern an Vertrauen in die Analyseergebnisse fehle.

Hier liegt offenbar der neuralgische Punkt bei Big Data, wie die HBR-Studie bestätigt. „In der Ära von Big Data und Analytics ist der Bedarf an genauer, schneller und aufschlussreicher Entscheidungsunterstützung so groß wie nie", heißt es darin. „Allerdings kämpfen die Firmen noch damit, das enorme Potenzial von Analytics zu kapitalisieren."

Sorgen wegen Datenqualität und -verfügbarkeit

Die Entscheider in den Unternehmen hegten substanzielle Sorgen wegen des Zugangs zu internen und externen Daten, wegen ihrer Verfügbarkeit und ihrer Qualität. Das reduziere das Vertrauen in Entscheidungsprozesse. 43 Prozent der Befragten berichteten, dass Führungskräfte in hohem Maße sich lieber von ihrer Erfahrung leiten ließen als von Daten. Ebenso hoch ist der Anteil der Befragten, die ihr Unbehagen bei Entscheidungen mit fehlenden Informationen beziehungsweise dem steinigen Zugang zu ihnen begründen.

Auch die HBR-Studie illustriert also ein grundlegendes Dilemma mit Big Data. Wenn man darunter weniger die Vermarktung neuer Tools als das Heben von bisher übersehenen Datenschätzen versteht, ist der Bedarf an diesem Instrument unverkennbar. Laut AIIM-Studie sehen 62 Prozent der tatsächlichen oder potenziellen Nutzer sehr wertvolle Möglichkeiten in der Content Analyse.

Ein hoher geschäftlicher Mehrwert wird insbesondere einer verbesserten Datenqualität, der Entdeckung von Compliance-Verstößen und der Beschleunigung des Kunden-Services zugeschrieben, auch der besseren Entscheidungsfindung. Dennoch ist die Adaptionsrate – der AIIM-Studie zufolge 14 Prozent insgesamt, 27 Prozent in Großunternehmen – zwar steigend, aber immer noch gering. Auch wenn Studienautor Doug Miles von einem „dramatischen Anstieg" in den vergangenen 18 Monaten spricht.

Unter anderem finden, wie die AIIM-Studie zeigt, die Anwender die Big Data-Tools unausgereift und nicht bedienungsfreundlich. Die schlechte Datenqualität sei in vielen Unternehmen ein unausweichliches Problem. „Von größerer Tragweite ist aber, dass 37 Prozent die Vorstandserwartungen als überhyped empfinden", so Miles. „Es scheint fast unausweichlich, dass Big Data erst einmal durch ein tiefes Tal der Desillusionierung muss." Erst dann könne die Technologie eine realistische Position gewinnen: als BI-Schlüsseltool, das beim Entscheiden wertvolle Assistenzdienste leistet, nicht aber als Wunderwaffe für die Realisierung von Wettbewerbsvorteilen.

Desorganisierter Content

Noch gibt es sowieso Schwierigkeiten auf vielen Ebenen. Zwei Drittel der Firmen berichten, ihr Content sei „ein Stück weit desorganisiert"; 81 Prozent klagen über limitierte Suchkapazitäten; 60 Prozent verfügen nur über basales BI-Reporting. „Das ist keine gute Basis, um Big Data-Projekte zu starten", konstatiert die AIIM-Studie. Ein Fünftel der Befragten berichtet, dass ungelöste Security-Fragen derartige Projekte sowieso ausbremsen; insgesamt sorgen sich wegen der Sicherheit 63 Prozent.

Mitarbeiter-Skills und Komplexität

Die fehlenden Skills im eigenen Haus kompensierte ein Drittel der Befragten, die bereits ins Abenteuerland Big Data aufgebrochen sind, mit externen Dienstleistern. Ebenso hoch ist der Anteil der Anwender, die neues Personal einstellten oder die vorhandenen Mitarbeiter für Big Data schulen. Als größte Herausforderung für die Nutzer macht AIIM indes die Vernetzung der multiplen Systeme aus – insbesondere die Verbindung von strukturierten und unstrukturierten Daten und die Analyse von Textdaten.

Zur Startseite