Strategien


Ideen fürs Business fehlen

Sinnloser Big-Data-Aktionismus

Christoph Lixenfeld, seit 25 Jahren Journalist und Autor, vorher hat er Publizistik, Romanistik, Politikwissenschaft und Geschichte studiert.

1994 gründete er mit drei Kollegen das Journalistenbüro druckreif in Hamburg, schrieb seitdem für die Süddeutsche Zeitung, den Spiegel, Focus, den Tagesspiegel, das Handelsblatt, die Wirtschaftswoche und viele andere.

Außerdem macht er Hörfunk, vor allem für DeutschlandRadio, und produziert TV-Beiträge, zum Beispiel für die ARD-Magazine Panorama und PlusMinus.

Inhaltlich geht es in seiner Arbeit häufig um die Themen Wirtschaft und IT, aber nicht nur. So beschäftigt er sich seit mehr als 15 Jahren auch mit unseren Sozialsystemen. 2008 erschien im Econ-Verlag sein Buch "Niemand muss ins Heim".

Seit 2014 betreibt er die Informationsplattform www.wohinmitmutter.de.

Christoph Lixenfeld schreibt aber nicht nur, sondern er setzt auch journalistische Produkte ganzheitlich um. Im Rahmen einer Kooperation zwischen Süddeutscher Zeitung und Computerwoche produzierte er so komplette Zeitungsbeilagen zu den Themen Internet und Web Economy inklusive Konzept, Themenplan, Autorenbriefing und Redaktion.
Big Data ist das aktuell breitgetretendste Buzz-Word der IT-Branche. Dabei wissen viele Anwenderunternehmen selbst noch nicht, warum sie sich damit beschäftigen.

Businessbegriffe gelangen selten auf diese Liste, und technische, deren Bedeutung 99 Prozent der normalen Zeitungsleser nicht kennen, schon gar nicht.

Doch Big DataBig Data hat es geschafft: Unter den "Wörtern des Jahres 2013", zusammengestellt von der altehrwürdigen Gesellschaft für Deutsche Sprache, landete das schwammige Buzz-Word auf Platz 5, umgeben von den Begriffen GroKo, Protz-Bischof, Generation Sandsack, Ausländermaut, falsche Neun und einigen anderen. Alles zu Big Data auf CIO.de

Mit Hilfe von Big Data lassen sich alle Arten von Daten zu spannenden Analysen verdichten. Zu guten Ergebnissen führt das aber nur in Verbindung mit entsprechenden Konzepten.
Mit Hilfe von Big Data lassen sich alle Arten von Daten zu spannenden Analysen verdichten. Zu guten Ergebnissen führt das aber nur in Verbindung mit entsprechenden Konzepten.
Foto: NAN278 - shutterstock.com

Was uns das sagt? Möglicherweise dass ein Begriff gerade dann inflationär verwendet wird und entsprechende Aufmerksamkeit erregt, wenn seine exakte Bedeutung und konkrete Anwendungsszenarien noch unklar sind. Ursache dieser Unklarheit ist nicht, dass die Verwender des Begriffs sich nicht auskennen, sondern dass er einfach schwammig ist. Am häufigsten verwendet wird "Big Data" für die Analyse des Verhaltens der Nutzer von was auch immer auf Basis der Auswertung großer Datenmengen.

Erfolgsgeschichten sind selten

Solche Analysen gibt es schon mindestens zehn Jahre länger als den Begriff. Allerdings sind heute die technischen Möglichkeiten der Datenauswertung durch massenhaft und preiswert verfügbare Rechenleistung drastisch gewachsen. Außerdem braucht in Zeiten von Hadoop-Clustern nicht jeder, der Analysen will, selbst entsprechende Kapazitäten vorzuhalten.

Spätestens hier stellt sich die Frage, warum es zwar eine Allgegenwärtigkeit des Begriffs in Meetings und Medien gibt, aber kaum aktuelle, konkrete, spannende Erfolgsgeschichten - abgesehen von den üblichen Verdächtigen Netflix, Amazon etc.?

Um Erfolgsgeschichten zu schreiben, müssten Unternehmen sich überlegen, was sie wollen und die Voraussetzungen schaffen.

Die meisten Unternehmen, schrieb Anfang Juli Autor Jeremy Levy auf techcrunch, sitzen aber schlicht auf einem großen Haufen von Datenschrott. Laut einer Untersuchung von Experian, einem Anbieter von Software zur Analyse von Datenqualität, schlagen sich 88 Prozent aller Unternehmen mit schlechter Datenqualität herum und verlieren dadurch bis zu 12 Prozent ihres Umsatzes.

Daten-Schleppnetze mit unermesslich viel Müll

Die zentrale Ursache dieses Problems ist eine historische: Datenbestände sind - zwangsläufig - über die Jahre immer mehr angewachsen und wurden dabei ebenso unvermeidlich in den unterschiedlichsten Formaten und Programmen abgelegt.

Und als vor einigen Jahren die Gerüchte über den nächsten Goldrausch die Runde machten, die Verheißung, möglichst viele Daten führten zwangsläuft zu hohen Gewinnen, da ging die Sammelwut richtig los.

Aber - wie Jeremy Levy so schön formuliert hat - statt mit der Harpune gezielt auf Schmackhaftes zu zielen, zogen die Unternehmen riesige Daten-Schleppnetze hinter sich her, in denen sich unermesslich viel Müll verfing.

Um das Wenige, das davon brauchbar ist, herauszufiltern, mussten anschließend Data Scientist-Teams gebildet werden, die ihre Zeit damit verbrachten, zu sichten, zu reinigen und zu strukturieren, und das nicht selten mit manuellen bis semi-automatischen Mitteln.

Daten aussortieren ist die Hauptbeschäftigung

Wie sagte doch DJ Patil, oberster Data Scientist des Weißen Hauses einmal: "Daten sind nun mal chaotisch, und das Aussortieren wird immer 80 Prozent der Beschäftigung mit ihnen ausmachen. Anders gesagt: Daten sind ein Problem."

Wetterdaten sind ein Beispiel dafür, dass wuchtige Rechner in Verbindung mit Big Data-Tools Analysen liefern, die noch vor fünf Jahren nicht zur Verfügung standen.
Wetterdaten sind ein Beispiel dafür, dass wuchtige Rechner in Verbindung mit Big Data-Tools Analysen liefern, die noch vor fünf Jahren nicht zur Verfügung standen.
Foto: maldesowhat - Fotolia.com

Und dabei suchen Unternehmen darin doch das genaue Gegenteil, nämlich Lösungen. Aber weil sie nicht wissen, wie sie sonst dorthin gelangen sollen, kaufen sie sackweise Tools, multifunktionale Macheten sozusagen, mit denen sich hoffentlich eine Schneise durch den Datendschungel schlagen lässt.