Strategien


Kosten, Probleme, Umsetzung

Die Praxis von Big Data Analytics in Unternehmen

Christoph Lixenfeld, seit 25 Jahren Journalist und Autor, vorher hat er Publizistik, Romanistik, Politikwissenschaft und Geschichte studiert.

1994 gründete er mit drei Kollegen das Journalistenbüro druckreif in Hamburg, schrieb seitdem für die Süddeutsche Zeitung, den Spiegel, Focus, den Tagesspiegel, das Handelsblatt, die Wirtschaftswoche und viele andere.

Außerdem macht er Hörfunk, vor allem für DeutschlandRadio, und produziert TV-Beiträge, zum Beispiel für die ARD-Magazine Panorama und PlusMinus.

Inhaltlich geht es in seiner Arbeit häufig um die Themen Wirtschaft und IT, aber nicht nur. So beschäftigt er sich seit mehr als 15 Jahren auch mit unseren Sozialsystemen. 2008 erschien im Econ-Verlag sein Buch "Niemand muss ins Heim".

Seit 2014 betreibt er die Informationsplattform www.wohinmitmutter.de.

Christoph Lixenfeld schreibt aber nicht nur, sondern er setzt auch journalistische Produkte ganzheitlich um. Im Rahmen einer Kooperation zwischen Süddeutscher Zeitung und Computerwoche produzierte er so komplette Zeitungsbeilagen zu den Themen Internet und Web Economy inklusive Konzept, Themenplan, Autorenbriefing und Redaktion.
Meistens werden Analytics-Projekte vom CEO persönlich angeschoben.
Meistens werden Analytics-Projekte vom CEO persönlich angeschoben.
Foto: DAAG

In den Fällen, bei denen bereits entsprechende Projekte im Einsatz sind - bei 30 Prozent der Befragten - wandelt sich der Einsatz von Analytics immer mehr von rein deskriptiven zu Realtime-Auswertungen, also von der Ex-Post- zur Live-Betrachtung gewonnener Daten.

Nur wenige arbeiten mit den Datenmengen bereits sinnvoll

Das Internet of Things (IoT), also die Befähigung fast sämtlicher technischer Geräte, Daten zu senden und zu empfangen, hält für Analytics sowohl neue Chancen als auch neue Herausforderungen bereit.

Zwar sind 60 Prozent der befragten Unternehmen davon überzeugt, dass sie gut darin sind, Daten von Sensoren aller Art zu sammeln, aber nur 32 halten sich zugleich für in der Lage, mit dieser Datenflut auch etwas Sinnvolles anzufangen.

Beispiel Windpark Manager

Wie das in der Praxis gehen kann, zeigt die erste der drei in die Untersuchung integrierten Fallstudien, der HPE Windpark Manager. Dabei handelt es sich um eine integrierte, datengestützte Steuerung des Zusammenspiels von Windturbinen, Stromnetzen und IT-Systemen. Das System führt Maschinen-, Strom-, IT- und Security-Daten herstellerübergreifend auf einer einzigen Plattform zusammen. Getriebevibrationen, Rotorwinkel, Stromleistungsabgabe und vieles andere werden dabei laufend überwacht.

Jede Pille wird in drei Millisekunden erkannt

Völlig anders - aber ebenso spannend - ist das von Kiana Systems umgesetzte Analytics-Projekt. Es handelt sich um eine direkt in den Produktionsprozess eines großen Pharmaherstellers eingebundene Lösung, die es ermöglicht, die ganz unterschiedlichen wöchentlichen Medikamentenrationen verschiedener Patienten automatisiert in Blisterverpackungen zu sortieren. Erkannt werden die Pillen dabei innerhalb von drei Millisekunden durch eine Kombination aus Infrarot-Identifizierung und Machine Learning. Die Fehlerrate ist verschwindend gering.

Die Technologie kann auch auf andere Produkte übertragen werden - und sie kann in jedem Anwendungsfall ein realistisches Urteil über den eigenen Kompetenzlevel abgeben.

Die Analysetools verschlingen in solchen Projekten das meiste Geld.
Die Analysetools verschlingen in solchen Projekten das meiste Geld.
Foto: DAAG

Aus diesen Case Studies sowie aus den Erfahrungen jener unter den Befragten, die bereits solche Projekte angeschoben haben, lässt sich eine Reihe von Learnings für Analytics-Novizen ableiten. Sie sind im vierten Kapitel unter dem schönen Titel "Making it happen" zusammengefasst.

Auf das Mindset kommt es an

Bei der Umsetzung von Industrial Analytics stehen vier Bereiche im Mittelpunkt: Datenquellen, notwendige Infrastruktur, Analysetools und erforderliche weitere Anwendungen/Software.

Die letzten beiden genannten Punkte verschlingen den Löwenanteil des Budgets, kein Wunder also, das 64 Prozent Analytik-Praktiker sagen, sie setzten hier auf Open Source.

Gravierender Mangel an Spezialisten

Größte Herausforderung beim Doing ist es, genügend Spezialisten an Bord zu bekommen; rar sind vor allem solche, die sich mit Datenauswertung beschäftigen. 92 der Befragten sagten, dies sei der entscheidende Bereich. Aber auch Infrastrukturexperten sind gesucht.

Wichtig ist die Qualität der Daten, außerdem die Interoperabilität (also: breite Einsetzbarkeit im Unternehmen) der Analysetools, das Orientieren der Analytik-Ziele am Geschäftsmodell und schließlich das Schaffen des richtigen "digital Mindsets" innerhalb der gesamten Organisation.