Data Science

Nur das Einstellen von Spezialisten reicht nicht

Philipp Ramin ist CEO des Schulungs-, Beratungs-, und Forschungsunternehmens Innovationszentrum für Industrie 4.0, das Kompetenzarchitekturen und Lernpfade rund um Digitalisierung und Industrie 4.0 für Unternehmen in weltweit 14 Ländern entwickelt und mit Hilfe von ganzheitlichen Schulungsprogrammen und E-Learning Nuggets umsetzt. Zudem ist er stellvertretender Geschäftsführer des Münchner Kreises. Darüber hinaus lehrt und forscht er an mehreren Hochschulen.
Datenanalyse ist keine One-Man-Show des Data Scientist. Doch viele Fachabteilungen denken das, weil Unternehmen die Datenkompetenz nicht umfassend fördern.
  • Für weite Teile der Unternehmensorganisation stellen Daten nur einen abstrakten Fremdkörper dar.
  • Data Science kann in deutschen Unternehmen ihre Potenziale nicht ausschöpfen.
  • Data Scientists sind in Betrieben oft isoliert, weil eine durchgängige Datenstrategie fehlt.
Meinen es Unternehmen mit der Exzellenz in Data Science wirklich ernst, gilt es die Organisation im Zuge des Datenmanagements als Ganzes auf diese Herausforderung vorzubereiten.
Meinen es Unternehmen mit der Exzellenz in Data Science wirklich ernst, gilt es die Organisation im Zuge des Datenmanagements als Ganzes auf diese Herausforderung vorzubereiten.
Foto: Dmytro Zinkevych - shutterstock.com

In den letzten Jahren haben sich Experten in der Betonung der Wichtigkeit von Daten für den künftigen Unternehmenserfolg regelmäßig überboten. Ihr Credo: Von der absoluten Prozesstransparenz bis hin zu datengetriebenen Geschäftsmodellen hänge alles von der umfassenden Nutzung großer Datenmengen ab. Viele Unternehmen haben diese Forderungen zumindest in Teilen in ihren Digitalstrategien festgeschrieben.

Dabei werden Ansätze wie IoT-Plattformen, Remote Services und digitale Zwillinge von Produkten sowie Produktionsumgebungen und Prozessen als wichtige Entwicklungsziele aufgegriffen. So viel zur Theorie. Doch wie sieht Operationalisierung aus? Reicht es aus, genügend Datenspezialisten einzustellen, um diese Ziele zu erreichen? Oder muss die Organisation als Ganzes umfassende Kompetenzen im Umgang und der Verarbeitung von großen Datenmengen mittels ganzheitlicher Lernarchitekturen aufbauen?

Um Daten zu nutzen, braucht man Daten. Das scheint trivial, ist aber in der unternehmerischen Praxis oft nicht so einfach. Der Grund: In vielen Unternehmen wurden schlichtweg die Hausaufgaben nicht erledigt, die notwendig sind, um relevante Daten zu sammeln und systematisch nutzbar zu machen.

Häufig hapert es an der Durchgängigkeit der IT-Struktur, weshalb auch heute noch in fast allen Kernprozessen der Unternehmen zum Beispiel Medienbrüche zu finden sind. Mitarbeiter müssen als Nutzer den starren Bedürfnissen gewachsener IT-Strukturen folgen, wodurch Daten an vielen Ecken und Enden erst gar nicht gesammelt, geschweige denn in systematischer Weise genutzt werden können.

Daten als zentraler Rohstoff im Unternehmen

Bis dato konnte die IT die viel zu große Schnittstellenvielfalt sowie die geringe Integration der unterschiedlichen, historisch gewachsenen IT-Systeme nur unzureichend lösen. Im Kern folgt die Unternehmens-IT auch heute noch der Logik einer schlecht verknüpften IT-Pyramide, die überaus reaktiv, proprietär und wenig flexibel ausgestaltet ist.

In weiten Teilen der Industrie fehlt es ebenso an einer bereichsübergreifenden Stammdatenstruktur, die zur Beschreibung von Maschinen, Werkzeugen und Produkten notwendig ist und die ebenso als Voraussetzung einer Service-orientierten Architektur (SOA) gilt.Ebenso setzt der überall gehypte digitale Zwilling ein hohes Niveau bei der Stammdatenverfügbarkeit voraus, um die ersten Schritte in diese Richtung gehen zu können.

Insgesamt mangelt es in vielen Betrieben bislang am Mut zur Erarbeitung einer konsistenten Datenstrategie. Ihr Ziel müsste sein, die Ausgestaltung von Prozessen und Infrastrukturfragen für das Datenmanagement so festzulegen, dass Daten tatsächlich als zentraler Rohstoff unternehmensweit und systematisch genutzt werden können. Stattdessen ist die Datenqualität in weiten Teilen schlecht, wodurch viele Prozessverbesserungspotenziale oder Geschäftsmodellideen von Grund auf ausbremst werden.

Unternehmen versuchen, diese Defizite immer öfter durch Einstellung von Data-Science-Experten zu lösen. Trotz einzelner Leuchtturmprojekte bleibt jedoch ein Großteil der beschriebenen Probleme häufig ungelöst. Dies mag an dem Missverständnis des Managements liegen, durch Einstellung einzelner Spezialisten, strukturelle und prozessuale Probleme nachhaltig lösen zu können.

Der Kampf des Data Scientist gegen Excel Files

Eigentlich ist der Data Scientist kein neues Rollenbild. Schon seit Jahrzehnten arbeiten Analysten, Laboranten und Forscher mit großen Datensätzen, um neue Erkenntnisse für ungelöste Fragestellungen zu gewinnen. Der Hype um die digitale Transformation hat allerdings gezeigt, wie viel mehr Potenzial hinter Daten stecken kann und wie wenig der "Otto Normalverbraucher" davon versteht. Und so steht er nun da auf weiter Flur in den Unternehmen, der moderne Don Quijote der digitalen Transformation, der frisch eingestellte Data Scientist, der dafür sorgen soll, dass Daten aller Unternehmensbereiche in wertvolle Erkenntnisse umgewandelt werden.

Der Data Scientist kann im Kern nur dafür sorgen, dass aus den Unmengen an unstrukturierten Daten etwas Relevantes gezogen wird. Er sucht nach dem unbekannten, aber relevanten Zusammenhang. Komplexe mathematische Modelle, Datenbankprogrammierung und Geschäftsverständnis sind dabei sein Handwerkszeug.

Das Beheben von strukturellen oder infrastrukturellen Defiziten, um erst einmal an Daten heranzukommen, sollte hingegen nicht seine originäre Aufgabe sein. Hierzu braucht es die Unterstützung und Mitarbeit aller Fachbereiche und einer IT, die dafür die Voraussetzungen schafft. Data Science kann in deutschen Unternehmen nicht ihre Potenziale nicht ausschöpfen, solange sinnvolle Datenstrukturen nicht verfügbar sind und das Paralleluniversum der Excel Files nicht beerdigt wurde.

Fehlende Datenkompetenz in den Fachabteilungen

Wenn es darum geht, relevante Daten aufzuspüren und nutzbar zu machen, wird in den Fachbereichen heute auf jene neuen Experten verwiesen, deren Aufgabe es doch wäre, "das mit den Daten zu klären" - sozusagen der "Zauberer von Oz der digitalen Transformation". Das gilt vor allem, wenn Unternehmen komplett neue Abteilungen für Data Science aufbauen.

Die gut gemeinte Idee, umfassende Ressourcen in Data Science zu investieren, führt jedoch vermehrt zu einer Isolation dieser Disziplin, anstatt der benötigten Wahrnehmung als Querschnittsfunktion. Der restlichen Organisation wird der Eindruck vermittelt, dass Data Science ausschließlich durch bestimmte Experten in bestimmten Unternehmensbereichen erfolgt und sich an den bestehenden Prozessen in den Fachabteilungen nichts ändern muss.

Das bedeutet letztlich, dass der Data Scientist einen Kampf an mehreren Fronten zu führen hat. Einerseits muss er bei den Fachabteilungen dafür sorgen, dass er Zugriff zu relevanten Daten erhält oder die Grundvoraussetzungen dafür geschaffen werden.

Andererseits muss er auf einer aufklärerischen und fast schon missionarischen Ebene zunächst ein Grundverständnis für Daten, deren Potenziale und deren Anwendung mit Programmiersprachen wie Python in den einzelnen Fachbereichen aufbauen. Das ist notwendig, da Data Scientists in den Fachabteilungen häufig auf eine Mischung aus Nichtwissen und Ablehnung stoßen - ein Umstand, der weniger an den Mitarbeitern selbst liegt, als vielmehr an fehlenden Qualifizierungsmöglichkeiten. Dadurch ist die umfassende Nutzung von Daten mit Vorurteilen behaftet.

Insbesondere in deutschen Unternehmen stehen Daten häufig als Synonym für Überwachung und fehlende Privatsphäre. Software und Daten zählen beispielsweise in industriell geprägten Unternehmen meist nicht zur Kernkompetenz.

Daher müssen Verantwortliche sich die Frage stellen, woher die datengetriebenen Geschäftsmodelle und Effizienzverbesserungen kommen sollen, wenn Daten für weite Teile der Organisation nur einen abstrakten Fremdkörper darstellen. An diesem Defizit werden auch einzelne Experten nichts ändern können, da deren Datenkompetenz nur sehr punktuell Probleme lösen kann. Meinen es Unternehmen wirklich ernst mit der Exzellenz in Data Science, so gilt es die Organisation als Ganzes auf diese Herausforderung vorzubereiten.

In diesem Kontext veröffentlichte die OECD Anfang des Jahres bekräftigende Forschungsergebnisse. Trotz jahrelanger Investitionen in digitale Technologien hat sich der Produktivitätsanstieg in wirtschaftlich wichtigen OECD-Ländern verlangsamt.

In der Untersuchung wird deutlich, dass Digitalisierung zwar Wachstum unterstützen kann, allerdings nur wenn zusätzliche Faktoren zutreffen. Wesentliche Erfolgsfaktoren sind der Studie zufolge in der Entwicklung neuer Skills und den entsprechenden Schulungsmöglichkeiten für Mitarbeiter zu sehen. Damit leitet sich beispielsweise die Frage ab, welche Datenkompetenz die jeweiligen Unternehmensbereiche aufbauen müssen.

Zur Startseite