Industrialisierung der IT

Die Datenproduktion optimieren



Constantin Gonzalez arbeitet als Principal Solutions Architect bei Amazon Web Services (AWS) in München. Seit mehr als 20 Jahren beschäftigt er sich mit verschiedenen Technologien wie CPU- und Systemarchitektur, Storage, Betriebssystemen, High Performance Computing, Webtechnologien, Cloud Computing, Microservices-Architekturen, IoT und maschinellem Lernen.
Beim Umgang mit Informationen kann die IT einiges von den Optimierungsinitiativen der produzierenden Industrie lernen.
Unternehmen sollten ihr Datenmanagement wie einen Produktionsprozess organisieren.
Unternehmen sollten ihr Datenmanagement wie einen Produktionsprozess organisieren.
Foto: Pressmaster - shutterstock.com

Bis Ende der 90er Jahre führten Unternehmen, die physische Dinge produzierten oder vertrieben, die Börsenindizes und Umsatzranglisten an. Heute dagegen haben Technologie-Unternehmen und Plattformbetreiber die Nase vorn. Auch beim Handel von Gütern ist mittlerweile ein immaterieller Faktor – die intelligente Nutzung von Daten – entscheidend.

Umso wichtiger ist es, dass Unternehmen den Umgang mit Daten so gestalten, dass daraus ein Wettbewerbsvorteil entsteht. Analogien zur Produktion von Gütern sind dabei durchaus hilfreich. Schließlich muss das Ziel eine Massenverarbeitung von Daten sein, die schlank, lückenlos und effektiv ist und dabei hohen Qualitätsanforderungen entspricht. All das sind Anforderungen, die Unternehmen im Zuge der Industrialisierung nach und nach für die Herstellung physischer Güter entwickelten.

Die dabei gewonnenen Erkenntnisse flossen im Laufe der Jahrzehnte in Management- und Produktionstheorien wie Lean Production, Kanban, Kaizen und Total Quality Management ein. Vorreiter bei der Umsetzung dieser Ansätze war lange Zeit Toyota, ein Unternehmen, das seinen gesamten Produktionsprozess konsequent nach diesen Prinzipien ausrichtete und damit innerhalb der produzierenden Industrie zum Vorbild wurde.

Datenfabrik aufbauen und optimieren

Die IT-Branche kann eine Menge von der Fertigungsoptimierung in der Industrie lernen. Um die Vorteile zu nutzen, müssen jedoch einige Voraussetzungen geschaffen werden. So ist es wichtig, datenbasierte Prozesse zu entwickeln und sie auf verschiedenen Ebenen zu optimieren. IT wird dabei zu einer Art Datenfabrik: eine Produktionsstätte für Daten, analog einer Fabrik, mit vielerlei Prozessen, die laufend optimiert werden.

Eine hohe Geschwindigkeit ist dabei von Vorteil. Um sie jedoch zu erreichen, müssen Unternehmen die Trennung zwischen Entwicklung und operativem Geschäft überwinden. IT-Projekte sind keine Autos, die einmal gebaut werden, dem Verschleiß ausgeliefert sind und bis zur Verschrottung nur noch gewartet werden müssen. Vielmehr reden wir heute über digitale Services, die analog einer Fabrik aus Daten Mehrwerte produzieren, fortlaufend optimiert und dadurch mit der Zeit immer besser werden.

Dafür ist es wichtig, experimentelle Ansätze schnell über verschiedene Architekturen iterieren zu können, Services zu kombinieren und unterschiedliche Ansätze miteinander zu vergleichen. Vor allem aber ist es hilfreich, die in der industriellen Fertigung geltenden Grundsätze des Qualitätsmanagements auf die Erstellung von Software und digitalen Services zu übertragen. Eines der größten Probleme ist dabei die rasante Geschwindigkeit von technologischen Veränderungen.

Meist fehlt in den Unternehmen das dafür nötige Know-how. Dadurch müssen Fachabteilungen mit längst überholten Methoden die aktuellen Anforderungen erfüllen. Ein Beispiel dafür sind typische E-Commerce-Prozesse: Kunden geben Feedback zu einzelnen Produkten oder Services, wobei der Einsatz von Big DataBig Data umfangreiche Echtzeitanalysen ermöglichen würde. Die Prozesse und Organisation der IT sind darauf jedoch nicht vorbereitet, so dass das theoretische Potenzial nicht ausgeschöpft wird. Alles zu Big Data auf CIO.de

DevOps statt Schatten-IT

Einige Unternehmen reagieren darauf durch einen Aufbau einer "Schatten-IT". Statt die eigene IT-Abteilung zu nutzen, werden möglichst viele Aktivitäten in die Cloud ausgelagert. Ein solcher Ansatz erscheint auf den ersten Blick vielversprechend. Schließlich bietet die Cloud viele leistungsfähige Bausteine und leicht zu nutzende APIs, die On-Premises nur sehr aufwändig umsetzbar wären.

Ein solches Vorgehen – an der IT vorbei – löst zwar möglicherweise einzelne technische Probleme, schadet aber dem Unternehmen als Gesamtsystem. Die Lösung besteht darin, dass Development und Operations möglichst in vielen Projekten simultan zusammenarbeiten, nicht sequenziell hintereinander. Genau diese Kooperation beschrieb der IT-Guru Gene Kim einst mit dem Stichwort "DevOps". Gemäß dieser Philosophie sollte die komplette Organisation vom Kundennutzen her gedacht werden, wobei der Fluss von Projekten reibungslos abläuft und ständig optimiert wird.

Mögliche Hürden identifiziert das Team bereits in einer frühen Phase und kann sie anschließend sofort beseitigen. Als ersten Schritt empfiehlt Gene Kim, die einzelnen Teams grundsätzlich interdisziplinär und funktionsübergreifend aufzustellen. Damit sie möglichst agil bleiben, sollen Arbeitsgruppen dabei nicht zu groß werden. Die Eigenverantwortung der einzelnen Mitglieder erhöht sich und die Gruppe schafft es schneller, Software zu bauen und Services bereitzustellen.

Product Owner statt Projekt-Manager

Schlanke Strukturen sind auch bei Rückmeldungen von Kunden gefragt. Sie sollten möglichst früh in den Daten-"Produktionsprozess" einfließen und auch in Folgeprojekten berücksichtigt werden. Um endlose Feedback-Schleifen zu verhindern, sollte dieser Prozess allerdings möglichst schlank gestaltet sein und über Mechanismen verfügen, die Feedback in konkrete Verbesserungen überführen können. Dazu gehört auch, dass der Entwicklungsprozess nicht durch das Einholen von Feedbacks sämtlicher Stakeholder bei jedem Schritt verlangsamt wird.

Besser ist es, eine Produkt-Philosophie einzuführen: Produktmanager übernehmen Verantwortung über IT-Services als wären sie ein Software-Produkt und betrachten dabei Stakeholder als Kunden. Besser noch sind sogenannte "Product-Owner", die Verantwortung für ihre Produkte über einen langen Lebenszyklus übernehmen, Feedbacks von Kunden und Stakeholdern priorisieren und daraus eine Roadmap gestalten. Projekte sind zeitlich begrenzt und hören danach auf, sich zu verbessern. Digitale Services dagegen "leben" zeitlich unbegrenzt und werden mit der Zeit immer besser.

Ein weiterer wichtiger Erfolgsfaktor ist eine Unternehmenskultur, die Mitarbeiter zu Experimenten ermutigt. Dazu gehört auch, die Ergebnisse von Trial-and-Error-Prozessen so zu dokumentieren, dass das komplette Team von den Erfahrungen profitieren kann. Kein Wunder, dass heutzutage Werkzeuge für Monitoring, Logging, Issue-Tracking, Wikis und Kollaborations-Tools eine Renaissance erleben. Für Unternehmen bietet die Cloud viele neue Möglichkeiten: Experimente können schnell und kostengünstig gemacht werden. Cloud-Architekturen sind flexibel und können schnell an neue Bedürfnisse angepasst werden.

Der Aufbau von Infrastruktur über den gesamten Lebenszyklus kann ebenfalls schnell und automatisiert erfolgen. Es ist allerdings nicht unbedingt leicht, im eigenen Unternehmen die digitale Revolution auszurufen und diese mit allen Implikationen für Kultur, Organisation und Prozesse umzusetzen. Unternehmen, die ihr Datenmanagement wie einen Produktionsprozess optimieren, können jedoch viele Vorgänge mit Hilfe der Cloud beschleunigen und vereinfachen, so dass mehr Zeit für digitale Transformation und für den Fokus auf das Kerngeschäft bleibt.

Zur Startseite