Crisp IT-Trends 2018

Die 3 Strategie-Schwerpunkte für CIOs 2018

01.12.2017 von Carlo Velten
Zu den wichtigsten Themen gehören "IoT und Machine Learning" sowie "Public Cloud und Digital Platform Design" und "Enterprise Agility und New Sourcing Order".
  • Stackology, die Kunst der richtigen Orchestrierung, wird zur Königsklasse im Digitalgeschäft.
  • Edge-zentrierte Netzwerk-Topologien, event-basierte Microservices-Architekturen und hybride Cloud- und IT-Betriebskonzepte, IoT-zentrierten Standards und Open Source-Frameworks bestimmen die Agenda der IT.
  • IoT Platform Design wird der große Aufsteiger werden.
  • Quanten Computing und Neuromorphic Computing werden die kommenden Jahre stark prägen.
Die wichtigsten IT-Trends 2018 aus der Sicht von Crisp.
Foto: 18percentgrey - shutterstock.com

Um die Digitalisierung ihrer Unternehmen in enger Abstimmung mit dem Chief Digital Officer und den Produktverantwortlichen Executives, voranzutreiben, werden sich die CIOs in 2018 - neben dem operativen Basisbetrieb der IT und Workplaces - vornehmlich um drei strategische Schwerpunktthemen kümmern:

  1. IoT und Machine Learning

  2. Public Cloud und Digital Platform Design

  3. Enterprise Agility und New Sourcing Order

1. IoT und Machine Learning

Ob Zahnbürste, Kettensäge, Küchengerät, Lichtsteuerung oder Premium-Automobil. Die Produkte der Zukunft sind "Software-Defined", sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den software-basierten Funktionalitäten, der Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung bzw. einem "Software-Defined Product".

Hardware und Materialeigenschaften treten zunehmend in den Hintergrund. Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Product Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen.

Bis 2020 plant die Mehrheit der Unternehmen in Deutschland (60 Prozent) bereits jeden fünften Euro mit digitalen Produkten und Services zu erwirtschaften. In einer Welt der software-definierten, und vernetzten IoT-Produkte werden somit die Geschäfts- und Preismodelle "programmierbar". Zudem bieten sich den Unternehmen vielfältige Möglichkeiten der Monetarisierung der anfallenden Daten sowie der Personalisierung der User Experience.

Processing und Analyse brauchen neue Ansätze und Technologien

Das Processing und die Analyse von Datenströmen im IoT-Kontext erfordert dabei vollkommen neue Ansätze und Technologien. So wandert ein Teil der Datenverarbeitung und Analyse an die "Edge", sprich den äußeren Teil des Netzwerkes. So müssen sich CIOs in den kommenden Jahren intensive Gedanken über Edge-zentrierte Netzwerk-Topologien, event-basierte Microservices-Architekturen und hybride Cloud- und IT-Betriebskonzepte machen. Hinzu kommt die Beschäftigung mit einer Vielfalt an IoT-zentrierten Standards und Open Source-Frameworks.

Bei der Analyse der IoT-Daten in (nahezu-) Echtzeit, spielen Machine Learning-Verfahren und neuronale Netzwerke eine besonders wichtige Rolle. Dies gilt ebenso in anderen digitalen Use Cases wie der Mustererkennung von Bildern, Personen oder Gegenständen zum Beispiel im Qualitätsmanagement, in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor, Stichwort autonomes Fahren.

Vor diesem Hintergrund verblüfft es nicht, dass immerhin schon jedes fünfte Unternehmen in Deutschland Machine Learning einsetzt, wenn auch nur in ausgewählten Bereichen. Bis 2020 wird die Mehrheit der deutschen Mittelstands- und Großunternehmen von der Evaluierungs- und Planungsphase in den produktiven Einsatz übergehen und Machine Learning somit zum IT-Mainstream werden.

Die wichtigsten IT-Trends 2018 von Crisp

1. Applied AI (Artificial Intelligence): Machine Learning kommt produktiv zum Einsatz und ist maßgeblich für digitale Wertschöpfung und digitale Differenzierung.

2. Public Cloud Acceleration: IoT und Enterprise-IT treiben Einsatz von Public Cloud massiv an.

3. Next Generation IoT & Software Defined Products: IoT-Produkte und Lösungen erreichen technologische Reife und einen breiten Produktiveinsatz.

4. Stackology & Digital Platform Design: Orchestrierung und Design ganzheitlicher, API-getriebener IoT- und Digital-Plattformen im Fokus der Unternehmensstrategien.

5. Edge Computing & the New Topology: Aufkommen hybrider IoT-Netzwerk-Topologien und Verlagerung von Rechenleistung und Intelligenz an die “Edge” des Netzwerks.

6. Automation drives Agility: Vielzahl neuer Ansätze und Technologien wie Machine Learning, DevOps, APIs, Chatops lassen Infrastructure-as-Code sukzessive Realität werden.

7. Mixed Reality: Virtual & Holographic Computing bietet im Unternehmenseinsatz neue und sinnvolle Use Cases.

8. Bots & Digitale Assistenten: Chatbots und Spracheingabe verändern die Spielregeln im Kundendialog und Service und erschließen ein vollkommen neues Automatisierungspotenzial.

9. Blockchain: Smart Contracts als elementarer Baustein für dezentrale digitale Geschäftsmodelle.

10. Distributed Security & EU-DSGVO: Im Cloud- und IoT-Zeitalter müssen Sicherheits- und Trust-Mechanismen verteilt und in Echtzeit funktionieren. Europäische Datenschutzgrundverordnung als elementarer Impuls für den Review bestehender Sicherheitskonzepte und Datenstrategien.

Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme (Deep Learning) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können.

Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten sowie für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0. Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen "barrierefreien" Einstieg in das Thema und einen exponentiellen Innovationspfad.

Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige "Cognitive Systems" Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen.

Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine "Cognitive Company", in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.

2. Public Cloud und Digital Platform Design

Die globalen Cloud Plattformen von AWS, Azure, Google, IBM, Alibaba und Co. sind bis 2030 das Gravitationszentrum und Operating System für nahezu alle neuen digitalen Workloads und Plattformen - auch wenn im IoT-Zeitalter viel Rechenleistung und Intelligenz "on Edge" erbracht wird.

Nachdem in der ersten Dekade des Cloud-Computing von 2006-2016 vor allem Startups und Internetunternehmen die Public Cloud-Plattformen genutzt haben, steht die nächste Dekade ganz im Zeichen der Transition der Enterprise-IT. Zudem avanciert die Public Cloud zum zentralen Bau- und Steuerelement für komplexe IoT-Netzwerke und Architekturen.

Gerade in Deutschland haben die Mittelständler und großen Industrieunternehmen immer noch Aufholbedarf in Sachen Public Cloud. Crisp Research sieht klare Anzeichen, dass diese Lücke sich mit großer Dynamik schließt. So plant die Mehrheit der Hidden Champions und deutschen Top-Unternehmen die nächste Generation ihrer Digital- und IoT-Plattformen auf Basis der globalen Public Clouds zu entwickeln und zu betreiben. Sprich, die Public Cloud wird zur Infrastrukturbasis des Digitalgeschäfts der deutschen Wirtschaft. Der Shift von Private Clouds in Richtung hybrider und -Multi-Cloud-Umgebungen ist in vollem Gange und wird die CIOs bis 2020 noch gut auf Trab halten.

So steigen die globalen Ausgaben für IaaS und PaaS von 34,7 Milliarden US-Dollar 2017 auf 83,2 Milliarden US-Dollar im Jahre 2020 und werden kurz darauf die 100 Milliarden-Schallgrenze knacken. Hinzu kommt die Verlagerung von reinen Infrastruktur- hin zu höherwertigen Plattform-Diensten sowie der Einsatz von Serverless Computing- und IoT-Services durch immer mehr Kunden. Diese erkaufen sich mit den neuen Platform-Services eine höhere Agilität und mehr Automation ihres Cloud-Betriebs.

Machine Learning erfordert immense Rechenkapazität

Der produktive Einsatz von Machine Learning-Verfahren erfordert zudem immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung bzw. Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren (zum Beispiel TPU - Tensor Processing Unite von Google).

Dabei stehen die Unternehmen in den kommenden Jahren vor erheblichen Herausforderungen im Hinblick auf die Konzeption und den Betrieb ihrer digitalen Plattformen. Nur wenn die Architektur der digitalen und IoT-Plattformen strategisch klug gewählt und die passenden Cloud-Services, Technologien und Open Source-Frameworks ausgewählt und orchestriert sind, lassen sich die Plattformen später erfolgreich skalieren und erfolgreich vermarkten.

Hier gilt es "Vendor Lockin" und hohe Innovationsgeschwindigkeit richtig auszutarieren. Hierzu bedarf es einer großen Expertise und Erfahrung im Aufbau solcher komplexen Cloud- und IoT-Umgebungen. Die "Stackology", also die Kunst der richtigen Orchestrierung, wird zur Königsklasse im Digitalgeschäft. Dies gilt vor allem, wenn nicht nur Cloud-Dienste, sondern hybride IoT-Szenarien entworfen werden, bei denen Software-Intelligenz und Analytics-Power auch auf den Endgeräten und Gateways deployed werden müssen und sich eine neue Rollenverteilung von Cloud und Edge ergibt.

3. Enterprise Agility und New Sourcing Order

"Die IT ist zu langsam" schallt es noch immer aus vielen Board-Rooms und die Mehrheit der CIOs sieht sich mit dem Vorwurf konfrontiert, dass sich die hauseigene IT-Infrastruktur und Arbeitsplatzumgebung zu langsam an die digitalen Rahmenbedingungen anpasst. Daher werden die CIOs bis 2020 weiter intensiv damit beschäftigt sein, die Agilität der Unternehmensorganisation sowie der eigenen Corporate IT zu erhöhen.

Hierzu zählt die Weiterentwicklung und konsequente Umsetzung der Digital Workplace-Strategien, über den reinen iPhone/iPad-Einsatz hinaus. Ebenso müssen agile Methoden, gerade in der Entwicklung und dem Betrieb der neuen digitalen Workloads und Cloud-Plattformen, eingeführt werden. Hier treffen ITIL-Kultur und DevOps derzeit noch in einem schmerzhaften Clash aufeinander.

Die Org-Charts der IT müssen endlich "cloud-ready" und mit Leben gefüllt werden. Zudem muss die Automation des gesamten IT-Infrastrukturbetriebs deutlich erhöht werden. Derzeit gehen deutschen Unternehmen pro Jahr rund 600 Millionen Euro aufgrund mangelnder Automatisierung verloren.

APIs für digitale Plattformen und Ökosysteme

Beim Aufbau erfolgreicher digitaler Plattformen und Ökosysteme spielen APIs eine elementare Rolle, da diese die Spielregeln der Plattform definieren und die Datenströme lenken. Hier braucht es klare API-Strategien und Verantwortlichkeiten sowie einer Developer- bzw. Hacker-Mindset, der die Kultur und Arbeitsweisen von Entwicklern versteht. Nur wenn Plattformen offen gestaltet und die API entwicklerfreundlich ausgearbeitet und dokumentiert sind, werden diese Apps und Lösungen für die eigene digitale Plattform entwickeln - oder eben nicht.

Zudem wird sich bis 2020 eine Neubewertung der IT-Sourcing-Strategien und ein maßgeblicher Budget-Shift vollziehen. Während klassisches IT-Outsourcing deutlich abnimmt, wächst der Bedarf an modernen Spielformen der "Managed Public Cloud Services", also professionellen Dienstleistungen rund um den Betrieb von Workloads auf der Public Cloud. Outsourcing verliert auch aufgrund von Software-as-a-Service immer weiter an Gewicht.

Während auf Infrastruktur- und Plattform-Ebene immer mehr Ressourcen aus dem eigene Rechenzentrumin Richtung Public Cloud verlagert werden, kommt der Entwicklung eigene IoT- und Digital-Plattformen ein strategischer Stellenwert zu. Hier wird Insourcing und der Aufbau von Entwickler-Ressourcen zu einemTrend der kommenden Jahre.

Der Aufbau schlagkräftiger Development-Teams, gerade im Kontext IoT und Machine Learning, wird zum strategischen Wettbewerbsvorteil - nicht nur für die IT, sondern für das ganze Unternehmen.

Der "War for Talents" hat also gerade erst begonnen und viele CIOs haben noch nicht wirklich realisiert, was es bedeutet, mit Google, Facebook und Zalando um die besten Köpfe im Wettbewerb zu stehen.

Der Absteiger: Mixed & Virtual Reality

Der Absteiger des Jahres 2018 wird wohl das Thema Mixed & Virtual Reality sein. Zumindest fehlt es hier, bis auf wenige Use Cases im Unternehmensumfeld, noch an einer ernsthaften Verbreitung der Technologien und Devices in den relevanten Anwender- und Consumer-Segmenten. Man darf aber erwarten, dass das Thema nach einem kleinen Dornröschen- und Reife-Schlaf, in den kommenden Themen wieder auf der Agenda erscheint und das Interesse bei besseren Preis-/Performance-Relationen auf Hardware-Seite und mehr relevanten Anwendungen wieder Fahrt aufnimmt.

Der Aufsteiger: IoT Platform Design

Der Aufsteiger in 2018 ist das klar das Thema "IoT Platform Design". Unternehmen der deutschen Leitbranchen im Industrie-, Maschinenbau oder Automobilsektor legen gerade den Hebel um und gehen im Kontext von IoT vom Prototypen- in den Produktiv-Modus über. Während in den letzten Jahren erste IoT-Anwendungen konzipiert und eine Vielzahl von Prototypen entwickelt und getestet wurde, bauen die Unternehmen nun ganzheitliche IoT-Plattformen, auf denen zukünftig eine Vielzahl von IoT-Lösungen laufen und das Neugeschäft der Unternehmen generiert werden soll.

Hierzu sind spezielle IoT-Architektur- sowie Cloud-Operations-Skills gefragt, um die komplexen IoT-Plattformen zu designen und später zu betreiben. Hinzu kommt die Technologieauswahl für die Vernetzung der Endgeräte und Edge-Netzwerke sowie die Realisierung komplexer IoT-Analytics- und Machine Learning-Verfahren. Für viele Industrieunternehmen bedeuten diese Projekte nicht nur einen strategischen Meilenstein, sondern auch die Königsklasse der Digitalisierung.

Der große kommende Aufsteiger: Quanten Computing

Der Geheimtipp der kommenden Jahre bzw. einer der strategisch bedeutendsten Technologietrends ist sicherlich die Grundlagen- sowie angewandte Forschung im Kontext neuer Hardware- und Prozessor-Designs. So sind im Bereich des Quanten Computings der Fantasie nahezu keine Grenzen gesetzt. Bieten doch die auf quantenmechanischen Effekten basierenden Rechner, vollkommen neue Fähigkeiten in der Kryptographie, der Suche in unstrukturierten Daten sowie bei komplexen Simulationen. Hier liefern sich Google, IBM, Microsoft sowie die Geheimdienste ein Wettrennen, dessen Ausgang derzeit noch offen ist.

Die elementaren Herausforderungen beim Design und der Skalierung der Quantenrechner wird dazu führen, dass die breite Einführung am Markt sicherlich noch bis Mitte der 2020er Jahre auf sich warten lässt. Allerdings können diese Rechner in speziellen Anwendungsfällen derartige Wettbewerbsvorteile generieren, dass sich für globale Konzerne eine frühzeitige Investition durchaus rechnen kann.

Neuromorphic Computing

Crisp Research sieht in der Entwicklung des Neuromorphic Computing ein deutlich größeres Innovationspotenzial - was auch in der Breite der Unternehmens- und Anwenderlandschaft hohe Relevanz hat. Die Entwicklung von analogen Prozessoren, welche die neuronalen Strukturen des Gehirns auf Chip-Ebene nachbauen, ist deshalb so attraktiv, weil diese gerade bei den Verfahren der Mustererkennung und des Lernens - sprich Machine Learning und künstliche Intelligenz - enorme Performance-Vorteile bieten. Denn neuromorphe Chips müssen das Gehirn und Lernvorgänge nicht simulieren, sondern können diese direkt nachbilden.

Hinzu kommt, dass diese neue Prozessor-Generation - ähnlich wie das menschliche Gehirn - mit einem Bruchteil der Energie zur Berechnung auskommt. Insofern bieten die Neuro-Chips für eine Vielzahl an neuen Anwendungen im Kontext von Machine Learning und AI optimale Eigenschaften. Zudem schreitet die angewandte sowie Grundlagenforschung hier rasant voran. Ein definitiv spannendes Betätigungsfeld für alle echten Innovatoren im Cloud- und IT-Infrastrukturbereich.