CIO-Agenda von PAC

Die wichtigsten IT-Trends 2019

14.01.2019 von Christophe Châlons und Joachim Hackmann
Open-Source-Lösungen erfahren in vielen Bereichen eine unglaubliche Renaissance, Low Code Plattformen helfen gegen den Fachkräftemangel und Unternehmen werden massiv in die Cloud gehen.
  • Unternehmen müssen eine Business Innovation Architecture bauen, welche die Integration und Interaktion von Daten, Technologien, Prozessen, Services und Ökosystemen ermöglicht.
  • Künstliche Intelligenz (KI) steht kurz vor dem Sprung hin zu einem breiten Einsatz.
  • Unternehmen sollten sich zügig eine unternehmensweite, einheitliche IoT , ICS- (Industrial Control Systems) und Cyber-Security-Strategie zulegen, die ein neues, ganzheitliches Abwehr- und Schutz-Paradigma implementiert.
  • Open-Source wird sich weiter massiv ausbreiten. Im Cloud-Geschäft haben sich zum Beispiel Cloud Foundry, OpenStack und Kubernetes als Industrie-Standards etabliert.
Zehn Trends für 2019.
Foto: adike - shutterstock.com

Es mag eine jährliche Veränderung bei punktuellen Trends geben, doch die große Bewegung in Richtung Digitalisierung ist vielmehr eine konstante Entwicklung, die vor einigen Jahren begann und noch viele weitere anhalten wird. Diese nachhaltige Veränderung hat aus PAC-Sicht drei wesentliche Ziele: Und zwar sollen mit dem Einsatz innovativer, digitaler Technologien

Am Ausgangspunkt der Reise bieten sich zwei Optionen: Entweder man blickt mit den Augen des Kunden auf die genannten Ziele - dann stehen digitale Technologien rund um das Thema Customer Experience (CX) im Zentrum der Überlegungen. Oder aber man beginnt innerhalb des Unternehmens mit der digitalen Erneuerung von Prozessen - wichtig sind dann vor allem Innovationen in den Bereichen IoT (Internet of Things) und Automatisierung.

CX und IoT/Automatisierung lassen sich natürlich nicht getrennt voneinander betrachten, ohne das gesamte Vorhaben ad absurdum zu führen. Schließlich möchte man keine isolierten Lösungen. Digitalisierung bedeutet vor allem Integration und Interaktion, weshalb die Mittel, derer sich die Unternehmen bedienen, oft ähnlich sind. Dazu zählt PAC vor allem Enabling-Technologien wie Cloud Computing, Analytics und Big Data, künstliche Intelligenz und Automatisierung, Security und GRC (Governance, Risk & Compliance) sowie Architekturen und Plattformen.

Neuen Ökosystemen kommen eine große Bedeutung zu

Löst man sich nun vom technologischen Blickwinkel auf die Digitalisierung, zeigt sich schnell die hohe Bedeutung der neuen Ökosysteme. Denn die Leistungsfähigkeit eines Partnernetzwerks geht weit über das hinaus, was ein einzelnes Unternehmen erreichen kann. Im Sinne der Kunden lassen sich so schnelle und integrierte Lösungen für spezifische Probleme in bestimmten Anwendungsfällen entwickeln und betreiben. Geht es um Prozessoptimierung in Partnernetzen, wird der Wert von Ökosystemen heute oft in Blockchain-Projekten sichtbar, wo Integration und Interaktion zu schnelleren Abläufen führen, beispielsweise in der Supply Chain.

Um solche Ökosysteme aufbauen und betreiben zu können, sind wiederum digitale Technologien erforderlich. Da es vor allem um die Integration und Interaktion von Diensten und Prozessen unterschiedlicher Partner und Parteien geht, haben Technologien wie Cloud, Daten-Plattformen, offene Architekturen, APIs, Container und Microservices in der Umsetzung einen besonders hohen Stellenwert.

Fachkräftemangel bedarf neuer Lösungen

Und noch ein Thema jenseits technologischer Neuerungen wird die Unternehmen auch 2019 - wie in den vergangenen Jahren - begleiten: der Fachkräftemangel. Nach PAC-Einschätzung wird sich diese Situation sogar noch zuspitzen, da sich klassische Unternehmen aller Branchen vermehrt zu digitalen Unternehmen wandeln und für die Transformation verstärkt IT-Experten (Entwickler, Projektleiter, IT-Architekten etc.) suchen.

Verschärft wird die Situation dadurch, dass wir im Rahmen der Digitalisierung einen steigenden Bedarf an individueller Softwareentwicklung erwarten. Die Herausforderung für Service-Provider wird somit darin bestehen, moderne Sourcing-Konzepte zu entwerfen, die Onsite-, Nearshore- und Offshore-Kapazitäten in agile Entwicklungsprojekte und DevOps-Prozesse integrieren.

Enorm hoher Wert der Daten

Last but not least wird uns auch das Thema Daten im kommenden Jahr weiter begleiten. Der enorm hohe Wert von Daten, auf deren Erfassung, Verarbeitung und Analyse alle neuen und erweiterten Dienstleistungen und Geschäftsmodelle beruhen, dürfte hinlänglich bekannt sein. Um das in den Rohdaten verborgene Potenzial allerdings heben zu können, müssen Informationen zunächst geordnet, konsolidiert und bereinigt werden. Themen wie Data Management, Data Cleansing und Data Enrichment werden daher in den kommenden Jahren eine zunehmende Bedeutung erfahren.

Die 10 Trends für 2019

Im Folgenden stellen wir die zehn Trends vor, die unserer Ansicht nach neben den oben beschriebenen Wachstumstreibern im kommenden Jahr besondere Bedeutung erfahren werden:

  1. Business Innovation Architecture

  2. Virtuelle Datenplattformen

  3. Multi-Clouds und Migration in die Public Cloud

  4. künstliche Intelligenz

  5. Robotic Process Automation

  6. IoT Security & ICS Security (Industrial Control Systems)

  7. Plattform-basierende Softwareentwicklung und Low-Code Development

  8. Open, Technology-Based Ecosystems

  9. Edge Computing

  10. Distributed Ledger Technology

1. Business Innovation Architecture

Ein sehr wichtiger Trend des kommenden Jahres ist eigentlich ein Klassiker, tritt aber in neuem Gewand auf: moderne, intelligente IT-Architekturen - ein Konzept, das PAC als Business Innovation Architecture (BIA) bezeichnet. Die Notwendigkeit einer neuen Architektur ergibt sich aus der Anforderung nach schnellen und kontinuierlichen Veränderungen. Der Druck, neue digitale Technologien und Innovationen rasch einzuführen, steigt stetig und überfordert heutige IT-Installationen.

Aus unserer Sicht muss eine Business Innovation Architecture also die Integration und Interaktion von Daten, Technologien, Prozessen, Services und Ökosystemen ermöglichen. Zukunftssichere Architekturen stellen die Daten ins Zentrum und umlagern sie mit den erforderlichen Prozessen (Business Logic) sowie mit Schnittstellen zu allen internen und externen Stakeholdern.

Eine Business Innovation Architecture muss einen ganzheitlichen Ansatz für die digitale Transformation im Unternehmen umfassen. Dies schließt sowohl kundengetriebene Veränderungen am Frontend (CX, Customer Journey etc.) als auch die operationale Digitalisierung in den Backend-Prozessen (IoT, RPA etc.) ein.

Die Architektur sollte die lose Kopplung diverser Technologien vorsehen, etwa für das Data Management, Security, künstliche Intelligenz, Customer Experience, Cloud Integration und die operationale Infrastruktur. Die lose Kopplung ist eine wichtige Eigenschaft, sorgt sie doch für die erforderliche Agilität und Flexibilität, um schnell und pragmatisch auf Änderungen reagieren zu können, und zwar auf allen Ebenen: beim Betriebsmodell (Cloud, On-Premises etc.), in den Prozessen, bei der Gestaltung von Services und Geschäftsmodellen sowie in den Ökosystemen.

2. Virtuelle Datenplattformen

Der Erfolg der digitalen Transformation ist eng verknüpft mit der Verfügbarkeit von Informationen. Das Augenmerk liegt dabei auf dem Sammeln von Daten aus unterschiedlichen Quellen wie operativen Systemen oder dem Internet, durch deren Analyse neue Services und Geschäftsmodelle entwickelt werden können. Immer häufiger fließen zudem Zustands- und Verbrauchsdaten von vernetzten Geräten und Maschinen mit ein.

Dieser Fokus auf neue, externe Datenquellen versperrt bisweilen den Blick darauf, dass in den Unternehmen schon große Mengen an Daten verfügbar sind. Sie liegen allerdings verstreut über diverse Abteilungen und Datenbanken, da sie für spezielle Anwendungen vorgesehen sind, wie etwa für den Verkauf, die Produktion, Produktentwicklung, Supply Chain oder den After Sales. Wenn aber Prozesse effizienter und agiler auf Kundenwünsche ausgerichtet werden sollen, dann müssen Daten aus verschiedenen Silos integriert werden. Erst dann sind übergreifende Analysen sowie Korrelationen unterschiedlicher Daten möglich.

Ein möglicher Lösungsansatz erfolgt nach PAC-Einschätzung über eine virtuelle, geteilte Datenplattform, bestehend aus (In-Memory-)Datenbanken, Data Lakes sowie Datenrepositorien, die wiederum verschiedene Daten in unterschiedlichen Formaten (etwa Echtzeitdaten, historische Daten sowie Informationen aus externen, öffentlich verfügbaren Datenquellen) zusammenführt und Beziehungen zwischen ihnen herstellt.

Diese Datenplattform agiert als zentrale, virtuelle Datendrehscheibe für alle Unternehmensprozesse und wird kontinuierlich mit Daten aus Anwendungen versorgt. Im Falle der digitalen Fabrik können das zum Beispiel PLM-, ERP-, MES- oder CRM-Anwendungen sein. Zudem wird die Plattform auch mit Daten aus dem Ökosystem gespeist, zum Beispiel von Engineering-Partnern, Lieferanten, Auftragsfertigern, Marketingagenturen, Resellern, Servicepartnern oder Kunden, wobei dieses Prinzip selbstverständlich auch auf andere Branchen übertragbar ist.

Die Plattform erlaubt eine flexible Nutzung dieser Daten für Unternehmensprozesse, für Datenanalysen sowie für kognitive Lösungen, Augmented Reality und Virtual Reality sowie Robotik.

Virtuelle Datenplattformen eignen sich damit sowohl zur Optimierung bestehender Prozesse als auch zur Unterstützung neuer Geschäftsprozesse und -modelle, etwa aus dem Bereich IoT. Zugänglich sind die Daten über Schnittstellen, wobei hier APIs sowie Microservices eine immer wichtigere Rolle spielen. Wichtig dabei: Die Nutzung der Daten muss im Rahmen gesetzlicher Auflagen sowie unter den Gesichtspunkten von Datensicherheit und -schutz erfolgen.

3. Multi-Clouds und Migration in die Public Cloud

In den vergangenen Monaten nahmen die Migrationsraten hin zur Public Cloud spürbar zu. Und dabei reden wir nicht mehr nur über Entwicklungs- und Testprojekte, in deren Rahmen die erforderlichen Speicher- und Computing-Ressourcen aus der Cloud je nach Bedarf hoch- und wieder heruntergefahren werden. Zunehmend werden mittlerweile auch produktive Applikationen, etwa SAP-Workloads aus ECC- und R3-Umgebungen, in Public Clouds verschoben.

Immer mehr Unternehmen prüfen die Public Cloud sogar als Alternative zum eigenen Rechenzentrum. Ein prominentes und öffentlich bekanntes Beispiel ist die IT-Tochter der Deutschen Bahn, DB Systel, die ab dem Jahr 2022 rund 80 Prozent ihrer Anwendungen aus dem Cloud Data Center von Amazon Web Services (AWS) beziehen möchte. PAC erwartet auch im kommenden Jahr und darüber hinaus weitere solche Entscheidungen.

Auslöser der SAP-Migration ist in vielen Fällen die S/4HANA-Strategie von SAP, die das Thema Applikationslandschaft in allen betroffenen Unternehmen auf die Agenda gebracht hat. In den dadurch angestoßenen Entscheidungsprozessen kommt fast zwangsläufig auch die Cloud-Option zur Sprache. Um das Potenzial voll auszuschöpfen, das S/4-Umgebungen beim Aufbau und Betrieb neuer, digitaler Services und Geschäftsmodelle bieten, bietet sich eine Migration an.

Auch wenn SAP den Anstoß zu dieser Bewegung gab, wird ein Verlagern des Hostings in die SAP Cloud nicht zwingend die bevorzugte Lösung vieler Firmen sein. Die SAP Cloud ist immer dann eine sehr gute Option, wenn reine SAP-Umgebungen verschoben werden. In der Regel ist die Applikationslandschaft der Unternehmen aber vielfältiger, die bevorzugten Zielplattformen sind dann Amazon Web Services (AWS) und Microsoft Azure. Google Cloud spielt bislang noch die Rolle des Herausforderers, auch wenn bereits erste prominente Namen wie der Handelsriese Metro oder die Deutsche Börse zu seinen Kunden zählen.

Die neuen Cloud-Umgebungen sind in der Regel hybrid, weil sie neben Public Clouds auch meistens Private-Cloud- und Legacy-Ressourcen integrieren. Zudem verfolgen Unternehmen gern auch eine Multi-Cloud-Strategie, die Public-Cloud-Services verschiedener Anbieter umfasst. Hintergrund dieser Vielfalt ist, sich möglichst große Unabhängigkeit zu bewahren und einen sogenannten Vendor Lock-in zu vermeiden. In der Praxis werden dazu beispielsweise verschiedene Workloads auf unterschiedliche Public Clouds verteilt. Oder man bezieht Cloud-Ressourcen für den Betrieb und für die Datensicherung von verschiedenen Cloud Providern.

Das Management solcher hochkomplexer, hybrider Infrastrukturen zählt zu den größten aktuellen Herausforderungen der Unternehmens-IT. Immerhin gibt es bereits Lösungsansätze, die von erweiterten IT Management-Tools über selbst entwickelte Cloud-Management-Plattformen bis hin zu Managed-Service-Angeboten diverser Cloud Provider reichen.

4. Künstliche Intelligenz

Die künstliche Intelligenz (KI), bislang eine Nischentechnologie, steht kurz vor dem Sprung hin zu einem breiten Einsatz in Unternehmen. Damit ergeben sich neue, lohnende Einsatzfelder, etwa in der Optimierung der Betriebsabläufe (Operational Excellence), in der Kundenbetreuung (Contact Center) sowie beim Kundenerlebnis (Customer Experience), indem KI in die entsprechenden Unternehmensanwendungen eingeflochten wird.

KI ist allerdings keine einzelne Technologie, sondern vielmehr ein Toolset aus verschiedenen Technologien, mit deren Hilfe sich die obigen Szenarien implementieren lassen. KI-Anbieter offerieren heute bereits betriebsfertige Module, die Texte inhaltlich erfassen, natürliche Sprache verstehen sowie bewegte Objekte und Gesichter erkennen. Damit ist die Grundlage für neue Mensch-Maschine-Interaktionen gelegt. Erste Firmen implementieren diese Möglichkeiten bereits in Chatbots und automatisierten Prozessen.

PAC definiert vier KI-Bereiche für unterschiedliche Anwendungsfälle im Unternehmen:

5. Robotic Process Automation

Robotic Process Automation (RPA) zielt - wie der Name impliziert - auf die Automatisierung von Backend- und Geschäftsprozessen ab. Dabei werden Software-Agenten implementiert, die wie Menschen arbeiten können - aber schneller und fehlerfrei.

Generell lassen sich dabei zwei Domänen unterscheiden, und zwar die Automatisierung in den Geschäftsprozessen und im IT-Betrieb. Ansprechpartner und Initiatoren in der Geschäftsprozessautomatisierung sind in der Regel die Fachbereiche, aber auch BPO-Anbieter. Hier erweitert RPA das Business Process Management (BPM) um die Automatisierung sich wiederholender, einfacher Aufgaben, wie zum Beispiel die Eingabe oder Validierung von Inhalten, die Bearbeitung von Reklamationen oder Beschaffungsaufträgen.

RPA im IT-Bereich adressiert zum einen die internen IT-Abteilungen, vor allem aber auch die IT-Service-Provider. Auch hier rücken sich wiederholende Routineaufgaben, die heute oft von Mitarbeitern in Near- und Offshore-Regionen bearbeitet werden, in den Fokus des Interesses. Ziel ist es, einen qualitativ hochwertigeren, kosten- und ressourcenschonenden und skalierbaren Service zu bieten.

Einfache RPA-Lösungen basieren auf regelbasierenden Automatisierung-Systemen, also beispielsweise If-Then-Logiken. Zunehmend werden RPA-Plattformen aber auch mit künstlicher Intelligenz (KI) angereichert, wodurch sich agilere, adaptivere und selbstlernende RPA-Systeme implementieren lassen. Die Systeme werden von Menschen angelernt, um mit Ausnahmen und unerwarteten Ereignissen umgehen zu können. Sie erfassen dieses menschliche Wissen und erstellen aus den erlernten Erkenntnissen neue Regeln. KI-basierte RPA-Lösungen sollten auch in der Lage sein, Software-Code in Anwendungen nach fehlerhaften Anomalien zu durchsuchen, Lösungen vorzuschlagen oder sogar selbsttätig Unstimmigkeiten zu beheben. Diese Fähigkeit wird sich insbesondere mit dem Aufkommen von Software-definierter IT-Infrastruktur als sehr nützlich erweisen.

6. IoT Security & ICS Security (Industrial Control Systems)

Mit dem Internet of Things (IoT) ergeben sich völlig neue Risiken. Um neue Dienstleistungen und Geschäftsmodelle zu ermöglichen, schaffen Fertigungsunternehmen neue Zugänge zu den Datenpools von Maschinenparks. Dieser Trend zur Öffnung ist jedoch kein Vorgang, der nur in der Fertigungsbranche zu beobachten wäre. Vergleichbare Entwicklungen sind in nahezu allen Branchen zu beobachten, zum Beispiel bei Autoherstellern (Connected Car, autonomes Fahren), Energie-Unternehmen (Smart Meter, Smart Grid), bei Banken (PSD2), in der öffentlichen Verwaltung (Smart Cities, Open Data) und im Gesundheitswesen (Smart Health).

Die Herausforderung besteht darin, dass die Vernetzung der Produktionssysteme, Maschinen und Geräte schneller voranschreitet als deren Absicherung. Besonders problematisch erweist sich die IoT-Einbindung von Altsystemen ohne integrierte Cyber-Security-Mechanismen. Sie müssten daher überarbeitet, verändert oder nachgerüstet werden, wofür es allerdings häufig an den notwendigen Werkzeugen, Ressourcen, Risiko-Bewusstsein sowie IT- und Domain-übergreifendem Know-how mangelt.

Deshalb sollten sich Unternehmen aller Branchen zügig um eine unternehmensweite, einheitliche IoT-, ICS- (Industrial Control Systems) und Cyber-Security-Strategie bemühen, die ein neues, ganzheitliches Abwehr- und Schutz-Paradigma implementiert. Dieses sieht eine Staffelung verschieden starker Verteidigungslinien vor, so dass Attacken am äußeren Verteidigungsring schnell erkannt und bekämpft werden können. Die inneren, kritischen Bereiche werden in diesem Konzept besonders stark geschützt. Für die Umsetzung werden Cloud-basierende Big-Data- und KI-Technologien verwendet.

Im kommenden Jahr und mit fortschreitender Digitalisierung sollten sich Unternehmen zunehmend um den Schutz ihrer IoT-Installationen und industriellen Kontrollsysteme, aber auch ihrer herkömmlichen IT kümmern, da diese im Zuge der digitalen Transformation zunehmend integriert werden.

7. Plattform-basierende Softwareentwicklung und Low-Code Development

Image und Bedarf der individuellen Softwareentwicklung haben sich in jüngster Vergangenheit komplett gewandelt. War sie vor einigen Jahren noch mit dem Stigma belegt, proprietäre Lösungen mit hohen Folgekosten beim Application Management zu erzeugen, gilt sie heute als Kernelement von digitalen Transformationsprojekten und wird verstärkt nachgefragt. Unternehmen aller Branchen stellen mittlerweile Softwareentwickler, Data Analysts und KI-Experten ein. Sie sollen moderne Kundenschnittstellen entwerfen, mit Hilfe digitaler Technologien Unternehmensprozesse automatisieren oder innovative Services und Geschäftsmodelle umsetzen.

Vorangetrieben werden die Projekte fast ausnahmslos auf Basis agiler Entwicklungsmethoden und PaaS-Dienste, die auf den gängigen Cloud-Plattformen verfügbar sind. Diese Cloud-basierenden Entwicklungsplattformen integrieren meist auch DevOps-Werkzeuge, mit deren Hilfe die agilen Projektteams den gesamten Lebenszyklus der Software betreuen können, also vom Design über Entwicklung, Testing und Deployment bis hin zum Betrieb. Wichtigste Elemente aller agilen und DevOps-basierenden Entwicklungsprojekte sind die kleinteiligen Projektschritte, die schnelle Inbetriebnahme und die ständige Kommunikation in kleinen Teams.

Die größte Herausforderung in der kundenindividuellen Softwareentwicklung besteht derzeit im Fachkräftemangel, denn Experten sind heute genauso rar wie begehrt. Um diese Engpässe zu beheben, arbeiten Service-Provider verstärkt an neuen Sourcing-Konzepten, die Fachkräfte aus Near- und Offshore-Regionen in die agilen Teams einbinden.

Ein weiterer Lösungsansatz gegen den Fachkräftemangel bei Softwareentwicklern ist der Einsatz von Low-Code-Plattformen. Mit Hilfe derartiger Entwicklungsumgebungen sollen Experten mit Domain-, aber ohne Softwareentwicklungs-Know-how in der Lage sein, Applikationen zu entwickeln. Vergleichbare Angebote gab es in der Vergangenheit bereits, beispielsweise beim Design und der Implementierung von Geschäftsprozessen mit Hilfe von BPMS (Business Process Management System). Neu ist, dass immer mehr Tools auf den Markt kommen, die speziell die Anforderungen und Komplexität von IoT-, CX- und Analytics-Anwendungen adressieren.

8. Open, Technology-Based Ecosystems

Mit der fortschreitenden Digitalisierung hat sich ein neuer Trend zur Offenheit eingestellt, der sich in Begriffen wie Open Data, Open Innovation und Open API manifestiert. Selbst die schon Jahrzehnte währende Open-Source-Bewegung erfährt eine unglaubliche Renaissance. Im Cloud-Geschäft haben sich quelloffene Lösungen wie zum Beispiel Cloud Foundry (als Applikationsplattform), OpenStack (Cloud-Architektur) und Kubernetes (für das Container-Management) als Industrie-Standards etabliert. Und auch im Blockchain-Umfeld werden alle bedeutsamen Protokolle als Open-Source-Projekt weiterentwickelt.

Um die Bedeutung dieser Bewegung zu veranschaulichen, eignet sich das Beispiel des Versicherungskonzerns Allianz. Dieser hatte Anfang 2018 mit der Ankündigung überrascht, den Kern des Bestandsführungssystems Allianz Business System (ABS) als Open-Source-Edition zu veröffentlichen. Im Kern werden Basisfunktionen für Versicherer implementiert.

In einer darum liegenden, nicht quelloffenen Schicht werden dann unternehmensspezifische Funktionen (etwa Tarifierung, Produktdesign) umgesetzt. Interessant ist zudem, dass die Allianz rund um seine quelloffene Software einen Marktplatz für Value-Added Services etablieren möchte. Der Konzern baut damit ein Ökosystem an Partnern auf, die sich zum einen an der funktionalen Weiterentwicklung der Kernanwendung beteiligen, zum anderen innovative Neuerungen für Versicherer auf dem Marktplatz bereitstellen.

Gleiche Entwicklungen sind genauso in anderen Branchen zu beobachten, wenn etwa Fertigungsunternehmen IoT-Plattformen bereitstellen, Logistik-Unternehmen Tracking-Plattformen für Container entwickeln oder Finanzdienstleister Transaktionsportale für den globalen Handel implementieren. All diese Lösungen folgen der Erkenntnis, dass eine Gruppe von Experten mehr zu leisten imstande ist als ein einzelnes Unternehmen und man mit der Digitalisierung die Wertschöpfung besser kontrollieren kann.

9. Edge Computing

Das Edge Computing ist eine Ergänzung des zentralen Cloud-Computing-Ansatzes um eine dezentrale Komponente. Während Cloud Computing sämtliche Funktionen von einem zentralen Data Center aus bereitstellt, verlagert das Edge Computing die Bearbeitung von Daten an den Rand (Edge) einer IoT-Installation.

Edge-Computing-Devices gibt es in jeder denkbaren Ausprägung, von kleinen Controllern und Ein-Platinen-PCs über einfache Industrie-PCs und leistungsstarke Server bis hin zum Mini-Data-Center. Wichtig ist in jedem Fall, dass Rechenleistung möglichst nah am Entstehungsort der Daten bereitgestellt wird. Die Nähe zu den Datenquellen verkürzt die Übertragungswege zu einer Instanz, die für eine erste Bearbeitung oder Aggregation sorgt.

Das ist in Umgebungen wichtig, in denen keine oder nur eine schmalbandige, leistungsschwache Netzanbindung besteht oder Echtzeitdatenverarbeitung gefordert ist. Dafür sind die Latenzzeiten, die auf dem Weg der Daten in die Cloud oder ein anderes zentrales Rechenzentrum und wieder zurück entstehen, zu groß. Edge Devices übernehmen je nach Leistungsfähigkeit der Prozessoren erste Analyseaufgaben auf Basis lokal gesammelter Daten oder konsolidieren, sortieren und komprimieren diese Informationen, so dass weniger Datenverkehr zum zentralen Data Center anfällt.

Der Bedarf an Edge Computing steigt mit wachsender IoT-Penetration, mit zunehmender Vernetzung von Geräten und Maschinen und mit der Verbreitung von Smart Products. Ein anschauliches Beispiel ist das selbstfahrende Auto, das mit sehr viel Intelligenz an Bord aufwartet, um in Echtzeit auf sich verändernde Verkehrssituationen reagieren zu können. Zudem besteht eine ständige Verbindung zu zentralen Data Centern, um etwa Wetter- und Verkehrsdaten zu beziehen oder Fahrzeugdaten zu übermitteln. Weitere Anwendungsfelder des Edge Computings ergeben sich zum Beispiel in der Produktion, wo Maschinendaten lokal vorverarbeitet werden.

Einen Extraschub wird das Edge Computing mit dem nächsten Mobilfunkstandard, 5G, bekommen. 5G ebnet den Weg für eine größere Verbreitung von Smart Products, so dass beispielsweise KI-Dienste wie Sprach- und Gesichtserkennung vor Ort bearbeitet und Ergebnisse mit einer zentralen Instanz abgeglichen werden können.

10. Distributed Ledger Technology

Die Blockchain-Technologie hat im vergangenen Jahr enorme Fortschritte gemacht. Dazu zählen etwa neue Spezifikationen der Enterprise Ethereum Alliance, die Blockchain für den Unternehmenseinsatz erschließen und die Interoperabilität zwischen verschiedenen Blockchain-Protokollen fördern. Hinzu kommen produktionsfähige Frameworks der Open-Source-Projekte Hyperledger Fabric und Hyperledger Sawtooth. Außerdem versprechen Protokolle wie MultiChain und IOTA mehr Leistungsfähigkeit in der Transaktionsverarbeitung.

Alle erwähnten Implementationen haben den gemeinsamen Nenner, dass sie für die Umsetzung geschlossener Ökosysteme auf Basis der Distributed Ledger Technology, also Private Blockchains, ausgelegt sind. Damit erübrigen sich auch die aufwändigen und energiehungrigen Konsensverfahren der öffentlichen Blockchain-Anwendungen.

Bemerkenswert sind vor allem Innovationen, die sich von der reinen Blockchain-Lehre entfernen und neue, pragmatische Lösungen für die Anwendung im Geschäftsumfeld schaffen. IOTA steht beispielhaft für diesen Trend, denn das für IoT-Anwendungen prädestinierte Protokoll ist streng genommen keine Blockchain-Technologie. Es arbeitet mit gerichteten azyklischen Graphen statt mit verketteten Blöcken, um bessere Skalierbarkeit und Leistungsfähigkeit zu erzielen.

Ähnlich pragmatische Ansätze verfolgt das Lightning Network, das erstmals Off-Chain-Transaktionen im Bitcoin-Umfeld eingeführt hat. Die Idee dahinter ist, nicht jede Information in einer Blockchain zu speichern, sondern Transaktionen zunächst außerhalb zu konsolidieren. Off-Chain-Lösungen werden zunehmend auch in Private Blockchains erprobt, um zum Beispiel sensible, personenbezogene Informationen datenschutzkonform speichern und löschen zu können.

Vor diesem Hintergrund eignet sich der Begriff Distributed-Ledger-Technologie (DLT) besser als die Blockchain, um den vielfältigen Innovationen in diesem Bereich einen gemeinsamen Namen zu geben.

All diese Entwicklungen haben dazu geführt, dass in vielen Unternehmen bereits ernsthafte Lösungen auf DLT-Basis entstehen. Aktivitäten sind vor allem in Branchen wie Logistik, Handel, Banken und Pharma zu beobachten, wo die Rückverfolgbarkeit von physischen und virtuellen Gütern ein wichtiger Teil des Kerngeschäfts ist. PAC erwartet im kommenden Jahr viele neue Produktivsysteme auf DLT-Basis.