Die Cloud managen

Wie sich CIOs künftig definieren müssen

09.03.2016 von Andreas Kohne
Es findet ein massiver Wandel statt. IT wandert immer mehr in die Cloud. Der CIO wandelt sich zum Service-Orchestrator. Dafür muss sich die IT um 180 Grad ändern.
  • Services und Infrastrukturen müssen konsequent standardisiert werden, das ist die Basis für den Weg in die Cloud
  • Die IT muss ein Software Defined Data Center (SDDC) schaffen und in einem weiteren Schritt Hyperconverged Systems einführen
  • Wenn das Rechenzentrum wie ein interner Cloud-Provider aufgestellt ist, kann man interne Dienste in die Cloud auszulagern oder externe Dienste in den lokalen IT-Stack zu integrieren
  • Der CIOs muss das unterschätzte Change Management selbst in die Hand nehmen, um Mitarbeitern die Ängste vor den Veränderungen zu nehmen

Der CIO wird zum Leiter der IT-Fabrik. In der IT-Fabrik werden auf vollautomatisierten Produktionsstraßen vordefinierte Services nach einem unternehmensweiten Standard produziert und automatisch in den Betrieb übergeben. Die für die Serviceproduktion benötigten Einzelteile (Teilservices) können dabei selbst produziert und verbaut oder durch einen Dritthersteller beigesteuert werden. Die Dritthersteller in diesem Bild sind die externen Cloud Service Provider.

Sie bieten vorkonfektionierte Services mit klar definierten Schnittstellen, Kosten und Betriebsmodellen an, die eindeutig mit SLAs (Service Level Agreements) abgesichert sind. Der CIO muss also zum Service Orchestrator werden, der anhand der Business-Anforderungen bestimmt, welche Services wie, wo und in welcher Qualität bezogen werden. Dabei trägt er die Verantwortung dafür, dass die unterschiedlichen Services, egal, wo sie im Endeffekt betrieben werden, sicher laufen und untereinander effizient kommunizieren können.

Der Cloud-Readiness-Check
Der Cloud-Readiness-Check
Bevor sich CIO und die IT-Abteilung für eine Cloud-Lösung entscheiden, muss sie unter speziellen Gesichtspunkten wie Strategie, Prozesse, Organisation, Technik und Sicherheit genau unter die Lupe genommen werden.
1. Cloud-Integration prüfen
Im ersten Schritt gilt es zu prüfen, wie sich eine potenzielle Cloud-Lösung in die bereits bestehende IT-Infrastruktur, das Finanz-Management sowie Multivendor-fähige Prozesse einfügt.
2. Mitarbeiter-Skills verbessern
Mit der Frage nach einer Cloud-Anwendung geht auch die Frage einher, ob Mitarbeiter-Skills auf- oder ausgebaut werden müssen, und ob ein Wandel in der Unternehmenskultur erfolgen sollte.
3. IT-Kapazitäten ausloten
Im Vorfeld muss vom technologischen Standpunkt aus unbedingt Augenmerk auf Zugriffsmöglichkeiten, abgesicherte Anbindungen sowie auf Kapazitäten und Varianzen der benötigten Rechenleistung gelegt werden.
4. Rechtliche Aspekte abklären
Der rechtliche Aspekt ist ein wesentlicher und nicht zu vergessender Analysepunkt. Er sollte klare Antworten auf die Fragen nach der Absicherung von Service-Level-Agreements, die Sicherheit vor der Deaktivierung der Cloud-Dienste durch den Anbieter sowie über ausländische Vertragsstrukturen geben.
5. Transparenz sicherstellen
Wer Cloud-Lösungen anstrebt, muss bereits im Vorfeld die Transparenz hinsichtlich der Speicherungsorte und der Sicherheit in der Datenverarbeitung untersuchen und einfordern.

IT muss sich um 180 Grad wandeln

Um dies zu bewerkstelligen, muss sich die IT um 180 Grad wandeln. Hierbei kann nicht immer der Greenfield-Approach genutzt werden, bei dem die neue IT die alte Umgebung komplett ersetzt. Es muss präzise zwischen bestehenden und neuen Services unterschieden werden. Dabei ist es einfacher, die neuen Services mit Hilfe neuer Technologien bereitzustellen und zu betreiben, als die alten. Denn sie lassen sich von Anfang an agil konzipieren und voll automatisch betreiben und überwachen. Um diese neue IT aufzusetzen, muss der CIO konsequent auf eine Standardisierung der vorhandenen Services und Infrastrukturen setzen. Dies bildet die Basis für den Weg in die Cloud.

Das Software Defined Data Center

Im nächsten Schritt muss die Virtualisierung auf allen Ebenen weiter vorangetrieben werden. Hierbei sollten neben der Server-Virtualisierung auch der Storage und das Netzwerk komplett von der Hardware entkoppelt werden. Dies erlaubt es, alle verfügbaren Ressourcen flexibel über Software provisionieren und steuern zu können. Software Defined Data Center (SDDC) ist hier das Schlagwort. Ein SDDC ermöglicht eine feingranulare Aufteilung der verfügbaren physischen Ressourcen und somit eine anforderungsgerechte Zuweisung und Verrechnung von Ressourcen auf Services. Dies hilft dem CIO, die Kosten verursachergerecht auf die Fachabteilungen umzulegen und somit transparent und vergleichbar zu Cloud-basierten Diensten zu werden.

Was bewirkt das Software Defined Datacenter?
Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten."
Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können."
Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus."
Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“
Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."

Ein weiterer großer Vorteil einer komplett Software-basierten RZ-Umgebung ist es, dass aufbauend auf die bereits definierten Standards für Betriebssysteme, Middlewares und Applikationen alle Prozesse von der Erstellung einer neuen virtuellen Maschine (VM), über die Zuweisung der benötigten Ressourcen wie CPU, RAM und Festplatte auch direkt die gesamte Integration in das Netzwerk voll automatisiert werden können.

Die Automatisierung hört aber hier nicht auf. Den größten Vorteil bringt die Automatisierung von wichtigen Prozessen während der eigentlichen Laufzeit eines Services. Hierzu zählen das Patch Management, das Incident Management, das Change Management, das Backup und Restore und natürlich der Prozess, um den Service geregelt außer Betrieb zu nehmen. Hierfür wird nicht nur ein SDDC benötigt, sondern auch ein präzise aufgesetztes und betriebenes Service Management mit eindeutig definierten Services, Verantwortlichkeiten und Prozessen. Das SDDC bildet aber eine optimale Grundlage für einen vollautomatisierten IT-Betrieb.

Nächster Schritt Hyperconverged Systems

Der nächste Trend lautet Hyperconverged Systems und treibt den Gedanken des SDDCs noch weiter. Hyperconverged Systems sind betriebsfertige Hardware- und Software-Systeme, die sich sehr schnell in den Betrieb überführen lassen. Sie beinhalten neben allen für den Betrieb benötigten Ressourcen wie RAM, CPU, Festplatten und Netzwerk-Konnektoren auch direkt einen vorinstallierten Hypervisor für die Virtualisierung und bereits ein komplettes Monitoring. Außerdem liefern sie eine vollintegrierte Automatisierungslösung, die zum Beispiel über einen zentralen Orchestrierer angesprochen werden kann.

Somit kann die IT bedarfsgerecht wachsen, da zusätzliche Systeme nach dem Kauf einfach dem bestehenden System hinzugefügt werden können und alle weiteren Konfigurationen vom System automatisch durchgeführt werden. Die neuen Ressourcen stehen sofort bereit und die vorhandenen VMs können automatisch auf der neuen Hardware betrieben werden.

Interne Dienste auslagern und externe Services integrieren

Nachdem sich das interne Rechenzentrum Schritt für Schritt als interner (Cloud-) Service Provider aufgestellt hat, kann in einem nächsten Schritt damit begonnen werden, interne Dienste in die Cloud auszulagern oder externe Dienste in den lokalen IT-Stack zu integrieren. Dazu müssen CIOs erneut umdenken, da neue, teilweise weniger im Fokus stehende Themen in den Vordergrund rücken: Welche Schnittstellen stehen zur Verfügung? Dies ist ein wichtiges Thema, da externe Cloud-Services über klar definierte Schnittstellen angeboten werden.

Cloud-Readiness-Studie 2015
Deutsche Unternehmen sind startklar für die Cloud
Grundsätzlich sind deutsche Unternehmen gut vorbereitet für den Einsatz von CloudServices. Das hat die Studie "Cloud Readiness 2015" von COMPUTERWOCHE, CIO und TecChannel ergeben. Die Befragung von fast 700 Entscheidern hat aber auch gezeigt, dass es an einigen Stellen noch Defizite gibt.
Minderheit mit Cloud-Readiness-Check
Haben Sie Ihr Unternehmen einem Cloud-Readiness-Check unterzogen?
Einstufung Cloud Readiness
Bitte stufen Sie Ihr Unternehmen in Sachen „Cloud Readiness“ ein!
Ausstiegsszenarien
Haben Sie in Ihrem Unternehmen geklärt, wie IT-Verfahren und die zugehörigen Daten wieder aus der Cloud geholt werden können?
Hindernisse
Was sind in Ihrem Unternehmen die größten Hindernisse für die Nutzung von Cloud-Services?
Cloud-Readiness-Studie 2015
Den ausführlichen Berichtsband zur Studie mit allen Ergebnissen und Daten können Sie über unseren Shop beziehen:

Diese Schnittstellen müssen in die lokale IT eingebunden werden. Ist dies nicht möglich oder gewollt, bleibt nur die Suche nach einem weiteren Anbieter oder die Möglichkeit, den Service doch intern zu betrieben, da die Cloud-Service-Provider ihre Schnittstellen nicht für einen einzelnen Kunden anpassen werden.

Zugriffsrechte regeln

Wie ist also sichergestellt, dass nur berechtigte Nutzer die Services nutzen können? Dies kann nur mit einem eindeutig definierten Access Management durchgesetzt werden. Es sollte so konfigurierbar sein, dass es Zugriffsrechte nicht nur für intern erbrachte Services auf Gruppen-, Rollen- und auch auf Personenebene verwalten kann, sondern auch Zugriffe auf externe Cloud-Services. Auch der Umgang mit Daten sollte hier feingranular konfigurierbar sein, da ansonsten interne Firmendaten auf externen Servern abgelegt und verarbeitet werden könnten.

Zentrales End-to-End-Monitoring wichtig

Wie überwacht der CIO nun die interne und externe IT ganzheitlich? Hierfür sollte ein zentrales End-to-End-Monitoring eingesetzt werden, das nicht nur die interne IT mit ihrer Hardware und den darauf betriebenen Services überwacht, sondern auch externe Service-Provider und ihre Services über die angebotenen Schnittstellen überwacht.

Change-Management wird oft vergessen

Eine oft unterschätzte oder gar vergessene Herausforderung ist das interne Change-Management. Denn es ist die Aufgabe des CIOs, seine Mitarbeiter in dem hier beschriebenen Veränderungsprozess mitzunehmen, ihnen die Vorteile aufzuzeigen und ihnen die Ängste vor einer Rationalisierung zu nehmen. Außerdem muss das Silodenken der Mitarbeiter in ein Service-orientiertes Denken überführt werden, das zum Ziel hat, einen optimalen Service über präzise definierte Schnittstellen bereitzustellen.

Kienbaum Change-Studie 2015
Kienbaum Change-Studie 2014/2015
In ihrer "Change-Management-Studie 2014/2015" unter mehr als 200 Entscheidern aus der DACH-Region (Deutschland, Österreich, Schweiz) stellen die Management-Berater von Kienbaum fest, dass in Sachen Veränderungsfähigkeit eine Lücke zwischen IST und SOLL klafft.
Systematik der Agilität
Kienbaum stellt folgende Systematik von Agilität dar: vier Treiber, das sind hohe Wettbewerbsintensität, ein dynamisches Umfeld und ebensolche Rahmenbedingungen, technologische Veränderungen und Instabilität in Kundenpräferenzen und –Verhalten. Die beiden Enabler von Agilität innerhalb des Unternehmens sind Sensitivität (Wahrnehmung) und Reagibilität.
Vier Treiber
Die Befragten bestätigen, dass die genannten vier Treiber für ihre Unternehmen gelten.
IST-SOLL-Vergleich
Selbstkritisch stellen die Befragten fest, dass zwischen Wunsch und Wirklichkeit in puncto Change Management eine Lücke klafft.
Umsetzung
Kienbaum konkretisiert diese Lücke anhand einiger Faktoren.
Optimistisches Top-Management
Stärker als andere glauben Top-Manager, die geforderten Punkte zu erfüllen.

Fazit

All dies liegt heute in der Verantwortung des CIOs. Er hat es in der Hand, das Unternehmen zukunftsweisend auszurichten. Dabei sollte die notwendige Veränderung nicht singulär gesehen werden, sondern ein permanenter Bestandteil der IT-Strategie sein. Die Firmenziele müssen in einem permanenten Prozess an den Kundenbedürfnissen gemessen und die technologischen Rahmenbedingungen geschaffen werden, die eine optimale Positionierung am Markt ermöglichen. Dazu sollte, wie in ITIL gefordert, ein kontinuierlicher Verbesserungsprozess eingeführt werden. Das Ziel muss also eine Lean-IT sein, die sich agil am Kunden ausrichtet und mit den Bedürfnissen wachsen kann.

Der CIO von morgen darf sich also nicht länger als reinen Verwalter von IT-Systemen definieren, sondern sich als zentralen Innovator positionieren, dessen Aufgabe darin besteht, aus intern produzierten Services mit Hilfe von Cloud-Angeboten einen optimalen Business-Service anzubieten. Dazu muss er zum Dirigenten eines großen Service-Orchesters werden, der es schafft, die Begeisterung für die neuen Möglichkeiten an die Geschäftsführung und an seine Mitarbeiter zu übertragen. Nur so ergibt sich im Zusammenspiel eine Symphonie, die das Geschäft in eine sichere Zukunft führt.