CIO-Tipps aus der Praxis

Infrastructure as a Service - eine Herausforderung für den CIO

04.08.2016 von René Büst
CIOs stehen vor einem Dilemma: Zum einen haben sie die Aufgabe, ihre Applikationen und Systeme mit dynamisch skalierbaren und ausfallsicheren Infrastrukturen zu unterstützen. Zum anderen müssen sie die vollständige Kontrolle über Daten und Systeme zu behalten, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen.

Beim Aufbau moderner IT-Infrastrukturen gelten Infrastructure-as-a-Service Umgebungen (IaaS) als gesetzter Standard. Sie bilden die notwendige Grundlage, um Unternehmensapplikationen zukunftsorientiert, skalierbar und ausfallsicher zu betreiben. Jedoch stellt sich die Frage, ob Entscheider dabei Kompromisse hinsichtlich Governance, Kontrolle und Compliance eingehen müssen.

Infrastructure-as-a-Service in der Praxis

Infrastructure-as-a-Service (IaaS) ist der Wegbereiter des Cloud Computing und bildet für eine Vielzahl von Web-Applikationen und Geschäftsmodellen die technische Basis. Per Definition stellen IaaS-Plattformen IT-Infrastruktur-Ressourcen wie Rechenleistung, Speicherplatz und Netzwerk bereit, die über eine API angesprochen und genutzt werden können, ohne vorab kapitalintensiv in entsprechende IT-Ressourcen zu investieren.

Allerdings zeigt der Markt, dass es heute nicht mehr ausreicht, sich als IaaS-Anbieter lediglich auf diese reinen Infrastruktur-Ressourcen zu konzentrieren. Plattform-Services oder Microservices sind das Mittel der Wahl, um Marktanteile zu gewinnen. Da der Cloud-Markt mittlerweile eine hohe Reife erreicht hat, verschiebt sich der Kundenfokus von Early Adoptern wie Startups und Entwicklern immer mehr in Richtung der Unternehmensanwender im Mittelstand und in Großunternehmen.

Der Cloud-Markt 2016
Foto: Crisp Research AG

Zu Beginn richteten Public-Cloud-Anbieter ihren Fokus primär auf Entwickler und stellten diesen eine Spielwiese auf Basis ihrer Infrastruktur-Plattform bereit. Der Zugriff auf die Plattform ist einfach und erfolgt über einen Self-Service unter der Angabe von Kreditkarteninformationen. Typischerweise profitieren Public IaaS-Anbieter von den "Economies of Scale", also Skaleneffekten, indem die Infrastruktur mit möglichst vielen Kunden ausgelastet wird, um darüber kostengünstig Infrastruktur-Ressourcen anzubieten. Der Haken: In diesem Fall ist es sehr schwierig, auf die speziellen Bedürfnisse einzelner Kunden einzugehen.

Auch besteht in diesem Modell ein Risiko, dass die Überbelegung durch virtuelle Maschinen die physikalischen Hosts der Public IaaS-Plattform negativ beeinflusst (Noisy Neighbors). Werden Ressourcen vorab also nicht fest geplant, kann es zu mangelhafter I/O-Performance kommen, wenn zu viele Applikationen auf der zugrundeliegenden physikalischen Maschine betrieben werden. Zudem sind in diesem Modell die gesamte Infrastruktur und das Service-Portfolio weitgehend standardisiert.

Enterprise-ready IaaS aus CIO-Perspektive

Die Planung moderner IT-Umgebungen stellt CIOs vor große Herausforderungen. Einerseits müssen sie ihre Applikationen mit skalierbaren und ausfallsicheren Infrastrukturen unterstützen. Andererseits dürfen sie dabei nicht die Kontrolle über ihre Daten und Systeme verlieren, um rechtliche Rahmenbedingungen und Compliance-Regelungen zu erfüllen.

Ausfallsicherheit: Kernvoraussetzung fürApplikationen auf IaaS-Umgegungen

Werden Enterprise Applikationen von einer On-Premise- oder dedizierten Umgebung auf eine IaaS-Umgebung verlagert, steht eines im Mittelpunkt: die Ausfallsicherheit. Hierbei spielt insbesondere die Stabilität und Geschwindigkeit der Infrastruktur, des Netzwerks sowie der Anbindung der Infrastruktur eine zentrale Rolle. Cloud-basierte Applikationen erfordern eine zuverlässige und vor allem stabile Konnektivität, um zu jeder Zeit einen Zugriff auf die Daten und Informationen zu gewährleisten.

Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf der IaaS- Umgebung betrieben werden. Eine hohe und konstante Performance der Server und Infrastrukturen sowie eine geringe Latenz zwischen verschiedenen Standorten und gegenüber dem Kunden sind das A und O für einen modernen Infrastrukturbetrieb auf Enterprise-Niveau.

Grundsätzlich sind IaaS-Umgebungen (die Basis-Infrastruktur des Cloud-Anbieters) mittlerweile als ausfallsicher einzustufen. Allerdings hat der Kunde im Rahmen der Shared-Responsibility seine Hausaufgaben zu erledigen. Und dazu gehört es insbesondere, das "Design for Failure" zu berücksichtigen. Denn "everything fails, all the time", wie es Amazon-CTO Werner Vogels einmal ausdrückte. Das Design einer Cloud-Applikation muss den Regeln und Eigenschaften der IaaS-Umgebung folgen und die Hochverfügbarkeit berücksichtigen.

Hierbei muss grundsätzlich darauf geachtet werden, einen Single Point of Failure zu vermeiden und zu berücksichtigen, dass zu jedem Zeitpunkt etwas passieren kann. Das Ziel muss daher darin bestehen, dass eine Anwendung zu jederzeit funktioniert, auch dann, wenn die darunterliegende physikalische Infrastruktur des Anbieters in einen Fehlerzustand gerät. Die notwendigen Mittel und Services stehen dafür zur Verfügung.

Kontrolle: Management & Governance von Cloud-Umgebungen

Mit dem Auslagern der eigenen IT-Umgebung auf eine Cloud-Infrastruktur stellt sich parallel die Frage nach dem Erhalt des Kontroll-Levels. Im Vergleich zu einer On-Premise-Umgebung führt der Einsatz einer verteilten Cloud-Infrastruktur prinzipiell zu einer Verringerung des Einflussbereiches über die unterschiedlichen Ebenen, zum Beispiel im Rechenzentrum, auf physikalischen Infrastrukturen und in virtuellen Umgebungen. Dies führt automatisch zu Fragen in Bezug auf Compliance-Richtlinien, gesetzlichen Rahmenbedingungen und Datenschutzthemen. Besonders kritisch wird es, wenn unternehmensrelevante Vermögensgegenstände wie das geistige Eigentum und F&E-Daten ins Spiel kommen.

Eine weitere Herausforderung besteht im Management der IaaS-Umgebung und hier insbesondere bei der Zugriffskontrolle auf die Infrastruktur. Cloud-Umgebungen verschaffen Mitarbeitern deutlich mehr Freiheiten und Flexibilität, als sie es von typischen On-Premise-Infrastrukturen kennen. Auf der einen Seite erhalten Mitarbeiter dadurch Möglichkeiten agiler zu handeln, indem sie zum Beispiel Server nach Bedarf selbst starten können.

Auf der anderen Seite müssen sie selbstverantwortlicher agieren, um Daten nicht willkürlich verteilt zu speichern und nicht unnötige Kosten zu verursachen. Gut funktionierende interne Kontrollmechanismen verlieren somit auch in der Cloud nicht an Bedeutung. Im Gegenteil, ein kontrollierter Zugriff in Verbindung mit einem Self-Service ermöglicht die Einhaltung von Governance-Richtlinien und bietet Mitarbeitern gleichzeitig mehr Freiheit und Auswahl.

An dieser Stelle zeigt sich, dass die beiden führenden Public Cloud Anbieter Amazon Web Services (AWS) und Microsoft Azure ihre Hausaufgaben gemacht haben, um Unternehmen mit Platform-Services wie AWS "CloudTrail" oder Azure "Log Analytics" zu unterstützen. Aus dieser Perspektive betrachtet ist die Google Cloud Platform (GCP) aktuell hingegen noch ein gutes Stück davon entfernt, den Status Enterprise-ready zu erhalten. Die GCP Services "Monitoring" und "Logging" tendieren zwar in diese Richtung, sind aber noch nicht mächtig genug, um mit den Services von AWS und Azure hinsichtlich Compliance und Governance mithalten zu können.

Flexibilität: Mix und Skalierung von virtuellen und dedizierten Ressourcen

Ein Großteil aller CIOs und Infrastrukturmanager kennt die vorhandenen Applikationen und deren Bedarf sehr gut. Speziell für überwiegend statische Systeme, bei denen die Anforderungen an die Infrastruktur weitestgehend bekannt sind, eignet sich eine Kombination aus dedizierten und dynamischen Ressourcen sehr gut. Damit lassen sich periodisch auftretende Schwankungen etwa durch geplante Marketingaktionen oder bekannte Saisongeschäfte abfangen.

Hierbei wird eine "statische" Infrastruktur dynamisch um weitere IT-Ressourcen ergänzt, um den zusätzlichen Bedarf abzudecken. Ein weiteres Szenario besteht im Aufbau einer IaaS-Architektur, bei der Teilbereiche auf eine hohe und stabile Rechenleistung angewiesen sind, andere wiederum nur "gewöhnliche" Anfragen verarbeiten. Ein Beispiel liefert eine Real-Time-Collaboration-Platform: Für Chats und die gemeinsame Bearbeitung von Dokumenten reicht im Normalfall die Unterstützung durch einfache virtuelle Server aus. Bei der Echtzeit-Kommunikation, beispielsweise über Video-Chats, wo Streaming-Prozesse verarbeitet werden, wird deutlich mehr Leistung benötigt. Deshalb kommen dafür bevorzugt physikalische Server zum Einsatz.

IaaS: Architekturen und Betriebskonzepte

Abhängig von der jeweiligen Applikation oder dem zu unterstützenden Geschäftsmodell beziehungsweise dem Geschäftsprozess kommen unterschiedliche Architekturen und Betriebskonzepte zum Einsatz. Im Laufe der letzten Monate ist ein Trend hin zu Multi-Cloud-Architekturen zu erkennen, weiterhin ist ein Multi-Regionen-Betrieb mittlerweile unerlässlich. Dies lässt sich zum einen mit der Risikoverteilung über mehrere Regionen erklären. Zum anderen wird die Präsenz mit lokalen (virtuellen) Infrastrukturumgebungen in einzelnen Ländermärkten aus technischer und rechtlicher Perspektive zunehmend wichtiger.

Tipps zum Design von Hybrid- und Multi-Cloud-Konzepten

Hybride und Multi-Cloud Design-Konzepte bieten sich für unterschiedliche Szenarien an. Eine weit verbreitete Anwendung findet sich bei hoch frequentierten E-Commerce-Plattformen, deren Lastspitzen im Jahresmittel bekannt sind und die größtenteils auf eine längere Historie zurückblicken. Infrastrukturmanager solcher E-Commerce-Plattformen haben einen guten Überblick und Kenntnisse über den Bedarf an Performance und Stabilität der Plattform. Dabei setzen insbesondere über mehrere Jahre gewachsene Webshops primär auf eine statische Hosting-Infrastruktur mit physikalischen Servern als Basis. Ein Grund für den bevorzugten Einsatz von physikalischen Systemen besteht in der Sicherstellung einer dedizierten und stabilen Geschwindigkeit für die Payment-Systeme.

Um einen einwandfreien Betrieb in Spitzenzeiten zu gewährleisten, wurden große E-Commerce-Infrastrukturen in dedizierten Hosting-Umgebungen, basierend auf Erfahrungswerten, traditionell so dimensioniert, dass sie bei Anfragestürmen gut standhalten konnten. Dieses geht jedoch zu Lasten der Kosten und Effizienz. Denn eine Überdimensionierung der Infrastruktur ist auf Dauer sehr kapitalintensiv und senkt die Wettbewerbsfähigkeit eines Anbieters in diesem ohnehin schon margenschwachen Geschäftsumfeld nachhaltig.

Aus diesem Grund sind immer mehr Infrastrukturmanager gefordert, ihre Sourcing-Strategie und Architekturkonzepte zu verändern. Statt eines vollständig statischen und auf die Bedarfsspitzen ausgelegten Infrastrukturdesigns gehen sie zu hybriden Szenarien über, die eine Kombination aus klassischem Hosting und Cloud-Ressourcen abbildet. Hierbei wird eine statische Basisinfrastruktur aus physikalischen Servern betrieben, um die bekannte Grundlast zu bedienen - hierauf können etwa auch die Payment-Systeme laufen. Nehmen die Anfragen saisonal bedingt oder auch unerwartet zu, schaltet die E-Commerce-Plattform automatisch weitere Ressourcen aus einer IaaS-Umgebung (virtuelle Maschinen) hinzu, um die Lastspitze abzufangen.

Nimmt die Belastung ab, werden die virtuellen Maschinen wieder heruntergefahren bis das Normalniveau erreicht ist. Dieses On-Demand-Modell befähigt Betreiber von E-Commerce-Plattformen zu einer flexiblen und ressourcenschonenden Nutzung ihrer Infrastruktur und führt zugleich zu einem ausfallsicheren Betrieb. Solch ein hybrides Szenario kann zudem dabei unterstützen, die Transaktionssicherheit für etwaige Applikationen sowie eine hohe I/O-Leistung sicherzustellen. So werden etwa Datenbankserver bevorzugt auf physikalischen Maschinen betrieben und die korrespondierenden verteilten Systeme wie Applikations- und Web-Server auf virtuellen Maschinen.

Mit einem Multi-Regionen-Design auf Expansionskurs

Im Hinblick auf einen Expansionskurs lässt sich das oben beschriebene Szenario von einem Rechenzentrum auf beliebig viele Standorte ausweiten. Voraussetzung dafür: Der IaaS-Anbieter verfügt über entsprechende Rechenzentrumsstandorte, um eine Skalierbarkeit zum Beispiel auf europäischer oder globaler Ebene zu ermöglichen. Hierzu werden die Kundeninfrastrukturen an einem Standort über eine schnelle dedizierte Verbindung um weitere Standorten erweitert, um eine einheitliche Datenbasis sicherzustellen und den konsistenten Zugriff auf Kernsysteme (zum Beispiel Payment, Warenbestand) zu gewährleisten.

Damit lässt sich zum Beispiel ein E-Commerce-Angebot, das ursprünglich in Deutschland gestartet ist, schnell auch in Frankreich, Spanien, Großbritannien und den USA ausrollen. Aufgrund der Lokalität der Daten in den einzelnen Ländermärkten kann der E-Commerce-Anbieter seine Plattform mit einer niedrigen Latenz und somit mit einer höheren Geschwindigkeit bereitstellen. Zudem bringt er die Daten in die direkte Nähe der Kunden. Gleichzeitig kann er etwaige rechtliche Rahmenbedingungen erfüllen und Kundendaten, Payment-Systeme oder anderweitige Backend-Systeme zum Beispiel in Deutschland speichern und betreiben. Hingegen werden die Warendaten, etwa konkrete Informationen, Bilder, Rezensionen sowie sämtliche Frontend-Systeme, im entsprechenden Ländermarkt lokal vorgehalten.

Enterprise IaaS: Empfehlungen für den CIO

Im Kontext ihrer Cloud-Strategie stehen CIOs vor der Herausforderung, das passende Angebot für ihre individuellen Anforderungen zu finden. Insbesondere unternehmenskritische Applikationen gilt es sensibel zu behandeln. Für die Auswahl eines Enterprise-ready IaaS-Angebots hat es sich bewährt, die folgenden Kriterien zu berücksichtigen:

Fazit

Cloud-basierte Infrastructure-as-a-Service Umgebungen gelten als gesetzter Standard für den Aufbau und Betrieb moderner IT-Infrastrukturen. Nur mit ihrer Hilfe lassen sich die notwendige Skalierbarkeit und Stabilität erzielen, um Applikationen zukunftsorientiert und ausfallsicher zu betreiben.

Im Zuge der voranschreitenden digitalen Transformation und dem immer größer werdenden Momentum des Internet of Things (IoT) rücken IaaS-Plattformen weiter in den Mittelpunkt, um als Infrastruktur-Backend zu dienen. Insbesondere die gute Konnektivität, aber auch die Möglichkeit des Multi-Cloud-Betriebs

helfen Anbietern von IoT-Services dabei, ihre Lösungen zeitnah und mit einer geringen Latenz schnell in weitere Ländermärkte auszuliefern.

Die Top-12-Sicherheitsrisiken in der Cloud
Datenverlust
Wenn ein Datenverlust auftritt, drohen Geldbußen, Gerichtsprozesse und harte Strafen. Die Aufarbeitung des Ganzen und die Information der betroffenen Kunden verursachen erheblich Kosten. Indirekte Folgen wie Image- und Auftragsverluste sind noch gar nicht eingerechnet, die ein Unternehmen für Jahre beschäftigen können.
Gestohlene Benutzerdaten
Datenverluste und andere Angriffe folgen häufig aus einem zu lockeren Authentifizierungsprozess, aus zu schwachen Passwörtern und einem schlechten Schlüsselmanagement. Unternehmen kämpfen mit dem Thema Identitätsmanagement, wenn es um die Zuordnung von Zugriffsrechten auf Benutzerrollen geht. Wenn Mitarbeiter die Stelle wechseln oder das Unternehmen ganz verlassen, werden ihre Zugriffsrechte häufig zu spät oder gar nicht angepasst.
Geknackte Interfaces und APIs
Sicherheit und Verfügbarkeit von Cloud-Diensten - von der Authentifizierung über die Zugangskontrolle bis hin zu Verschlüsselung und Aktivitäten-Monitoring - hängen von der API-Sicherheit ab. Das Risiko steigt mit der Zahl von Drittanbietern, die auf der Grundlage der APIs neue Benutzeroberflächen entwickeln, weil diesen Unternehmen Zugriff auf Dienste und interne Daten gewährt werden muss.
Ausgenutzte Schwachstellen
Durch die verschiedenen Formen der Cloud-Nutzung auf Mietbasis werden Schwachstellen zu einem immer größeren Problem. Mehrere Unternehmen teilen sich denselben Arbeitsspeicher, Datenbanken und andere Ressourcen - was wiederum ganz neue Angriffsvektoren ermöglicht.
Account Hijacking
Phishing, Betrug und Software Exploits sind immer noch erfolgreich - Cloud-Services ergänzen diese Maschen um eine weitere Bedrohung, weil Angreifer nun Aktivitäten belauschen, Transaktionen manipulieren und Daten verändern können.
Insider mit bösen Absichten
Die Gefahr von innen hat viele Gesichter: ein aktueller oder ehemaliger Angestellter, ein Systemadministrator, ein Vertrags- oder Geschäftspartner. Es geht um die gesamte Palette - von Datendiebstahl bis hin zu Rache. Im Cloud-Umfeld kann ein fest entschlossener Insider die gesamte Infrastruktur zerstören und Daten manipulieren.
Der APT-Parasit
APTs (Advanced Persistent Threats) bewegen sich in der Regel seitlich durch ein Netzwerk und mischen sich unter den normalen Datenverkehr - entsprechend schwer sind sie zu entdecken. Die großen Cloud-Provider setzen fortschrittliche Sicherheitstechniken ein, um zu verhindern, dass ihre IT-Infrastruktur durch APTs beeinträchtigt wird. Dennoch sind ihre Kunden gut beraten, sich selbst ebenso sorgfältig auf mögliche Folgeschäden für ihre Cloud-Konten vorzubereiten wie sie das bei On-Premise-Systemen tun würden.
Dauerhafter Datenabfluss
Je reifer die Cloud wird, desto seltener kommt es zwar vor, dass Fehler seitens der Provider zu Datenverlusten führen. Hacker mit bösen Absichten sind aber bekannt dafür, dass sie Cloud-Daten dauerhaft löschen, um Unternehmen zu schaden.
Fehlende Sorgfalt
Gerade dort, wo ein Unternehmen in die Cloud migrieren oder mit einem anderen Unternehmen über die Cloud zusammenarbeiten möchte, ist gebührende Sorgfalt angebracht. Beispielsweise werden Unternehmen, die es versäumen, einen Vertrag eingehend zu prüfen, niemals wissen, wie zuverlässig und seriös der Vertragspartner im Falle eines Sicherheitsvorfalls vorgeht.
Missbrauch von Cloud-Diensten
Es kommt vor, dass Cloud-Services missbraucht werden, um damit kriminelle Aktivitäten zu unterstützenen. Um einen DDoS-Angriff (Distributed Denial of Service) zu starten oder eine Verschlüsselung zu knacken, braucht es eine leistungsstarke Hardwareumgebung - und Cloud-Ressourcen erfüllen dieses Kriterium.
DoS-Attacken
DoS-Attacken (Denial of Service) verbrauchen eine große Menge Rechnleistung - die Rechnung zahlt der Kunde. Auch wenn die breitbandigen DDoS-Angriffe weit verbreitet und gefürchtet sind - ebenso gewappnet sollten Unternehmen für assyametrische DoS-Attacken auf Anwendungsebene sein, die Sicherheitslücken in Webservern und Datenbanken betreffen.
Geteite Technik, doppelte Gefahr
Verschiedene Cloud Provider teilen sich Infrastruktur, Plattformen und Anwendungen - liegt irgendwo hier eine Verwundbarkeit vor, sind gleich alle betroffen. Wenn beispielsweise eine zentrale Komponente wie ein Hypervisor oder eine Anwendung erfolgreich angegriffen wurde, ist gleich die komplette Cloud-Umgebung unsicher.