Cloud Computing


Public-Cloud-Anbieter im Porträt

Google Cloud Platform soll AWS Paroli bieten

Bernd Reder ist freier Journalist und Autor mit den Schwerpunkten Technologien, Netzwerke und IT in München.

Google baut Cloud-Infrastruktur aus

Ein Manko von Google war bis Ende 2016 die geringe Zahl von Cloud-Rechenzentren. Während beispielsweise AWS seine Cloud-Dienste weltweit in zwölf "Regions" anbot, kam Google auf vier Regionen, davon zwei in den USA und jeweils eine in Ostasien und Westeuropa. Das hat sich mittlerweile geändert, auch wenn AWS immer noch die Nase vorn hat.

Das Netz der Regionen und Zonen der Google Cloud Platform: In Europa unterhält Google Cloud-Rechenzentren an fünf Standorten.
Das Netz der Regionen und Zonen der Google Cloud Platform: In Europa unterhält Google Cloud-Rechenzentren an fünf Standorten.
Foto: Google

So ist Google derzeit in zehn Regionen mit einem Cloud-Data Center vertreten und bietet seine Services in 30 Zonen an. Jede Region besteht aus mindestens einem Datacenter. Eine Zone ist laut Googles Diktion "ein isolierter Ort innerhalb einer Region". Ein Beispiel: Die Region Westeuropa, die über das Datacenter in Saint Ghislain in Belgien abgedeckt wird, weist drei Zonen auf. Diese unterscheiden sich durch die Server-Ausstattung, etwa die Typen der Prozessoren und die Zahl der Rechenkerne der Maschinen. Auch in Frankfurt am Main bietet Google drei Zonen an.

Zum Vergleich: AWS deckt derzeit weltweit 16 geografische Regionen ab und unterhält 44 Verfügbarkeitszonen. Weitere fünf Regionen und 14 Zonen sind in Planung.

In der Region Westeuropa unterhält Google derzeit in Großbritannien (London), Belgien (St. Ghislain) und Deutschland (Frankfurt am Main) Cloud-Data Center. Außerdem will Google auch über die vorhandenen Rechenzentrums-Standorte in den Niederlanden und Finnland Cloud-Dienste anbieten.

Damit sind alle Cloud-Rechenzentren in der Europäischen Union angesiedelt. Das Data Center in London wird erst mit dem Austritt Großbritanniens aus der EU aus diesem Verbund herausfallen. Die Platzierung in einem EU-Land ist vor dem Hintergrund der EU-Datenschutz-Grundverordnung (EU-DSGVO) wichtig. Sie trat bereits im Mai 2016 in Kraft, ab 25. Mai 2018 kommt die Strafbarkeit bei Verstößen hinzu. Die DSGVO umfasst für alle Unternehmen, die personenbezogene Daten verarbeiten, deutlich schärfere Vorgaben. So sind Unternehmen und Organisationen gehalten, solche Daten in Rechenzentren innerhalb der EU zu speichern und zu verarbeiten.

Dies tangiert natürlich auch Nutzer von Cloud-Services. Google kann somit seinen Kunden eine rechtskonforme Verarbeitung sensibler Informationen anbieten. Zudem haben Unternehmen die Option, mithilfe der GCP eine ausfallsichere Cloud-Umgebung einzurichten, etwa indem sie zwei oder mehr Cloud-Data Center von Google in unterschiedlichen Regionen nutzen, beispielsweise in Deutschland und Finnland.

Google verfolgt somit eine ähnliche Strategie wie seine Mitbewerber. Ein Großteil der Cloud-Service-Provider aus den USA hat bereits Rechenzentren in der EU und Deutschland eingerichtet. Dazu zählen AWS, IBM/Softlayer, VMware und Salesforce. Microsoft eröffnete 2016 ein Data Center nahe Magdeburg, ein zweites in Frankfurt am Main. Dort werden Daten von Kunden aus Deutschland unter Treuhänderschaft von T-Systems gespeichert und verarbeitet.

Vor allem für Unternehmen aus Deutschland ist es wichtig, dass ein Cloud-Service-Provider Services über Rechenzentren in Deutschland anbietet. Einer Studie des Beratungshauses KPMG zufolge spielt dieser Faktor für 76 Prozent bei der Wahl des Providers eine zentrale Rolle. An die 70 Prozent bevorzugen Cloud-Services, die über Datacenter in einem EU-Mitgliedsland bereitgestellt werden.

Die Google Cloud Platform erfüllt somit dieses Kriterium. Ein noch weitergehender Ansatz, wie ihn beispielsweise Microsoft mit dem Treuhändermodell verfolgt, ist für Google allerdings zumindest derzeit keine Option.

Google Cloud mit mehr als 60 Services

Rechnet man Entwickler-Tools wie Cloud SDK (Software Development Kit) oder Cloud Endpoints für den Aufbau von Services auf Grundlage von RESTful-APIs (Application Programming Interfaces) mit ein, stehen über die Google-Plattform derzeit mehr als 60 Public-Cloud-Services zur Verfügung. Allerdings sind darin auch Angebote enthalten, die sich erst in der Betatest-Phase oder einem noch früheren Stadium befinden. Dazu zählten beispielsweise Cloud Functions, eine Serverless-Umgebung für das Erstellen und Verknüpfen von Cloud-Diensten, oder das Cloud Identity-Aware Proxy. Mit diesem Service können Administratoren den Zugriff auf Cloud-Dienste mit der Identität des Nutzers verbinden.

Immerhin hat Google die Zahl seiner Cloud-Angebot innerhalb eines Jahres um mehr als ein Fünftel erweitert. Die Grundlage der Google Cloud Platform bilden nach wie vor die Compute-Dienste. Dazu zählen die "Compute Engine" für das Verlagern von virtualisierten Workloads in die Cloud sowie die "Container Engine". Sie ermöglicht es, Docker-Container auf der Cloud-Plattform zu platzieren und zu verwalten.

Außerdem stellt Google Ressourcen in den Bereichen Storage und Networking (Load Balancing, Content Delivery, virtualisierte Netzwerkfunktionen) zur Verfügung. Ein Beispiel für die Monitoring- und Management-Werkzeuge, die via Google Public Cloud bereitstehen, ist "Stackdriver". Mit ihm können IT-Fachleute das Laufzeitverhalten von Applikationen überwachen, die in Cloud-Umgebungen von Amazon Web Services und Google ausgeführt werden. Treten Probleme auf, etwa durch zu hohe Latenzzeiten, werden die Administratoren gewarnt und aufgefordert, eine weitergehende Analyse durchzuführen.

Entwicklungsplattform für mobile Applikationen

Mit App Engine ist außerdem eine Entwicklungsplattform für mobile Applikationen und die entsprechenden Backend-Strukturen verfügbar. Entwickler können auf Tools und Frameworks wie Eclipse, IntelliJ, Maven, Git, Jenkins und PyCharm zurückgreifen.

Ein zentraler Bestandteil des Public-Cloud-Angebots von Google sind Big-Data-Dienste wie "BigQuery", ein Data-Warehouse für die Analyse großer Datenbestände, sowie Services wie Dataflow, Dataproc und Datalab. Auf diesem Gebiet verfügt Google, bedingt durch die Vermarktung von Suchmaschinen-Anfragen, über eine hohe Kompetenz. Diese nutzt der Anbieter, um Unternehmen und öffentlichen Auftraggebern "Big Data & Analytics" zugänglich zu machen. Ein Argument, das Google anführt, ist der günstige Preis. Im Vergleich zu AWS Elastic MapReduce und Microsoft Azure HDInsight sei die Verarbeitung von 50 Terabyte Daten mit Dataproc um 500 Dollar (AWS) beziehungsweise 1100 Dollar (Azure) günstiger.

Google setzt Akzente bei Cloud-Security

Zu den Bereichen, in denen Google sein Angebot gezielt erweitert hat, zählt Cloud Security. Mit dem Key Management System und der Data Leak Prevention API hat das Unternehmen seine Cloud Platform um Dienste erweitert, mit denen Administratoren einzelne Anwendungen von Kunden schützen können. Die DLI API identifiziert mehr als 40 Datentypen, etwa Kreditkartennummern und Kontaktdaten. IT-Fachleute von Unternehmen können dann festlegen, auf welche Weise solche Informationen vor Missbrauch und dem unerlaubten "Absaugen" durch illoyale eigene Mitarbeiter geschützt werden sollen.

Für Nutzer der Google Cloud Platform dürfte zudem ein weiterer neuer Service interessant sein: das Identity-Aware Proxy (IAP). Es ermöglicht es Unternehmen, statt Virtual Private Networks ein Modell zu verwenden, mit dem sich der Zugriff auf jede einzelne Applikation steuern lässt. Als Grundlage dienen dabei die Identität eines Users sowie dessen Berechtigungen und Rollen. IAP basiert auf dem BeyondCorp-Framework. Google hat es ursprünglich für interne Zwecke entwickelt. Es ermöglicht den Zugriff auf das Unternehmensnetz von unsicheren Netzwerken aus, ohne dass dazu ein VPN erforderlich ist. Nun soll auch Nutzern der GCP diese Technik zur Verfügung stehen.

Zur Startseite