I/O 2013

Google bohrt seine Cloud-Plattform auf

Thomas Cloer war viele Jahre lang verantwortlich für die Nachrichten auf computerwoche.de.
Er sorgt außerdem ziemlich rund um die Uhr bei Twitter dafür, dass niemand Weltbewegendes verpasst, treibt sich auch sonst im Social Web herum (auch wieder bei Facebook) und bloggt auf teezeh.de. Apple-affin, bei Smartphones polymorph-pervers.
Googles Cloud-Plattform "Compute Engine" ist nun allgemein verfügbar und hat allerlei interessante neue Features erhalten.
SVP Urs Hölzle ist das Gehirn hinter der Infrastruktur von GOogle.
SVP Urs Hölzle ist das Gehirn hinter der Infrastruktur von GOogle.
Foto: Google

Googles Infrastruktur-Guru Urs Hölzle stellte die Neuerungen gestern in einer Session auf der Entwicklerkonferenz I/O 2013 in San Francisco im Anschluss an die dreistündige Eröffnungs-Keynote vor. Mit der Compute Engine konkurriert Google unter anderem mit Amazon EC2, Microsoft Azure Compute und Rackspace.

Anders als der Wettbewerb rechnet Google seine gemietete Rechenleistung künftig nicht in Stunden, sondern minutengenau ab (allerdings sind zehn Minuten die Mindestabnahme). Kunden mit schnell erledigten Workloads können dabei gegenüber der Cloud-Konkurrenz eine Menge sparen.

Neben Python, Java und dem hauseigenen Go unterstützt die Google Compute Engine mit PHP jetzt auch die populärste Skriptsprache für Web-Applikationen. Die von Google gemanagte PHP Runtime ist zunächst als Limited Preview verfügbar. "Das ist was Anderes als Ihr vorhandener PHP-Stack", erklärte Hölzle. "Wir patchen und mangagen ihn für Sie. Und weil es GAE ist, zahlen sie nichts, wenn Ihre Seite keine Traffic erzeugt - aber wenn sie eine Menge Traffic bekommt, dann können wir sie schnell hochskalieren."

Weitere Neuerungen sind "Shared-Core Instances", kleinere virtuelle Maschinen ("g1" mit 1,7 Gigabyte virtuellem Hauptspeicher für 5,4 Cent pro Stunde; "f1" mit 600 MB VRAM für 1,9 Cent pro Stunden) mit einem virtuellen Rechenkern und ohne Persistent Disk. Diese eignen sich laut Hölzle für Experimente und Rechenaufgaben mit geringem Ressourcenhunger, die man längere Zeit kostengünstig laufen lassen möchte.

Apropos Persistent Storage: Optional gibt es für Googles virtuelle Maschinen bis zu 10 Gigabyte Speicherplatz in der Cloud, das ist zehn Mal mehr als das brancheübliche Gigabyte. Ebenfalls neu: "Advanded Routing", dahinter verbirgt sich eine VPN-Verbindung zwischen virtuellen Rechnern in der Google-Cloud und der eigenen On-premise-Infrastruktur.

Last, but not least gibt es die neue schemalose, Key-Value-Pair NoSQL-Datenbank "Google Cloud Datastore", Dabei handelt es sich im Wesentlichen um eine einzeln angebotene Variante es "High Replication Datastore" aus der Google App Engine, die direkt mit Amazon S3 konkurriert. Sie lässt sich über ein HTML-Interface an beliebigen Anwendungen anbinden und wird über mehrere Google-Rechenzentren repliziert. Cloud Datastore basiert laut Hölzle auf Googles interner Technik "BigTable", die der Internet-Konzern als Storage-Backend für Google Apps und viele andere Services verwendet. "Darüber laufen gegenwärtig 4,5 Billionen Transaktionen pro Monat", erklärte der Senior Vice President of Technical Infrastructure. "Und das kann man nun überall als Service nutzen."

Während alle Welt gerade über OpenFlow und Software-Defined Networks (SDNs) rede, hat Google laut Hölzle seit zwei Jahren einen OpenFlow-Backbone mit mehreren Terabit pro Sekunde aggregierter Bandbreite im Einsatz, der die Data Center in Nordamerika, Europa und Asien verbindet. Google hat natürlich auch das nötige Kleingeld, um eigene Unterseekabel für Verbindungen zwischen seinen Rechenzentren zu legen - das können sich nur wenige Firmen auf dieser Welt erlauben.