Zwei Wege - Ein Ziel

Top-Down versus Bottom-Up Cloud-Strategie

12.03.2015
Von 


René Büst ist Research Director in Gartners Managed Business and Technology Services Team mit Hauptfokus auf Infrastructure Services & Digital Operations. Er analysiert Entwicklungen im Bereich Cloud Computing (Anbieter von Managed Cloud-Services und Public Cloud sowie Cloud-Strategien wie IaaS, PaaS und Multicloud), digitale Infrastrukturen und Managed Services sowie den Einfluss der digitalen Transformation auf die IT. Seit Mitte der 90er Jahre konzentriert sich Herr Büst auf den strategischen Einsatz der IT in Unternehmen und setzt sich mit deren Einfluss auf unsere Gesellschaft sowie disruptiven Technologien auseinander.
Renommierte Unternehmen haben viele Legacy- beziehungsweise Enterprise-Applikationen im Einsatz, die sich in ihrer jetzigen Form nicht einfach in die Cloud überführen lassen. Für viele Entscheider steht damit die Frage im Raum, ob sie eine Top-Down- oder Bottom-Up-Strategie verfolgen sollen.
Ob sich ein Unternehmen für eineTop-Down oder Bottom-Up Cloud-Strategie entscheidet, hängt von der individuellen Situation und dem aktuell vorhandenen Wissensstand ab.
Ob sich ein Unternehmen für eineTop-Down oder Bottom-Up Cloud-Strategie entscheidet, hängt von der individuellen Situation und dem aktuell vorhandenen Wissensstand ab.
Foto: Alexey Rozhanovsky, Shutterstock.com

Mit dem stetig steigenden Reifegrad der Cloud wird auch die Frage nach geeigneten Anwendungsfällen (Use Cases) in der Cloud immer größer. Nachdem Unternehmen wie Pinterest, Airbnb, Foursquare, Wooga oder Netflix gezeigt haben, wie sich Cloud-Infrastrukturen und -Plattformen nutzen lassen, um neue, gar disruptive Geschäftsmodelle zu starten, liebäugeln nun auch immer mehr Unternehmenslenker und CIOs damit, von den Eigenschaften der Cloud zu profitieren.

Eine IT-Strategie hat die Aufgabe, die Unternehmensstrategie bestmöglich zu unterstützen. Im Rahmen der zunehmenden Digitalisierung von Gesellschaft und Ökonomie steigt der Wertbeitrag und die Bedeutung der IT somit maßgeblich an. Das heißt, dass der Einfluss der IT auf die Unternehmensstrategie in Zukunft noch wichtiger wird. Wenn wir unterstellen, dass das technologische Fundament der Digitalen Transformation Cloud-Infrastrukturen, -Plattformen und -Services sind, dann ist es folgerichtig, dass die Cloud-Strategie einen unmittelbaren Einfluss auf die IT-Strategie eines Unternehmens hat und haben muss.

Somit stellt sich die Frage, inwieweit also Cloud-Services die Unternehmensstrategie direkt oder indirekt unterstützen können. Das muss sich nicht zwangsläufig in harten Zahlen widerspiegeln. Wenn ein Unternehmen es beispielsweise auf Basis von Software-as-a-Service schafft, dass seine Mitarbeiter flexibler arbeiten, dann hat es etwas für die Produktivität seiner Mitarbeiter getan, was sich mittelfristig positiv auf das Unternehmen auswirkt. Allerdings ist festzuhalten, dass insbesondere Cloud-Infrastrukturen und -Plattformen nur als Basis dienen, auf der Unternehmen die Möglichkeit erhalten, Innovation zu schaffen. Die Cloud ist nur ein Vehikel.

Top-Down versus Bottom-Up Cloud-Strategie
Top-Down versus Bottom-Up Cloud-Strategie
Foto: Crisp Research AG

Um ein Verständnis für den Einfluss des Cloud Computing auf die Unternehmensstrategie zu erhalten, lassen sich folglich zwei Ansätze nutzen:

  • Top-Down Cloud Strategie

Beim Top-Down Ansatz werden die Möglichkeiten des Cloud Computing für ein Unternehmen analysiert und daraus ein konkreter Use Case definiert. Also eine Innovation beziehungsweise eine Idee kreiert, die das Cloud Computing erst ermöglicht. Anschließend wird auf dieser Basis die Cloud-Strategie erstellt.

  • Bottom-Up Cloud-Strategie

Beim Bottom-Up Ansatz wird ein bereits existierender Use Case mit den Möglichkeiten des Cloud Computing umgesetzt. Das bedeutet, es wird analysiert, wie die Cloud dabei helfen kann, die Anforderungen des Use Cases bestmöglich zu unterstützen. Daraus leitet sich dann die jeweilige Cloud-Strategie ab.

Der Top-Down-Ansatz bringt in der Regel neue Geschäftsmodelle oder disruptive Ideen hervor. Die Entwicklung erfolgt vollständig auf der grünen Wiese in der Cloud und bleibt meistens Innovatoren vorbehalten. Der Bottom-Up-Ansatz verfolgt das Ziel, ein bestehendes System oder eine vorhandene Applikation in die Cloud zu überführen oder dort neu zu entwickeln. Hierbei geht es primär darum, eine bereits existierende IT-Ressource am Leben zu erhalten und bestenfalls zu optimieren.

Bottom-Up: Migration von Enterprise Applikationen

Renommierte Unternehmen verfolgen bevorzugt eine Bottom-Up Strategie, um möglichst schnell von den Vorzügen der Cloud zu profitieren. Hierbei steckt der Teufel jedoch im Detail. Legacy oder klassische Enterprise Applikationen sind nicht für den Betrieb auf verteilten Infrastrukturen, also Cloud-Infrastrukturen, entwickelt worden. Das bedeutet, dass diese von Natur aus nicht "in die Breite" (Scale-Out) skalieren sondern maximal einen Scale-Up auf einem einzigen System überstehen, indem zum Beispiel mehrere Java-Threads verwendet werden. Wenn dieses System allerdings ausfällt, dann ist die Applikation auch nicht mehr verfügbar.

Applikationen, die in der Cloud betrieben werden sollen müssen daher auch die Eigenschaften der Cloud berücksichtigen und dafür entwickelt werden. Die Herausforderung: Unternehmen fehlt es weiterhin an geeignetem Personal mit den notwendigen Cloud-Skills. Weiterhin beschäftigen sich Unternehmen intensiv mit dem Thema der "Data Gravity". Hierbei geht es um die Unbeweglichkeit der Daten. Entweder weil die Datenmenge zu groß ist, um sie in die Cloud zu verlagern oder weil rechtliche Rahmenbedingungen es erforderlich machen, die Daten im eigenen Besitz zu behalten.

Sowohl das fehlende Cloud-Wissen als auch die "Data Gravity" haben Anbieter erkannt und versuchen mit neuen Lösungen die Bottom-Up-Strategie zu unterstützen. So ermöglicht es NetApp mit seinem NetApp Private Storage für Unternehmen die "Data Gravity" zwischen Public Cloud-Services und dem eigenen Kontroll-Level so optimal wie möglich auszubalancieren.
Um Governance- und Compliance-Richtlinien zu erfüllen, sind Unternehmen darauf angewiesen, die Daten unter der eigenen Kontrolle zu behalten und die Cloud-Services bei Bedarf in einem Hybrid-Cloud-Modell darauf zugreifen zu lassen. Die Daten befinden sich in diesem Szenario somit nicht unmittelbar in der Cloud des Anbieters. Stattdessen greifen die Cloud-Services lediglich während der Verarbeitung über eine direkte Verbindung auf die Daten zu. Der NetApp Private Storage ermöglicht dieses Szenario in Kooperation mit den Amazon Web Services. Damit lassen sich zum Beispiel Amazon EC2 Instanzen nutzen, die auf die Daten in einem Colocation-Rechenzentrum von Equinix mittels einer dedizierten AWS Direct Connect-Verbindung zugreifen.

Eine weitere Herausforderung mit nicht Cloud-fähigen Enterprise Applikationen in der Public Cloud besteht auf Datenebene, wenn die Daten die Cloud eines Anbieters wieder verlassen sollen. Das liegt daran, dass Cloud-native Speichertypen wie Object Storage und Block Storage nicht mit gängigen on-Premise Speicher-Kommunikationsprotokollen wie iSCSI, NFS und CIFS kompatibel sind. NetApp Cloud ONTAP versucht hierfür in Kooperation mit Amazon AWS Abhilfe zu schaffen. Als eine Art NAS-Storage werden die Daten verschlüsselt auf einem Amazon Elastic Block Storage (EBS)-SSD gespeichert. Cloud ONTAP dient in diesem Fall als Storage Controller und sorgt für den Zugriff von nicht Cloud-fähigen Enterprise Applikationen auf die Daten. Durch die Kompatibilität mit bekannten Kommunikationsprotokollen lassen sich die Daten ebenfalls einfacher bewegen.

VMware richtet sich mit vCloud Air gezielt an Unternehmen mit bestehenden Enterprise Applikationen. Die vCloud Air Public Cloud Plattform basiert auf der vSphere-Technologie und ist kompatibel zu on-Premise vSphere-Umgebungen. Damit lassen sich vorhandene Workloads und virtuelle Maschinen auf die VMware Public Cloud und wieder zurück in die eigene IT-Infrastruktur verschieben.

ProfitBricks versucht Unternehmen mit dem Konzept des Live Vertical Scaling zu unterstützen. In diesem Fall lassen sich einzelne virtuelle Server im laufenden Betrieb vertikal um weitere Ressourcen - zum Beispiel die Anzahl an CPU-Kernen oder RAM - erweitern, ohne einen Neustart des Servers vorzunehmen. Ohne Anpassung der betriebenen Applikation lässt sich damit die Leistung eines virtuellen Servers erhöhen. Gute Erfahrungen wurden insbesondere mit dem LAMP-Stack (Linux, Apache, MySQL, PHP) gemacht, da zum Beispiel eine MySQL-Datenbank ohne weitere Anpassungen und einen Neustart des Systems die neuen Ressourcen erkennt und in der Lage ist, die hinzugefügte Leistung direkt zu nutzen. Um dies zu ermöglichen, hat ProfitBricks auf Betriebssystem- und Hypervisor-Ebene Modifikationen vorgenommen, die für den Nutzer jedoch transparent bleiben. Dieser muss lediglich ein zur Verfügung gestelltes Referenz-Betriebssystemimage einsetzen, das die Live Vertical Scaling-Funktionalität beinhaltet.

Ein ausgewählter Bottom-Up Use Case von Enterprise Applikationen in der Public Cloud findet sich u.a. bei Amazon Web Service, der allerdings auch zeigt, das Systemintegratoren in der Cloud eine hohe Bedeutung zugesprochen werden muss.

  • Amazon Web Services & Kempinski Hotels

Die Hotelkette Kempinski hat Großteile ihrer Kernanwendungen und Abteilungen, darunter Finanzen, Buchhaltung und den Schulungsbereich auf die Amazon Cloud-Infrastruktur migriert. Zusammen mit dem Systemintegrator Cloudreach wurde hierzu eine VPN-Verbindung aus dem eigenen Rechenzentrum in Genf zur Amazon Cloud aufgebaut, über welche die 81 Hotels weltweit nun mehrheitlich versorgt werden. Kempinski plant zudem die vollständige Schließung des eigenen Rechenzentrums und damit seine IT-Infrastruktur zu 100 Prozent in die Public Cloud zu überführen.

Top-Down: Start auf der grünen Wiese

Im Gegensatz zum Erhalt von Enterprise Applikationen verfolgt ein Neustart auf der grünen Wiese die Top-Down Strategie. In diesem Fall wird eine Applikationen oder gar ein Geschäftsmodell vollständig neu entwickelt und das System an die Anforderungen und Eigenschaften der Cloud angepasst. Man spricht in diesem Zusammenhang auch von einer Cloud-nativen Applikation, welche die Skalierbarkeit und Hochverfügbarkeit von Beginn an mit berücksichtigt.

Diese Anwendung ist eigenständig in der Lage weitere virtuelle Maschinen hochzufahren, wenn mehr Leistung benötigt wird beziehungsweise die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterzufahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier sorgt die Anwendung selbst dafür, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet. Die Anwendung ist daher in der Lage, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Hinzu kommt, dass ebenfalls die Daten, die von einer Anwendung verarbeitet werden, sich zwangsläufig nicht mehr an einem einzigen Ort befinden, sondern über die Cloud hinweg verteilt gespeichert sind.

Dieser Komplexität sind sich Startups und innovative Unternehmen bewusst, wie die folgenden Top-Down Use Cases zeigen:

  • Amazon Web Services & Netflix

Netflix gehört zu den Leuchtturm Use Cases auf der Amazon Cloud. Der Video-Streaming Anbieter macht sich die Eigenschaften der Cloud bis ins kleinste Detail zu nutze, was sich in einer hohen Verfügbarkeit und Performanz widerspiegelt. Als einer der Pioniere auf der Amazon Infrastruktur hat Netflix sich bereits von Beginn an eigene Tools -Netflix Simian Army - geschrieben, um die Komplexität zu beherrschen.

Die jüngste Vergangenheit hat allerdings gezeigt, dass innovative Geschäftsmodelle zwangsläufig nicht in einer Public Cloud umgesetzt werden müssen und dass der grüne Wiese Ansatz nicht immer nur Startups vorbehalten bleibt.

  • T-Systems & Runtastic

Runtastic ist ein Anbieter von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen. Das Unternehmen hat ein riesen Wachstum zu verzeichnen. Nach 100.000 Downloads im Jahr 2010 und 50 Millionen Downloads im Jahr 2013 haben die Downloadzahlen bis heute die 110 Millionen-Grenze überschritten. Hinzu kommen weltweit 50 Millionen Nutzer. Die Zahlen sprechen grundsätzlich für ein ideales Szenario für eine Public Cloud. Runtastic hat sich jedoch aus technischen Gründen für T-Systems entschieden und betreibt seine Infrastruktur in zwei Rechenzentren in einem Colocation-IaaS Hybrid Modell.

  • Claranet & Leica

Mit dem "Leica Fotopark" hat der Kamerahersteller Leica im vergangenen Jahr einen Online-Fotodienst für die Verwaltung und Bearbeitung sowie das Drucken und Teilen von Photos veröffentlicht. Für die Entwicklung und den Betrieb der Infrastruktur ist der Managed Cloud Anbieter Claranet zuständig, der den "Leica Fotopark" auf einer Scale-Out-Umgebung bestehend aus einer Converged Infrastructure und einem Software Defined Storage betreibt. Als agiles Betriebskonzept wird hier zudem auf ein DevOps-Modell gesetzt.

Grüne Wiese vs. Enterprise Applikationen: The Bottom-Line

Ob sich ein Unternehmen nun für eine Top-Down oder Bottom-Up Cloud-Strategie entscheidet, hängt von der individuellen Situation und dem aktuell vorhandenen Wissensstand ab. Fakt ist, dass beide Varianten dabei helfen, die IT-Infrastruktur, die IT-Organisation und das gesamte Unternehmen agiler und skalierbarer zu gestalten. Allerdings entstehen nur mit einem Top-Down-Ansatz Innovationen und neue Geschäftsmodelle. Jedoch muss man auch berücksichtigen, dass zum Beispiel für die Entwicklung und den Betrieb der Netflix-Plattform ein ausgezeichnetes Verständnis von Cloud-Architekturen vorhanden sein muss, was im Markt derzeit noch sehr rar gesät ist.

Foto: Crisp Research AG

Unabhängig von ihrer Strategie und insbesondere im Hinblick auf das Internet of Things (IoT) und der dafür notwendigen Digital Infrastructure Fabric (DIF) sollten sich Unternehmen auf Cloud-Infrastrukturen konzentrieren. Diese bieten die idealen Voraussetzungen für den Backend-Betrieb von IoT-Lösungen, sowie für den Austausch mit Sensoren, Embedded Systems und mobilen Applikationen. Weiterhin stehen bei einigen wenigen Anbietern bereits unterstützende Higher-Level-Services für die Entwicklung zur Verfügung, die den Time-to-Market verkürzen können. Mit einer weltweit umspannenden Infrastruktur von Rechenzentren hilft die globale Skalierbarkeit zudem dabei schnell in neue Ländermärkte zu expandieren. (bw)