Multi-Cloud

Entscheidend ist, was unter der Haube ist

07.11.2019
Anzeige  Cloud-Computing ist inzwischen zum Normalfall geworden. Doch entgegen den vollmundigen Versprechungen der großen Provider trifft „one size fits all“ nicht zu. Die meisten Unternehmen nutzen heute mehr als eine Plattform – und das hat seine Tücken.

Der Boom beim Cloud-Computing ist weiterhin ungebrochen. Die Daten von Gartner und Wikibon besagen, dass im vergangenen Jahr der weltweite Cloud-Umsatz über 200 Milliarden Dollar betrug, in diesem Jahr soll er um 20 Prozent zulegen. Dieser Markt teilt sich in die Bereiche Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS). Die führenden IaaS-Anbieter sind Amazons AWS, Microsofts Azure und Googles Cloud Plattform, wogegen der SaaS-Markt von Salesforce dominiert wird.

Doch mit der zunehmenden Nutzungsbreite gewinnen auch Spezialanbieter, wie Oracle und IBM weiter an Bedeutung. Ein breiter gestaffeltes Cloud-Angebot hat dazu geführt, dass die meisten Anwender nicht nur mit einem Provider zusammenarbeiten. "Nahezu alle Unternehmen verfolgen heute eine Multi-Cloud-Strategie, und dieser Trend wird sich noch gewaltig verstärken", sagt Gartner-Analyst Michael Warrilow.

Das RZ wird zur Cloud

Multi-Cloud bedeutet aber nicht nur die Nutzung mehrerer Provider, sondern schließt auch die eigene Cloud-Plattform mit ein. Hierzu gab es jüngst ganz neue Angebotsformen bei denen die wesentlichen Vorteile einer externen Cloud-Nutzung auch als On-premises-Lösung verfügbar sind. Hierbei wird eine Art verlängerte Public Cloud im eigenen Rechenzentrum eingerichtet, bei der die Hard- und Software identisch zu dem sind, was in der Cloud verfügbar ist, sodass die Anwendungen friktionslos zwischen beiden Infrastrukturen problemlos hin und her geschoben werden können. Die wesentlichen Unterschiede gegenüber den früheren On-premises-Clouds sind die verbrauchs- und volumenabhängige Abrechnung sowie die komplette externe Systemadministration.

Business-Fokus statt Technologie-Restriktion

Der anhaltende Cloud-Boom profitiert jedoch nur noch in den seltensten Fällen von den ursprünglichen Motiven, wie Kostenvorteile und einfache Administrierbarkeit. Inzwischen überwiegen die zunächst unerkannten Vorteile der ersten Tage. Damals hatten viele IT-Chefs noch erhebliche Cloud-Bedenken bezüglich Performance, Datenhoheit und Sicherheit. Die Folge war, dass sich die Cloud als eine Art Tummelplatz für Entwickler und zum Ausprobieren von nicht-geschäftskritischen Anwendungen etablierte. Das heißt, die Entwicklungsumgebung war von vorherein nicht als spätere Betriebsplattform geplant, wodurch die Anwendungen weitestgehend unabhängig von dieser Infrastruktur konzipiert und entwickelt wurden.

Technologisch war das eine neue Herausforderung, denn parallel kamen die neuen agilen Entwicklungsmethoden auf den Markt, deren wesentliches Merkmal eine kontinuierliche schnelle Koppelung von Entwicklung und Deployment zum Ziel haben - Stichwort DevOps. Die Lösung waren Container und Serverless. Damit lassen sich Anwendungen auf jeder beliebigen Infrastruktur entwickeln und auf einer anderen betreiben.

Was sich zunächst wie eine rein technologische Lösung eines Deployment-Problems anhörte, entpuppte sich schon bald als eine komplette Umkehrung der IT-Denkweise. Waren es ursprünglich die technologischen Gegebenheiten der Infrastruktur, die bei der Planung neuer Anwendungen die größte Rolle spielten, so ist dieser Punkt heute weitestgehend unberücksichtigt. Stattdessen steht der Business-Nutzen im Fokus neuer Applikationsprojekte. Cloud-native Programme, bei denen mit Hilfe von Kubernetes die Software-Container orchestriert werden, sowie eine Software-definierte Infrastruktur sind heute State-of-the-Art.

Einheitlich ja, aber nicht leistungsgleich

Aber auch wenn containerisierte Anwendungen problemlos auf jeder passenden Cloud-Plattform betrieben werden können, so bedeutet das nicht, dass sie überall die gleiche Performance oder Effizienz haben. Beispielsweise bietet die zweite Generation der skalierbaren Intel® Xeon® Prozessorreihe zusammen mit Intel® Optane™ DC Persistent Memory Modules (DCPMM) eine um 36 Prozent höhere VM-Dichte pro Node, wenn sie unter MS Windows Server genutzt werden.

Bei DCPMM handelt es sich um völlig neuartige nichtflüchtige Speichersysteme. Hierbei wurden die Kostenvorteile von flüchtigen Speichermedien mit den Anwendungsvorteilen von nichtflüchtigen Medien kombiniert. Gerade bei datenintensiven Anwendungen, wie In-Memory Datenbanken oder SAP Hana ergeben sich mit DCPMM deutliche Performance-Steigerungen.

Ein weiteres interessantes Beispiel dafür ist Google-Anthos, das ist ein auf der Google Cloud Plattform (GCP) gehostetes Control-Panel zum Managen von Kubernetes und allen anderen Applikationen. Anthos ist für die Intel-Architektur optimiert, das heißt, hier kommen nicht nur die Xeon®-Prozessoren, sondern auch DCPMM zum Einsatz. Der Verwendung einer gleichen Intel-Architektur On-Premise bedeutet also erhebliche Vorteile. Ähnliche Angebote zu Anthos gibt es übrigens auch in Verbindung mit AWS und Azure.

Fazit: Es lohnt sich, auch bei oberflächlich betrachteten gleichen Multi-Cloud-Angeboten einen Blick "unter die Haube" zu werfen und darauf zu achten, dass On-Premise und in der Cloud die gleiche leistungsstarke Basis-Technologie zum Einsatz kommt, denn damit lassen sich ganz erhebliche Performance-Vorteile erzielen.

Whitepaper

Erfahren Sie mehr zum Multi-Cloud-Management im Whitepaper "Making Multi-cloud Work".

Jetzt Whitepaper herunterladen