Die Philosophie des Cloud Computing

Nicht die Technik verändert unsere Welt

30.07.2015 von Heiko  Henkes  IDG ExpertenNetzwerk
Dass Cloud Computing inzwischen systemimmanent ist und die Grundlage unserer vernetzten d!conomy bildet, wird wohl von niemandem bestritten werden. Mit einem Wachstum von 37 Prozent hat sich der gesamte Markt von 2014 auf 2015 weiter nach oben geschraubt und sorgt damit weiterhin für viel Furore.

Der Public Cloud Markt wurde 2014 doch nicht ganz so stark gedämpft wie zwischen 2013 und 2014 angenommen. Die Halbwertszeit der Angst durch Herrn Snowden war kürzer als gedacht beziehungsweise der User-Wunsch nach Agilität, Flexibilität und immer wieder auch Kostenreduktion war größer als angenommen.

Cloud-Markt Deutschland 2014/2015
Foto: Experton Group AG

Nach aktuellen Prognosen der Experton Group werden 2015 die Ausgaben der deutschen Unternehmen für Cloud-Technologien,Cloud Services und entsprechende Beratungs- und Integra­tionsservices bei rund 9 Milliarden Euro liegen. Bis zum Jahr 2019 wird eine Steigerung des Volumens auf 27 Milliarden Euro erwartet, was besonders verdeutlicht, dass das Potential bei weitem noch nicht ausge­schöpft ist und auch in naher Zukunft Wachstum generiert werden kann.

Die Zunahme der Cloud-Technologien zum Aufbau privater Clouds führt auf Anwenderseite zu einem steigenden Grad der Standardisierung. Sie versetzt die Anwend erunternehmen überhaupt erst in die Lage, auf Public Clouds für Burst-, Test-, oder weniger kritische Szenarien beziehungsweise Applikationen zu setzen.

Strategische und inhaltliche Wegbereiter sind zum einen Managed Service Provider, die Anwendern dabei helfen (Muli-)Clouds zu orchestrieren und überhaupt Zugang zu typischen Clouds wie beispielsweise AWS oder Azure zu bekommen und zum anderen Cloud Colocation Hub Provider, die Connectivity, Performance und Security über den Erdball verteilt gewährleisten.

Cloud Colocation-Hubs
Foto: Experton Group AG

Der Impact für Hoster, die zum Managed Service Provider werden (müssen)

Managed Service Provider sollten sich daher verstärkt mit den Vorzügen und vor allem der Auswahl der Cloud Colocation Hub Provider auseinander setzen. Das versetzt sie in die Lage, ihre Kunden individuell hinsichtlich Internetknoten- beziehungsweise Carrier und Best of Breed-Zugängen zu beraten.

Ein typisches Managed Service Portfolio im Cloud-Umfeld beinhaltet verschiedene Service-Aspekte:

Typisches Portfolio im Bereich Managed Services
Foto: Experton Group AG

Während Managed Service Provider Cloud Management & Orchestration Tools wie ihre Westentasche kennen, sind Anwender nicht immer in der Lage die neuen Tools für das heterogene Infrasruktur Mangement richtig auszuwählen und letzlich einzusetzen. Die Weiterentwicklung klassischer Plattformen zur Steuerung und Provisionierung von Infra­struktur-Komponenten führt in einigen Fällen bereits dazu, diese Lösungen zum Aufbau von Cloud-Broker-Plattformen zu nutzen.

Die Abgrenzung dieser Plattformen von denen aus dem Middle­ware-Umfeld zur primären Integration von externen Ressourcen und der Einbeziehung von Rollen- und Rechtesystemen im Hinbklick auf Signle Sign-on (SSO) zur kostenstellen-genauen Abrechnung ist nicht immer eindeutig. Auch Aspekte des IT Service sowie Lifecycle Managements spielen in dieser Hinsicht eine bedeutende Rolle. Die Welt wird also komplizierter.

Folglich ist das Marktsegment für Software zum Cloud Management und zur Orchestrie­rung so wettbewerbsintensiv wie kaum ein anderes Segment und von einer Vielzahl unterschiedler Marktakteure besetzt. Klassische Virtualisierungs-Anbieter wie beispielsweise VMware stehen dabei vor der Herausforderung, in dieser noch für Differenzierung geeigneten Disziplin die Schnittstellen­transparenz aufrecht zu erhalten und gleichzeitig die proprietäre Lösung gegenüber Open-Source-Alternativen zu platzieren. Zusätzlich sollte man im Jahr 2015 die API-Transparenz aufrecht erhalten und als Anbieter eine Gradwanderung aus USP-Aufbau und Lock-in bei gleichzeitiger Kompatibilität zu Public Clouds und auch OpenStack-Providern beherzigen.

OpenStack - alles wollen mitmischen, nur wenige haben den Durchblick

Ein wesentlicher Punkt ist daher speziell im Jahr 2015 der Anschluss an ein funktionierendes Ökosystem, um daraus einen eigenen Vorteil zu generieren. In vielen Fällen ist es beispielsweise der Aufbau von und die Kompatibilität zu OpenStack, das mit dem neuesten Release vor allem Folgendes verspricht und optimiert:

Zwar sind in der jüngsten Vergangenheit viele Cloud-Projekte von und mit OpenStack begleitet oder gar aufgebaut worden, aber es hapert bei diesem komplexen und vielfältigen Framework bisher noch an einigen kritischen Komponenten hinsichtlich IT Service Management (ITSM) beziehungsweise Identity Access Management (IAM) und somit Steuerungsmöglichkeiten auf Federation-Level.

OpenStack drängt also immer weiter in höhere Gefilde der Middleware-Layer und vor allem solcher Services vor, die bislang meist durch eigene und in einigen Fällen auch etwas angestaubte Applikations-Fragmente bekannter IT-Riesen besetzt waren.

Welche Firmen gehören zu den gewichtigsten OpenStack-Anbietern beziehungsweise treiben das Thema und das Ökosystem systematisch am Markt?

Basieren die Infrastrukturen oder Solutions dieser OpenStack Foundation Platinum Provider auf OpenStack, so gibt es darüber hinaus viele weitere Anbieter und Dienstleister, die sich mit diesem Thema auseinandersetzen beziehungsweise kompatibel dazu sein möchten. Dazu gehören Hosting-Anbieter genauso wie das Virtualisierungs-Urgestein VMware.

Die Rolle der IT-Administratoren im Wandel

Während IT-Administratoren früher meist noch Server, Storage und Netzwerk getrennt behandelt haben und somit das wirkliche "Bottleneck" im Fall der Fälle identifizieren konnten, sind sie heutzutage gezwungen, alle Komponenten unter strengen und service-getriebenen Gesichtspunkten zu steuern und zu kontrollieren. Im IT-as-a-Service (ITaaS) Zeitalter zählen Service-Level Agreement (SLA)-Konformität, Quality of Service (QoS), Rollen- und Rechtemanagement im Rahmen digitaler Identitäten und Beziehungen beziehungsweise die Interoperabilität von (Wertschöpfungs-) Netzwerken.

IT-Administration wird zur Service-Administration
Foto: Experton Group AG

Verständnis für das Software Defined Datacenter

IT-Administratoren entwickeln sich nicht nur zunehmend zu Prozess- und Information-Management-Spezialisten, sondern müssen zudem auch immer häufiger zum Script-Künstler werden, um sich mit dem Provisionieren und Steuern von entfernten Infrastrukturen via PowerShell anstelle schöner aber zeitraubender Frontends zu bedienen. Zudem sind auch Kenntnisse eines Softwareentwicklers von Nöten und weniger die Kenntnisse über die zugrundliegende Hardware.

Es kommt prinzipiell darauf an. Service-Manager-Anforderungen aus den Fachabteilungen auf den Cloud-Dienst und somit die Plattform inklusive der SLAs "mappen" beziehungsweise übersetzen zu können. IT-Administratoren sind fortan die Manger der verlängerten beziehungsweise ausgelagerten Werkbank, die letztlich einer der wesentlichen Produktionsfaktoren des Unternehmens ist. Je enger Administratoren mit Projektmanagern und SW-Entwicklern kooperieren, desto eher leben sie den DevOps-Gedanken. Neben den Cloud Management und Orchestration Tools sind es beispielsweise auch Configuration Management Lösungen wie Chef oder Puppet beziehungsweise auch Packer die IT-Administratoren das Leben über Automatismen erleichtern und zugleich verkomplizieren.

Private Cloud Readiness in Deutschland

Die Experton Group schätzt, dass die Private Cloud Readiness in Deutschland gerade einmal bei 15 Prozent liegt, jedoch in den kommenden Jahren weiter ansteigen wird. Selbst die Systemhäuser beziehungsweise Hosting-Dienstleister sind mit 25 Prozent noch nicht dort, wo sie im internationalen Wettbewerb ankommen müssen.
Steigt in den On-Premise- und professionell oder in Eigenregie verwalteten Rechenzentren langsam aber sicher der Reifegrad, setzen allerdings schon heute über 50 Prozent der Anwenderunternehmen auf Public und zunehmend auch Hybrid Cloud Services. Im Größenklassenvergleich sind die großen Unternehmen mit mehr als 1000 Mitarbeitern mit ungefähr 70 Prozent Cloud-Einsatzgrad den kleinen und mittelständisch geprägten Unter­nehmen unterhalb dieser Grenze um ungefähr 30 Prozent voraus.

Die zunehmende Private beziehungweise Self-Managed On-Premise Private Cloud Readiness führt dazu, klassische beziehungsweise traditionelle IT-Services auf lange Sicht gesehen abzulösen. Das traditionelle IT-Hosting kann eventuell schon von 2018 auf 2019 durch das Managed Cloud Hosting überholt werden.

Managed Hosted Private Cloud vs. traditionelles IT-Hosting
Foto: Experton Group AG

Über alle Unternehmensgrößen hinweg differenziert sich der Markt daher stetig weiter aus und beraubt angestammte Märkte immer häufiger ihres Volumens. Mit derzeit knapp 10 Prozent Anteil an den gesamten IT-Ausgaben ist bereits ein großer Schritt in Richtung der Wolke vollzogen. Bis 2020 könnte der Cloud-Markt bereits ein Drittel beziehungsweise 30 Prozent Anteil erreicht haben und ein durchschnittliches Jahreswachstum von 25 Prozent verzeichnen. Spätestens dann wäre es an der Zeit, den Blickwinkel zu ändern und zu schauen, welche Services beziehungsweise Produkte noch nicht cloud-ready sind beziehungsweise keinerlei Aspekte moderner digitaler und vor allem modularer oder elastischer Elemente aufweisen.

Gewinner und Verlierer

Folgende Märkte sind am stärksten von der zunehmenden Erosion durch die Cloud-Inspiration im Hinblick auf

betroffen. Diese Märkte sind demnach unter Zugzwang, um den Anschluss an den Markt nicht zu verlieren, in dem Wettbewerber und immer häufiger auch Newcomer mit neuen Angeboten an ihnen vorbeiziehen:

1. Softwareanbieter/ISVs

Kunden fragen immer häufiger nach On-Demand Apps, die geräteübergreifend bereitgestellt und auf Basis standardisierter APIs erweitert und verknüpft werden können. Native Cloud-Applikationen - born in the cloud - bringen zudem eine integrierte Intelligenz hinsichtlich der Adressierung der zugrundeliegenden Infrastruktur mit. Das führt dazu dass weniger Managed Services zur Dienstbereitstellung erforderlich sind, die Integration sichergestellt ist und vor allem Energie und letztlich Kosten eingespart werden können.

Die besten Systemhäuser 2014 im Segment Managed Services
Managed Services - die besten Systemhäuser
Hier stellen wir Ihnen die Systemhäuser vor, die die besten Noten von ihren Anwendern im Segment Managed Services bekommen haben.
Platz 3: Bechtle
Note 1,90 <br/><br/> Vorjahr Ranking <br> Platz: 2 <br> Note: 2,03
Platz 2: Cancom
Note 1,59 <br/><br/> Vorjahr Ranking <br> Platz: 3 <br> Note: 2,41
Platz 1: MR Systeme
Note 1,21 <br/><br/> Vorjahr Ranking <br> Platz: - <br> Note: -

2. Systemhäuser und klassische Shared Domain Horster

Systemhauskunden suchen immer häufiger nach dem "Alles-aus-einer-Hand-Prinzip". Es werden neben der reinen HW- und SW-Lieferung, die immer häufiger durch XaaS abgelöst wird und eine geringere Marge abwirft, auch Beratungs-, Integrations- sowie Provider-Kompetenzen gefragt sein. Darüber hinaus ist IT heutzutage in Bezug auf Trends wie Big Data, Social Business, Security und Mobile Enterprise eng mit dem Business verzahnt. Ein holistischer Blick über eigene Kompetenzen oder enge Partnerschaften hinaus ist daher unerlässlich gegenüber reifen Kunden. Diese notwendige Weiterentwicklung des Geschäftsmodells wird zu einer weiteren Konsolidierung und zum Ausscheiden vieler unbeweglicher Marktteil­nehmer führen.

3. Outsourcing-Anbieter

Mit steigendem Grad der System-Autonomie auf Basis der zunehmenden IT-Durchdringung in wertschöpfenden Prozessen steigt die Abhängigkeit von der IT, die inzwischen Produktionsfaktor geworden ist. Gleichzeitig steigen auch das Verständnis und die Transparenz von IT, so dass alte Verträge mit Pauschalbeträgen und Flat-Tarifen für generische Leistungen keinen Kunden von morgen adressieren können. Verträge werden daher immer häufiger auf Basis von definierten und konkretisierten Paketen beziehungsweise Kontingenten aufgesetzt. Dadurch kann die Marge nur noch in wenigen, aber dafür geschäftsrelevanten Prozessen hoch bleiben.

4. Retailer

Die Handelsbranche ist mehr denn je dazu gezwungen, neue Absatz- und Kundenbindungskanäle zu evaluieren. Der Hype auf moderne E-Commerce-Plattformen ist ungebrochen, so dass der Markt förmlich von kleinen, flexiblen und kostengünstigen Web-Frontends überflutet wurde. Hierzu zählen beispielsweise Magento, Oxid und viele weitere wie beispielsweise das neue Spryker.

Gleichzeitig sind einige dieser jungen Lösungen zu standardisiert beziehungsweise nicht unbedingt in der Lage, über eine Modularität bereits vorhandene Teilsysteme in Enterprise-Umgebungen zu integrieren. Nicht selten sind diese Lösungen open-source-basiert und glänzen mit Kompaktheit sowie Corporate-Design-Anpassungsfähigkeit via Templates. Retailer müssen heutzutage die Spielregeln des Netzes kennen und Kunden Plattformen bieten, die nicht nur zentrale Produkt­verwaltung, Multi-Channel-Anbindung, zentrale Preis- und Rabattgestaltung und kollektive Massen­änderungen unterstützen.

Vorgehensweise bei Predictive Analytics-Projekten

5. Integration der neuen analytischen Methoden in die bestehenden Systeme.

4. Pilotprojekt/Prototyp: Auswertung der Daten in entsprechenden Vorhersagemodellen; Modelle und Analyse-Methoden werden ständig verfeinert, kombiniert und evaluiert, um die Qualität der Prognose zu verbessern.

3. Auswahl/Zuschneiden der Datensätze und Kombination mit externen Daten.

2. Business Case festlegen: Definition eines konkreten Ziels mit Kennzahlen (z.B. Umsatz um Summe x steigern, Fehlmenge reduzieren etc.), das mit Hilfe der Prognosen erreicht werden soll.

1. Analyse des Geschäftsmodells, der Geschäftsprozesse und der vorhandenen Daten.

Es gilt, über Mobile und Big Data Analytics Kundenwünsche spätestens im Augenblick des Entstehens und bestenfalls vor dem Entstehen aufzugreifen oder zu "erahnen". Als vertiefendes lohnt sich der Blick in die erneut wachsende eCommerce-Welt, in dem es keine Seltenheit ist stark angepasste Systeme über Re-Standardisierung aus verteilten Lokationen in die Neuzeit zu überführen und den Warenbestand und Faktura über das große Hybris im Backend laufen zu lassen. Damit Kunden nun unterwegs oder von zuhause mittels schicken Frontends ihre Kauflust befrieden können, müssen vor allem synchrone Prozesse performant sein - ansonsten verliert man den Kunden "on the fly".

Wer hat den Vorteil auf seiner Seite?

Disrutive Cloud Trends - eine Philosophie greift um sich

Cloud Computing hat nicht nur dafür gesorgt, dass der Bezug und Konsum von IT-Ressourcen sexy sein kann und immer häufiger wird. Die Philosophie hinter diesem Modell, das auf Virtualisierung von HW-Ressourcen und somit der Abstraktion der physisch greifbaren Welt basiert, prägt unsere Generation über weite Teile unserer Gesellschaft. Daher sollen die folgenden Schlagworte kennzeichnend für aktuelle Tendenzen einen kleinen Einblick in die Welt des Silicon Valleys geben.

Disruptive Trends aus der Cloud-Szene
Foto: Experton Group AG

Software-Defined Networks (SDN) waren im Prinzip der Anfang dieser neuen Generation von Ressourcen, die letztlich auf transparenten Schnittstellen und Virtualisierung die untersten Layer intelligenter und steuerbarer machten. Dieser Trend verbreitet sich zunehmend weiter nach oben in der Layer-Hierarchie und führt zu Software-Defined Datacenters und Multi-Cloud-Architekturen. IaaS wird dadurch zunehmend zur Commodity und mit PaaS als kontinuierlicher und automatisierter Integrationsplattform kombiniert. Der Trend zum Container Management verlangt zugleich auch nach neuen Tools zum Repository-bzw. API-Management für den Durchblick in den Mashups von morgen.

Die DevOps-Mentalität als Begrifflichkeit, die kurze Wege zwischen IT-Administration, Software- beziehungsweise Serviceentwicklung und letztlich Management beschreibt, steht für agile, integrierte und ganzheitliche Prozesse und natürlich für ein schnelles Go to Market.

In dieser Hinsicht dockt das Application-Centric/Agile Development als Paradebeispiel der Verzahnung von Meilensteinen mit kleinen gekapselten "Bröckchen" beziehungsweise Apps nahtlos an die Fabric-Based Datacenter-Struktur und die DevOps-Mentalität an. Das führt zu immer kürzeren Release-Zyklen und Fortschritten.

Der Trend wird durch API-Modularität über hardwarenah kommunizierende und sich selbst konfigurierende Container befeuert - APIs sind der kleinste gemeinsame Nenner der "d!conomy".

Open Source wird dabei in vielen Fällen zum Enabler oder zur Schlüsselkomponente für Innovationskraft. Der Code wird getrimmt, so dass das Ökosystem die Schleifarbeit und Fehlersuche übernimmt und für Anbieter zum Know-how-Lieferanten wird. Aus Community Editions werden SLA-konforme Enterprise Editions mit professionellem Support.

Hyper Converged Systems dienen als Cloud-Einstieg und führen zu einer Erhöhung der Standardisierung von Private Clouds bei Anwendern und auch Anbietern. Es bilden sich Hybrid Cloud Brückenkonstrukte.

Cloud Broker, integriert auf Basis von Cloud Management und iPaaS, konkurrieren inzwischen immer häufiger durch integrierte enterprise-konforme IT-Auslieferung mit häufig SaaS-zentrierten Marktplatzbetreibern.

Was bleibt

Die Cloud senkt nach wie vor nicht nur die eigenen Einstiegshürden deut­lich ab, sondern gibt darüber hinaus auch kleinen und mittelständischen Unternehmen die Chance, professionell gemanagte und hochskalierbare IT-Ressourcen zu überschaubaren und transparenten Konditionen im Vergleich zu Eigenerbringung zu nutzen. Sind Skills in den eigenen Reihen nicht ausreichend vorhanden, geht man den Weg mit einem Dienstleister.

Der Markt wird zunehmend digital und ist über Multi-Clouds miteinander verwoben. Die Frage "gehen wir in die Cloud?" stellt sich heute trotz zunehmender Sicherheitsrisiken nicht mehr. Man fragt sich heute vielmehr wie man es bewerkstelligt und findet zunehmend Lösungen für beinahe jeden noch so harten und mit Regularien behafteten Fall. Der gestiegene Reifegrad auf der Seite der Cloud Transformationsdienstleister führt dazu, dass sowohl Kunden mit Blick auf die Kosten als auch Kunden mit Wunsch nach Flexibilität beziehungsweise Agilität und auch Sicherheit fündig werden. (bw)