Diesen Artikel bewerten: 

Cloud und On-Premise

Die größten Mythen rund um die Cloud - Teil 2

Bert Schulze leitete das Co-Innovations Programm für SAP S/4HANA. Zuvor war er Mitglied des globalen SAP Kunden- und Marktstrategie-Teams der SAP Cloud Business Unit. Bert Schulze hat umfangreiche Erfahrungen in der Zusammenarbeit mit Kunden in verschiedenen Rollen als Lösungsarchitekt, im Business Development und der Leitung Internationaler Vertriebsorganisationen. Dies ermöglicht ihm, Markt- und Kundenanforderungen zielgerichtet zu analysieren. Er ist regelmäßig Sprecher auf nationalen und internationalen Konferenzen zu IT- und Business-Strategie. Seine Kernkompetenzen sind Cloud Lösungen, IT-Strategien und Simplifizierung von Enterprise Prozessen, Platformen, Social Media und hybride Konzeptionen. Bert Schulze ist diplomierter Maschinenbauingenieur (Dipl.-Ing.) und Wirtschaftsingenieur (Dipl.-Wirt.-Ing.).
Cloud ist ein technisches Liefermodell mit Vor- und Nachteilen. Wir beleuchten die "Cloud-Qualitäten", welche sich auch auf andere technologische Liefermodelle wie "On-Premise" übertragen lassen.

Cloud ist nicht der ultimative Ansatz für alle Probleme, sondern wird heute realistisch betrachtet und als ein technisches Liefermodell mit all seinen Vor- und Nachteilen wahrgenommen. Wir möchten deshalb die "Cloud-Qualitäten" beleuchten, welche sich auch auf andere technologische Liefermodelle, wie beispielsweise "On-Premise" (Eigenbetrieb der Lösung), übertragen lassen.

Denn hier können Kunden auch mit traditionellen Betriebsmodellen von den Erfahrungen und Erkenntnissen aus zwei Dekaden Cloud Computing profitieren. Im ersten Teil der Serie sind wir bereits einigen Aspekten auf den Grund gegangen. Heute schauen wir in die nächsten Mythen hinein.

Mythos 4: Nur in der Cloud können Unternehmen ihre Geschäftsprozesse schnell genug anpassen

Umfrage zu CRM in der Cloud

Die digitale Transformation hat weltweit Geschäftsmodelle massiv umgekrempelt. Die technologisch induzierte Veränderung hat viele etablierte Unternehmen und Bereiche sowie deren Geschäftsmodelle transformiert - man denke beispielsweise an die Taxibranche und den Internetkonzern Uber. Können Unternehmen sich heute also nicht mehr schnell genug an Veränderungen anpassen, drohen sie von neuen Herausforderern im Zuge der digitalen Transformation überrannt zu werden und ggbfs. in der Bedeutungslosigkeit zu verschwinden.

Weltweit sind sehr konkret zwischen dem Jahr 2000 und 2010 über 50% der "Fortune-500"-Firmen aus eben dieser Liste wieder verschwunden. Sie wurden überholt von anderen, erfolgreicheren Unternehmen. Dabei wird das Zeitfenster, sich an Veränderungen anzupassen, für Unternehmen immer kürzer. Wenige Monate können hier bereits ganze Geschäftsmodelle umkrempeln - Tendenz weiter fallend.

Eine tiefgreifende und schnelle Anpassung an den Wandel der digitalen Transformation erfordert auch eine Anpassung der Softwaresysteme. Traditionell gelten Anpassungen in der Cloud als schneller umsetzbar im Vergleich zu "On-Premise"-Systemen. Der Kunde hat in der Cloud vergleichsweise wenig Aufwand. Vorrausetzung dafür ist, dass alle Prozesse sich im Cloud-Standard abbilden lassen und dort bestenfalls schon vorkonfiguriert sind.

Foto: SAP SE

Selbstbetriebene Systeme sind hingegen häufig historisch gewachsen, was zu einer gewissen Komplexität und Unübersichtlichkeit führt, die oft mit viel Aufwand am Laufen gehalten werden muss. Soll die "On-Premise" Software verändert werden, müssen Schnittstellen und Erweiterungen überprüft werden. Dies kostet viel Zeit und Aufwand, da in der Regel architektonisch weniger sauber konzipiert wurde und der Betreiber (der Kunde) mehr Freiheitsgrade hatte. Zudem sind häufig diejenigen, die das System ursprünglich eingeführt haben, nicht mehr im Unternehmen oder in anderen Rollen.

Um für "On-Premise" Kunden Softwareanpassungen und Upgrades zu vereinfachen, werden Einführungs- und Anpassungskonzepte aus der Cloud auf verschiedene Liefermodelle übertragen und schaffen so ganz neue Konzepte für eigenbetriebene Systeme (On-Premise).

Am Beispiel "SAP Activate" kann man verdeutlichen, wie solche Transformationen funktionieren. Das Konzept besteht im Wesentlichen aus drei Bausteinen:

Foto: SAP SE

Die Inhalte liefern Pakete, die sich an "Best Practices" orientieren und einsatzbereite Geschäftsprozesse für ein ERP-System beinhalten. Solche vorkonfigurierten Pakete werden mit der Software oder dem Service direkt ausgeliefert. Diese Konfigurationspakete können genutzt werden, um die Software schnell und einfach zu implementieren. Individuelle Anpassungen können vorgenommen werden, aber ein Grund-Setup ist bereits bei Auslieferung vorhanden.

Mit dem Baustein "Guided Configuration" (also eine geführte Konfiguration) können über einfache Benutzeroberflächen Geschäftsprozesse individuell konfiguriert werden. Das Anpassen wird dabei in Form von Dialogen, einheitlichen Strukturen und einem lernenden System unterstützt. Die technische Umsetzung wird durch vordefinierte, automatisierte Rückverfolgung im Hintergrund unterstützt und mitverfolgt. Das erleichtert spätere Änderungen enorm und erhält die Agilität aufrecht, die man auch später haben möchte.

Die dritte Säule besteht aus einer einheitlichen Methodik für alle Erweiterungen, Anpassungen, Updates und Projekte. Alle Schritte werden aus verschieden Perspektiven, aber einheitlich, beschrieben. So wird Transparenz und Struktur gewonnen. Die Abstimmung innerhalb des Projektes wird vereinfacht und verkürzt. Alle Aufgaben, Diskussionen und Ziele beziehen sich auf die gleiche Grundlage. Kunden (und Partner) können ihre eigenen Erweiterungen in die Methodik miteinbringen.

Diese strukturellen Unterstützungen waren bisher nur in Cloud-Systemen bekannt und finden zunehmend Einzug in alle Systeme, unabhängig von der Bereitstellungsmethodik.

Mythos 5: Nur in der Datenwolke werden verkürzte Entwicklungszyklen für beschleunigte Innovationszyklen herangezogen

In der digitalen Transformation werden diejenigen Unternehmen erfolgreich sein, die technologische Innovationen schnell nutzen können. Nur so können Unternehmen ihr Geschäft transformieren, um im Wettbewerb zu bestehen und sich mit neuen Produkten und Dienstleistungen neue Potentiale zu erschließen. Software muss dabei die Unternehmen befähigen, Innovationen schnell und einfach zu adaptieren und Änderungen voranzutreiben.

In traditionellen selbstbetriebenen Systemen wurden neue Features, Updates und Erweiterungen oft nur sehr zögerlich adaptiert. Zum einen liegt dies daran, dass der Aufwand für die Upgrades beim Kunden liegt und entsprechende Ressourcen eingeplant werden müssen, zum anderen liegt es an den langen Entwicklungszyklen, die traditionell üblich sind. Mit den langen Entwicklungszeiten verbunden ist die Erwartung an viel neue Funktionalität zum nächsten Release. Das wiederum verlängert Testzyklen und umfangreichere Vorbereitungen beim Kunden für das nächste Release. Ein Teufelskreis, der zu langsamen Adaptionszyklen von Innovation führt.

Foto: SAP SE

Eine Praxis, die sich Unternehmen im Zeitalter der digitalen Transformation nicht mehr leisten können.

Im Umkehrschluss folgt aus der langsamen und schrittweisen Adaption ein fundamental differierendes Muster für Regressionstests. Mit der Bereitstellung eines Cloud-Upgrades erfolgt immer unmittelbar eine vollständige Adaption in der installierten Basis, denn die Cloud kennt per Definition keinen alten Quellcode. Jeder Kunde ist immer auf dem aktuellsten Release. Somit haben zunächst Cloud-Hersteller neue Entwicklungsmethoden adaptiert.

Heute ist das allerdings kein spezielles Cloud-Merkmal mehr, sondern "state-of-the-art" und wird damit zu einem Mythos.

Entwickelt wird heute beispielsweise in DevOps (Development & Operations) Modellen. Kurze Entwicklungszyklen, die an jedem Taktende lauffähige Software erzeugen, welche direkt umfangreichen Regressionstests unterzogen werden stehen im Gegensatz zu klassischen Modellen, bei denen einer Anforderungsaufnahme ein einziger langer Entwicklungszyklus folgte.

Foto: SAP SE

Es erfolgt eine Homogenisierung der Entwicklungs-, Test- und Produktivlandschaften, technisch unterstützt durch eine Automatisierung der Infrastruktur, Feedback kann schon zu einem frühen Zeitpunkt eingearbeitet werden und Innovationen schneller bereitgestellt und adaptiert werden.

Mythos 6: Nur die Cloud lässt sich nahezu unendlich skalieren

In einer digitalisierten Welt sind Unternehmen kontinuierlich damit beschäftigt, ihre IT Landschaft auf die wachsende Geschwindigkeit und die steigenden Datenmengen anzupassen. Die Skalierung der Systeme wird zu einer strategischen Herausforderung.

In der Cloud lassen sich Speicherplatz und zusätzliche Funktionen oder Accounts für neue Nutzer einfach mit ein paar Klicks hinzubuchen und wieder entfernen. Dabei gilt der "pay per use" Ansatz - der Kunde bezahlt nur, was er auch nutzt. Der Cloud-Anbieter ist verantwortlich, die dafür notwendige Infrastruktur bereitzustellen und erreicht seinerseits über die wachsende Adaption Skaleneffekte, die einzelne Kunden nicht erreichen können.

Im Vergleich dazu ist die Skalierung von On-Premise Systemen ungleich aufwendiger, weil sie in der Hand des einzelnen Kunden liegt.

Nun ist natürlich klar, dass man hochskalierende virtualisierte Landschaften tatsächlich nur in IaaS (Infrastruktur as a Service) Modellen erreichen kann, in den letzten Jahren konnte man allerdings technologische Entwicklungen beobachten, die auch klassische Betriebsszenarien unterstützen. Wir haben eine dieser Entwicklungen bereits im Mythos 2: Reduzieren der Betriebskosten und Skalierung der Ausgaben sind nur durch ein Abo-Model möglich unter dem TCO Aspekt betrachtet. Jedoch spielt in-memory Technology auch eine wichtige Rolle bei der Skalierung von Systemen. Eigenbetriebene Systeme erreichen auf traditionellen Datenbanken schnell eine nur schwer handhabbare Größe und der Durchsatz in den Systemen wird primär durch Schreib- und Lesevorgänge entscheidend limitiert.

Foto: SAP SE

Entscheiden dabei sind die Aggregat- und Indextabellen, die bisher verschiedene Sichten auf den einzelnen Beleg abgebildet haben. Diese werden in der neuen Architektur nicht mehr benötigt. Bei den darunterliegenden Datenstrukturen kann dadurch aufgeräumt, zusammengelegt und vereinfacht werden.

Denn eine In-Memory-Datenbank kann am besten mit breiten Tabellen arbeiten. Tabellen, die man früher notwendigerweise verschachtelt hat, legt man heute zusammen. Solche Maßnahmen helfen, bei konstanten Belegenzahlen und Prozessen den tatsächlichen Durchsatz um Faktoren zu reduzieren und Skalierung und Agilität zurückzugewinnen, wie sie früher nur in Cloud-Modellen über skalierende Hardware verfügbar gemacht werden konnte.

Durch Kompressionsverfahren werden zudem Reduktionen in der Datenbankgröße erreicht, was eine weitere Skalierung unterstützt.

Ich hoffe, mit dem zweiten Beitrag zur Serie weitere Cloud-Mythen erfolgreich entmystifiziert zu haben und freue mich auf Ihre Fragen und Ihr Feedback. Sie können mir auch gerne unter @BeSchulze auf Twitter folgen.