Software-defined und Service-orientiert

Die IT-Infrastruktur der Zukunft

02.03.2016 von Uwe Kuell
Im Zeitalter von Software Defined Storage und -Networks erscheint es aus technischer Sicht nur logisch, im "Software-defined Data Center (SDDC)" die Zukunft der IT zu sehen. Doch wie passt das Konzept in die digitale Transformation der Wirtschaft?

"Die Tage der IT, wie wir sie heute kennen, sind gezählt" - das sagt Karsten Kirsch, Geschäftsführer des Hamburger IT-Dienstleisters Direkt Gruppe. Und er begründet seine Einschätzung mit Erfahrungen, die wohl jeder Business-Anwender kennt: "Applikationen, die nur genutzt werden können, wenn sie in die vorhandene Infrastruktur passen, Server-Bereitstellungszeiten von Wochen oder Monaten und Workflows, die an der Unternehmensgrenze enden - das lassen sich die Business-Verantwortlichen nicht mehr bieten. Wenn die IT-Abteilung die geforderten Leistungen nicht bringen kann, ist sie aus dem Rennen." Diese Wahrnehmung teilt auch Carlo Velten, Marktanalyst und CEO der Crisp Research AG: "Wir hören immer öfter, dass CIOs nur eine Alternative haben: Entweder sie packen die Umstellung auf eine moderne IT-Infrastruktur jetzt an, oder sie können sich einen neuen Job suchen. Der Druck ist immens."

Carlo Velten: "Mit Software-defined Infrastrukturen lassen sich auch komplexe Business-Prozesse innerhalb von Tagen, Stunden oder auch in Nahezu-Echtzeit aufsetzen und produktiv einsetzen."
Foto: Crisp Research

Was steckt hinter Software-defined Data Center?

Das Mittel der Wahl, mit dem die IT-Entscheider künftig die Forderungen der Business-Seite nach schnelleren, flexibleren Services erfüllen wollen, heißt "Software-defined Data Center (SDDC)". Doch was ist damit gemeint?

Karsten Kirsch: "Noch wichtiger als die Technik ist jedoch, dass Unternehmen ihre Prozesse, Organisation und Kultur offen gestalten und Neues ausprobieren."
Foto: Direkt Gruppe

Auf den ersten Blick signalisiert der Begriff: Im Vordergrund stehen weiterhin die Technik und eine hermetische Form der IT-Organisation (Data Center). Warum also sollten Business-Verantwortliche heute glauben, dass die IT es jetzt ernst meint mit der Service-Orientierung? Überzeugen können jetzt nur noch konkrete Projekte, so Kirsch: "Wenn eine Versicherungs-IT innerhalb weniger Tage einen Proof of Concept auf die Beine stellt, der eine Zeitersparnis von 75 Prozent bei der Erstellung von rechenintensiven Berichten belegt, dann sieht das Business: Die haben verstanden." Möglich werden solche Projekte in einer Software-definierten Infrastruktur, die IT-Ressourcen unabhängig davon bereitstellt, auf welcher Hardware sie laufen und wo sie von wem betrieben werden. Kirsch spricht dabei von einer "Service-definierten Infrastruktur".

SDDC
Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten."
Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können."
Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus."
Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“
Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."

Offene IT-Konzepte liegt im Trend

Natürlich bleibt es die Aufgabe der IT, sich um die Technologie zu kümmern, die zur Umsetzung von Geschäftsprozessen erforderlich ist. Das zeigt auch die Crisp-Studie "Digital Business Readiness", in der mehr als zwei Drittel (68 Prozent) der Befragten erklärten, sie hielten "die Rechenzentrums-Infrastruktur für den wichtigsten Baustein der digitalen Transformation." Der Studie zufolge arbeiten diese Unternehmen allerdings an einer "Next-Generation Infrastructure", die weniger durch die Vorstellung von einem in sich geschlossenen Rechenzentrum als vielmehr durch offene Konzepte wie Cloud, Software-defined Networking (SDN), Automation, Modularisierung und Standardisierung geprägt ist.

Das Rechenzentrum von morgen wird programmiert

Das Vorgehen beim Aufbau einer solchen Infrastruktur unterscheidet sich nach Einschätzung von Carlo Velten grundsätzlich von dem bislang üblichen: "Der Administrator von heute programmiert seine Infrastruktur und bindet dabei unterschiedliche Cloud-Services mit ein, anstatt sich wie früher manuell durch unterschiedliche Konsolen zu klicken."

Beispielsweise stellen alle großen Cloud-Plattformen ein Set von Standard-Services, etwa für die Zuteilung von Speicherplatz, über eine API bereit. Mittels Skripting lassen sich diese Services so in durchgängige Unternehmensprozesse einbinden, dass beispielsweise bei Lastspitzen einzelner Anwendungen automatisch die benötigten zusätzlichen Ressourcen bei einem Cloud Provider freigeschaltet, überwacht und abgerechnet werden. Viele andere Deployment-, Konfigurations- und Monitoring-Prozesse, die unter anderem bei der Umsetzung von DevOps entscheidend sind, lassen sich ebenfalls auf diese Weise automatisieren. So haben Entwickler und Administratoren mehr Zeit für eine engere Zusammenarbeit, ohne ihre jeweiligen Kernaufgaben zu vernachlässigen.

Die Cloud-Denke ist noch nicht angekommen

Eine zentrale Rolle in der IT-Infrastruktur von morgen spielt das Cloud-Modell, egal ob als Private, Public oder Hybrid Cloud. Wer von den Vorteilen einer programmierten Infrastruktur profitieren will, muss nicht unbedingt in die Public Cloud gehen. Wichtig ist jedoch bei einer Private Cloud, das sie sich verhalten muss wie eine Public Cloud, so Velten: "Das Problem vieler Private Clouds in der Vergangenheit war, dass sie eigentlich nichts Anderes waren als eine virtualisierte Umgebung, in der ein Administrator statt physikalischer Server virtuelle Maschinen - mehr oder weniger manuell - verwaltet hat." Auf diese Weise konnten Unternehmen zwar bestehende Server-Ressourcen besser auslasten, aber mit der vom Business geforderten dynamischen Anpassung der Infrastruktur an die geschäftlichen Anforderungen hatte es wenig zu tun.

Warum das für immer mehr Unternehmen zu wenig ist, erklärt Karsten Kirsch so: "Die Herausforderung einer Versicherung beispielsweise ist es ja nicht, ihre IT möglichst effizient und sicher zu betreiben. Die Herausforderung besteht darin, Geschäftsmodelle zu entwickeln, die in einem völlig neuen Marktumfeld in den nächsten fünf oder zehn Jahren funktionieren und die Existenz des Unternehmens sichern. Und dazu muss die IT ihren Beitrag leisten."

Cloud
Die Studienteilnehmer
222 Mittelständler nahmen an der Studie teil. Zwei Drittel davon planen mit allen Cloud-Modellen.
Teilnehmende Branchen
Der größte Anteil der Teilnehmer kommt aus dem produzierenden Gewerbe.
Rolle der Cloud
Die Zahl der "Cloud-Verweigerer" liegt heute bei nicht einmal mehr 15 Prozent.
Zukunft gehört Multi-Cloud-Umgebungen
Die Zukunft liegt in Hybrid- und Multi-Cloud-Ansätzen.
Gründe für Cloud-Initiativen
Die Kundenanforderungen lassen Mittelständlern keine Wahl: der Weg führt in die Cloud.
IT-Abteilung entscheidet
IT-Abteilungen haben in Sachen Cloud den Hut auf. Doch kleine Mittelständler haben oft keine, dort entscheidet der Chef selbst.
Cloud-Anteil am IT-Budget
Vier von fünf Mittelständlern investieren weniger als 30 Prozent ihres IT-Budgets in Cloud-Technologien.
Flexibilität ist Trumpf
Anwender möchten flexibler und agiler werden. der Kostenaspekt ist nicht ganz so wichtig.
Immer noch Sicherheitssorgen
Datensicherheit und Datenschutz bleiben die hemmenden Faktoren.
Sichtbare Fortschritte
Die meisten Betriebe sind entweder in der konkreten Planungs- oder bereits in der Implementierungsphase.
Das wandert in die Cloud
E-Mail und Collaboration sind die bevorzugten Cloud-Anwendungen.
Vorhandenes wird verlagert
Am häufigsten werden bestehende Workloads migriert.
Offenheit ist Auswahlkriterium
Ein Public-Cloud-Anbieter muss vor allem offen sein und Integrationsmöglichkeiten bieten.
Bevorzugte Anbieter
AWS, Microsoft und SAP genießen die höchste Aufmerksamkeit im Mittelstand.
Cloud-Management
Als Cloud-Management-Lösungen sind VMware-Lösungen besonders beliebt.
Verantwortung beim Provider
Wer in die Public Cloud geht, sieht die Verantwortung für Betrieb und Sicherheit schwerpunktmäßig beim Anbieter.
Wann Externe ins Spiel kommen
Integration, Betrieb und Architektur sind Themen, bei denen Mittelständler Hilfe suchen.
Wichtig: Skills und Projekterfahrung
Cloud-Integratoren sollten gute Leute und Projekterfahrung haben.
Keine Alleingänge
Anwender arbeiten mit Externen zusammen.

Beispielhaft: Zalando

Diese Flexibilität bereitzustellen, erfordert einiges Know-how, wie Velten betont. Er verweist auf das Beispiel von Zalando: Der Berliner Online-Händler hat auf Basis verschiedener Open-Source-Tools ein eigenes Framework unter dem Namen Stups.io entwickelt, um standardisiert und Compliance-konform mit unterschiedlichsten Entwicklerteams auf AWS produktiv zu arbeiten. Diese Werkzeuge sind OpenSource, und auf der Github-Seite von Zalando frei verfügbar.

Die "IT-Kultur" muss sich ändern

Auf der technischen Ebene braucht ein SDDC vor allem eine Abstraktionsschicht, mit der sich so unterschiedliche Ressourcen wie Server-, Storage- und Netzwerk-Kapazitäten auf einer durchgängigen Plattform automatisiert verwalten lassen. Kirsch: "Mit Tools wie ServiceNow stehen die technischen Mittel dafür bereit. Noch wichtiger als die Technik ist jedoch, dass Unternehmen ihre Prozesse, Organisation und Kultur offen gestalten und Neues ausprobieren. Das bedeutet auch, grundsätzliche Einstellungen zu ändern, die Möglichkeit des Fehlers einzukalkulieren."

Cloud-Studie
Deutsche Unternehmen sind startklar für die Cloud
Grundsätzlich sind deutsche Unternehmen gut vorbereitet für den Einsatz von CloudServices. Das hat die Studie "Cloud Readiness 2015" von COMPUTERWOCHE, CIO und TecChannel ergeben. Die Befragung von fast 700 Entscheidern hat aber auch gezeigt, dass es an einigen Stellen noch Defizite gibt.
Minderheit mit Cloud-Readiness-Check
Haben Sie Ihr Unternehmen einem Cloud-Readiness-Check unterzogen?
Einstufung Cloud Readiness
Bitte stufen Sie Ihr Unternehmen in Sachen „Cloud Readiness“ ein!
Ausstiegsszenarien
Haben Sie in Ihrem Unternehmen geklärt, wie IT-Verfahren und die zugehörigen Daten wieder aus der Cloud geholt werden können?
Hindernisse
Was sind in Ihrem Unternehmen die größten Hindernisse für die Nutzung von Cloud-Services?
Cloud-Readiness-Studie 2015
Den ausführlichen Berichtsband zur Studie mit allen Ergebnissen und Daten können Sie über unseren Shop beziehen:

Auch Crisp-Analyst Velten sieht die Bereitschaft zum Wandel als entscheidenden Faktor für den Erfolg der IT von morgen: "Wir erleben in der Praxis, dass es vor allem beim Thema Automatisierung in vielen Firmen noch hakt. Da müssen zum Beispiel Patches immer wieder per Hand nachgezogen oder Firewalls manuell justiert werden." Unter solchen Bedingungen ist die IT nicht in der Lage, Businessanforderungen zu unterstützen, die innerhalb von Minuten oder Sekunden zusätzliche Kapazitäten benötigen, wenn beispielsweise eine Online-Marketing-Aktion besser läuft als erwartet.

Stattdessen dauert es Wochen oder Monate, Ressourcen für Services bereit zu stellen. Mit "Infrastructure as Code", wie Velten die Infrastruktur von morgen auch gern nennt, ist das durch automatische Freischaltung innerhalb von Tagen, Stunden oder auch in Nahezu-Echtzeit machbar. Und Berater Kirsch meint: "So geht Service-Orientierung." (hal)