"Die Tage der IT, wie wir sie heute kennen, sind gezählt" - das sagt Karsten Kirsch, Geschäftsführer des Hamburger IT-Dienstleisters Direkt Gruppe. Und er begründet seine Einschätzung mit Erfahrungen, die wohl jeder Business-Anwender kennt: "Applikationen, die nur genutzt werden können, wenn sie in die vorhandene Infrastruktur passen, Server-Bereitstellungszeiten von Wochen oder Monaten und Workflows, die an der Unternehmensgrenze enden - das lassen sich die Business-Verantwortlichen nicht mehr bieten. Wenn die IT-Abteilung die geforderten Leistungen nicht bringen kann, ist sie aus dem Rennen." Diese Wahrnehmung teilt auch Carlo Velten, Marktanalyst und CEO der Crisp Research AG: "Wir hören immer öfter, dass CIOs nur eine Alternative haben: Entweder sie packen die Umstellung auf eine moderne IT-Infrastruktur jetzt an, oder sie können sich einen neuen Job suchen. Der Druck ist immens."
Was steckt hinter Software-defined Data Center?
Das Mittel der Wahl, mit dem die IT-Entscheider künftig die Forderungen der Business-Seite nach schnelleren, flexibleren Services erfüllen wollen, heißt "Software-defined Data Center (SDDC)". Doch was ist damit gemeint?
Auf den ersten Blick signalisiert der Begriff: Im Vordergrund stehen weiterhin die Technik und eine hermetische Form der IT-Organisation (Data Center). Warum also sollten Business-Verantwortliche heute glauben, dass die IT es jetzt ernst meint mit der Service-Orientierung? Überzeugen können jetzt nur noch konkrete Projekte, so Kirsch: "Wenn eine Versicherungs-IT innerhalb weniger Tage einen Proof of Concept auf die Beine stellt, der eine Zeitersparnis von 75 Prozent bei der Erstellung von rechenintensiven Berichten belegt, dann sieht das Business: Die haben verstanden." Möglich werden solche Projekte in einer Software-definierten Infrastruktur, die IT-Ressourcen unabhängig davon bereitstellt, auf welcher Hardware sie laufen und wo sie von wem betrieben werden. Kirsch spricht dabei von einer "Service-definierten Infrastruktur".
Offene IT-Konzepte liegt im Trend
Natürlich bleibt es die Aufgabe der IT, sich um die Technologie zu kümmern, die zur Umsetzung von Geschäftsprozessen erforderlich ist. Das zeigt auch die Crisp-Studie "Digital Business Readiness", in der mehr als zwei Drittel (68 Prozent) der Befragten erklärten, sie hielten "die Rechenzentrums-Infrastruktur für den wichtigsten Baustein der digitalen Transformation." Der Studie zufolge arbeiten diese Unternehmen allerdings an einer "Next-Generation Infrastructure", die weniger durch die Vorstellung von einem in sich geschlossenen Rechenzentrum als vielmehr durch offene Konzepte wie Cloud, Software-defined Networking (SDN), Automation, Modularisierung und Standardisierung geprägt ist.
Das Rechenzentrum von morgen wird programmiert
Das Vorgehen beim Aufbau einer solchen Infrastruktur unterscheidet sich nach Einschätzung von Carlo Velten grundsätzlich von dem bislang üblichen: "Der Administrator von heute programmiert seine Infrastruktur und bindet dabei unterschiedliche Cloud-Services mit ein, anstatt sich wie früher manuell durch unterschiedliche Konsolen zu klicken."
Beispielsweise stellen alle großen Cloud-Plattformen ein Set von Standard-Services, etwa für die Zuteilung von Speicherplatz, über eine API bereit. Mittels Skripting lassen sich diese Services so in durchgängige Unternehmensprozesse einbinden, dass beispielsweise bei Lastspitzen einzelner Anwendungen automatisch die benötigten zusätzlichen Ressourcen bei einem Cloud Provider freigeschaltet, überwacht und abgerechnet werden. Viele andere Deployment-, Konfigurations- und Monitoring-Prozesse, die unter anderem bei der Umsetzung von DevOps entscheidend sind, lassen sich ebenfalls auf diese Weise automatisieren. So haben Entwickler und Administratoren mehr Zeit für eine engere Zusammenarbeit, ohne ihre jeweiligen Kernaufgaben zu vernachlässigen.
Die Cloud-Denke ist noch nicht angekommen
Eine zentrale Rolle in der IT-Infrastruktur von morgen spielt das Cloud-Modell, egal ob als Private, Public oder Hybrid Cloud. Wer von den Vorteilen einer programmierten Infrastruktur profitieren will, muss nicht unbedingt in die Public Cloud gehen. Wichtig ist jedoch bei einer Private Cloud, das sie sich verhalten muss wie eine Public Cloud, so Velten: "Das Problem vieler Private Clouds in der Vergangenheit war, dass sie eigentlich nichts Anderes waren als eine virtualisierte Umgebung, in der ein Administrator statt physikalischer Server virtuelle Maschinen - mehr oder weniger manuell - verwaltet hat." Auf diese Weise konnten Unternehmen zwar bestehende Server-Ressourcen besser auslasten, aber mit der vom Business geforderten dynamischen Anpassung der Infrastruktur an die geschäftlichen Anforderungen hatte es wenig zu tun.
Warum das für immer mehr Unternehmen zu wenig ist, erklärt Karsten Kirsch so: "Die Herausforderung einer Versicherung beispielsweise ist es ja nicht, ihre IT möglichst effizient und sicher zu betreiben. Die Herausforderung besteht darin, Geschäftsmodelle zu entwickeln, die in einem völlig neuen Marktumfeld in den nächsten fünf oder zehn Jahren funktionieren und die Existenz des Unternehmens sichern. Und dazu muss die IT ihren Beitrag leisten."
Beispielhaft: Zalando
Diese Flexibilität bereitzustellen, erfordert einiges Know-how, wie Velten betont. Er verweist auf das Beispiel von Zalando: Der Berliner Online-Händler hat auf Basis verschiedener Open-Source-Tools ein eigenes Framework unter dem Namen Stups.io entwickelt, um standardisiert und Compliance-konform mit unterschiedlichsten Entwicklerteams auf AWS produktiv zu arbeiten. Diese Werkzeuge sind OpenSource, und auf der Github-Seite von Zalando frei verfügbar.
Die "IT-Kultur" muss sich ändern
Auf der technischen Ebene braucht ein SDDC vor allem eine Abstraktionsschicht, mit der sich so unterschiedliche Ressourcen wie Server-, Storage- und Netzwerk-Kapazitäten auf einer durchgängigen Plattform automatisiert verwalten lassen. Kirsch: "Mit Tools wie ServiceNow stehen die technischen Mittel dafür bereit. Noch wichtiger als die Technik ist jedoch, dass Unternehmen ihre Prozesse, Organisation und Kultur offen gestalten und Neues ausprobieren. Das bedeutet auch, grundsätzliche Einstellungen zu ändern, die Möglichkeit des Fehlers einzukalkulieren."
Auch Crisp-Analyst Velten sieht die Bereitschaft zum Wandel als entscheidenden Faktor für den Erfolg der IT von morgen: "Wir erleben in der Praxis, dass es vor allem beim Thema Automatisierung in vielen Firmen noch hakt. Da müssen zum Beispiel Patches immer wieder per Hand nachgezogen oder Firewalls manuell justiert werden." Unter solchen Bedingungen ist die IT nicht in der Lage, Businessanforderungen zu unterstützen, die innerhalb von Minuten oder Sekunden zusätzliche Kapazitäten benötigen, wenn beispielsweise eine Online-Marketing-Aktion besser läuft als erwartet.
Stattdessen dauert es Wochen oder Monate, Ressourcen für Services bereit zu stellen. Mit "Infrastructure as Code", wie Velten die Infrastruktur von morgen auch gern nennt, ist das durch automatische Freischaltung innerhalb von Tagen, Stunden oder auch in Nahezu-Echtzeit machbar. Und Berater Kirsch meint: "So geht Service-Orientierung." (hal)