Technologischer Wandel

Bedarfssteuerung als neue Aufgabe der IT

04.09.2014 von André Kiehne
Bezug, Architektur und Steuerung von IT-Services unterliegen einem dramatischen Wandel – und stellen enorme Anforderungen an die Next-Generation-IT.
Vernetzung bedarf einer klugen Architektur. Operative Aspekte gewinnen in der Next-Generation-IT zunehmend an Bedeutung.
Foto: vallepu - Fotolia.com

Die Geschäftsziele von Unternehmen haben im globalen Wettbewerb meist eines gemeinsam: Sämtliche Abteilungen - nicht zuletzt die IT - sind angehalten, ihre Kostenstruktur zu optimieren. Die Informationstechnologie sieht sich dabei nicht nur wachsenden Ansprüchen auf Kundenseite und einem flexibler werdenden Wettbewerb gegenüber, sondern muss sich auch mit zunehmender Mobilität der Integration neuer Prozesse und den richtigen Antworten auf Big Data befassen.

All dies ist verbunden mit zusätzlichen Anforderungen an die Infrastruktur und das Rechenzentrum sowie mit wachsendem Druck auf vorhandene Prozesse, die effizienter und schneller werden müssen. Um dem gerecht zu werden, müssen Unternehmen ihren Fokus auf die drei zentralen Bereiche des Wandels legen - Bezug, Architektur, Steuerung - und ihre Next-Generation-IT daran ausrichten. So können sie Investitionskosten reduzieren und Kapazitäten für strategische Projekte zur Erreichung der Unternehmensziele freigeben.

Technologie: Modularität und Automatisierung

Im Zuge des technologischen Wandels verändert sich zunächst einmal der Bezug von Technologie. Als Käufer in einer mobilen Welt erwarten wir, einen (virtuellen) Shop zu betreten, eine Anwendung auszuwählen, eine Gebühr zu entrichten und die Anwendung dann direkt nutzen zu können. Wenn sie den Erwartungen entspricht, zahlen wir für zusätzliche Features. Wenn nicht, hören wir auf, die Dienstleistung oder Anwendung zu nutzen. Dieses Modell verlagert das Risiko auf die Händlerseite. Der Händler muss dem Kunden dauerhaft einen Mehrwert liefern - oder er geht leer aus.

Lösungen sind darüber hinaus modularer geworden. Software wird, wenn möglich, gänzlich unabhängig von der Hardware entwickelt, um Up- oder Down-Scaling zu ermöglichen. Sicherheit und Verfügbarkeit standen schon immer ganz oben auf der Anspruchsliste an IT-Services. Mit zunehmender Anzahl von geschäftskritischen Systemen suchen die Unternehmen aber noch verstärkt nach zeitlich unbegrenzter Verfügbarkeit und Support rund um die Uhr.

Im globalen Wettbewerb werden ständige Verfügbarkeit und Serviceleistungen immer wichtiger - im B2B- wie im B2C-Bereich.
Foto: cienpiesnf - Fotolia.com

Auch das Management des IT-Betriebs unterliegt einem starken Wandel. Einmal in den laufenden Prozess eingebunden, gibt es immer weniger Systemdiagnosen für die IT-Services oder -Anwendungen. Unternehmen gehen vielmehr dazu über, mit Hilfe von resultatorientierter Überwachung den Mehrwert zu identifizieren, den ein bestimmter Gesamtprozess dem Unternehmen liefert. Sie wollen möglichst viele der Prozesse, die für die Funktionsfähigkeit der Infrastruktur oder Anwendungen unerlässlich sind, automatisieren. Kunden wollen "Wegwerf-Server". Wird ein virtueller Server nicht mehr gebraucht oder ist er gar fehlerhaft, wird er heruntergefahren und im Anschluss gegebenenfalls eine neue Umgebung mit den gewünschten Anwendungen gestartet.

Virtualisierung braucht Standardisierung

Für die IT-Verantwortlichen heißt das, dass die Planung zunehmend wichtiger wird als die Wartung. Virtualisierung wird heute in vielen Unternehmen schon genutzt - Kosteneinsparungen werden aber nicht realisiert, weil der Umstieg zu oft mit einer erhöhten Komplexität einhergeht und die Kompetenzen fehlen, diese zu beherrschen. Die Integration von verschiedenen Dienstleistungen und Tools sowie das Einbetten von Prozessen in bestehende Strukturen, produzieren einen administrativen Mehraufwand, der in höheren Kosten und der Fehlallokation von qualifizierten Ressourcen resultiert. Unternehmen müssen ihre Kräfte darauf konzentrieren, die Rechenzentrumsinfrastruktur zu standardisieren und das Management dieser gesamten Infrastruktur zu vereinfachen.

Ein geringer Grad an Standardisierung bedeutet, dass die IT "auf gut Glück" verschiedene Konfigurationen für unterschiedliche Systeme entwickelt, um sie in den laufenden Betrieb zu integrieren. Damit ist eine zielgerichtete Virtualisierung nicht möglich, was wiederum die Kosten für die Aufrechterhaltung des Status Quo erhöht. Und in diese fließt heute der größte Teil des IT-Budgets. Weitere Probleme einer solchen Flickenlösung: nicht erfüllte Service-Level-Agreements und erhöhte Ausfallwahrscheinlichkeiten.

Next-Generation-Rechenzentrum

Oftmals ist zudem die Infrastruktur in Rechenzentren veraltet, während der Workload und die Datenmenge in nicht zu prognostizierendem Maße steigen. Dazu kommen die Fragen nach Energieversorgung und Kühlung sowie der Umstand, dass das vorhandene Netzwerk oftmals ungeeignet ist, mit der steigenden Anzahl von Mobilen Endgeräten, modernen Applikationen, steigendem Speicherbedarf und der Analyse der großen Datenmengen mitzuhalten.

Veraltete Rechenzentrumsstrukturen treiben die Kosten für Virtualisierungslösungen in die Höhe.
Foto: svedoliver - Fotolia.com

Dennoch: Die Bedeutung von Unternehmensdaten wächst zusehends. Ihre Überführung in Cloud-Modelle geschieht auf Grund von Sicherheitsbedenken aber nur langsam. Gleichzeitig steigt der Bedarf, Speicherkapazitäten von externen Dienstleistern managen zu lassen und Back-up-Systeme ebenfalls extern zu nutzen - je mehr, umso größer die zu verarbeitenden Datenmengen werden. Bei derartigen Lösungen ist es möglich, Cloud-Lösungen für zusätzliche Kapazitäten oder das Back-up einzuführen, und so das eigene Rechenzentrum zu entlasten.

Laut International Data Corporation (IDC)wünschen sich ohnehin 82 Prozent der Kunden, die ihre Umgebung erfolgreich virtualisiert haben, einen Partner, der diese Abläufe managt und in die Cloud überführt. Das gilt sowohl für Rechner- als auch für Speicherkapazitäten und nicht zuletzt für das Netzwerk, das den höheren Anforderungen gerecht werden muss, die mit Virtualisierung und Mobilität einhergehen.

Um den Herausforderungen an die Next-Generation-IT gerecht zu werden, spielt die Dokumentation operativer Best-Practice-Beispiele eine Schlüsselrolle, da die Abhängigkeit von optimierten Prozessen und klaren Schemata steigt. IT-Mitarbeiter müssen zunehmend Prozesse steuern, anstatt sich auf das Management von Technik zu konzentrieren. Maßgeblich ist dabei, dass die Ablaufumgebung immer mit Blick auf die vorhandene Infrastruktur optimiert und hinreichend automatisiert wird. (bw)