Gartner propagiert agiles Unternehmen

09.11.2004
Um schneller auf Marktveränderungen reagieren zu können, müssen Unternehmen ihre IT-Infrastruktur radikal umbauen, fordern die Analysten.

Zu teuer, zu komplex, zu inflexibel - so charakterisiert Gartner die IT-Infrastruktur in den meisten Unternehmen. Keine gute Nachricht für die rund 3000 Besucher des Symposiums Itxpo in Cannes. Gleich zu Beginn der jährlich stattfindenden Veranstaltung dämpfte Forschungschef Peter Sondergaard auch noch die ohnehin zarte Hoffnung auf einen Aufschwung in der IT-Branche: "Die Wachstumserwartungen für IT-Ausgaben bleiben moderat."

Schlimmer noch: Westeuropa hinke dem Rest der Welt hinterher. Gemessen in nationalen Währungen prognostizieren die Marktforscher für 2005 eine Zunahme der IT-Investitionen um magere zwei Prozent gegenüber fünf Prozent weltweit. Im laufenden Jahr werden die Ausgaben sogar um 3,8 Prozent zurückgehen.

Den Sparkurs der Europäer hält Sondergaard für falsch. Weil sich die Marktbedingungen immer schneller veränderten, müssten Unternehmen mehr in Technologien investieren, die einen raschen Wandel ermöglichten. Veränderungen im Bereich der Software könnten dazu am meisten beitragen.

Übersetzt in die Sprache der IT-Spezialisten lautet die zentrale Forderung der Analysten: Aufbau einer Service-orientierten Architektur (SOA). Sie ermögliche es, Software als eine Menge von Modulen zu betrachten, erläuterte Yvonne Genovese, Expertin für Business-Anwendungen. Die Softwaremonolithen der Vergangenheit würden zerlegt in kleine, rasch veränderbare Teilsysteme. Ihr Kollege Howard Dresner sieht gar einen Prozess der "kreativen Zerstörung", der die Art und Weise, wie Software entsteht und eingesetzt wird, nachhaltig verändere.

Nicht wenige IT-Verantwortliche dürften sich dabei an die nicht eingelösten Versprechen erinnert haben, die die Industrie einst mit Konzepten wie der Common Object Request Broker Architecture (Corba) oder dem Distributed Common Object Model (DCOM) gegeben hat. Die Idee, Software in Komponenten aufzuteilen, ist nicht neu, konzedierte denn auch Gartner-Analyst Jeff Comport in der Eröffnungspräsentation. Doch eine SOA unterscheide sich von ähnlichen Ansätzen der Vergangenheit: So könnten künftige "Software Services" tatsächlich herstellerunabhängig arbeiten, gleichgültig an welchem Ort im Netz sie vorgehalten würden. Mit Hilfe einheitlicher Spezifikationen wie den diversen Web-Services-Standards könnten Systemverantwortliche Module verschiedener Anbieter je nach Bedarf zu "Composite Applications" zusammenbauen und auf diese Weise etwa veränderte Geschäftsprozesse abbilden. Die so gewonnene Flexibilität trage wesentlich zur Agilität eines Unternehmens bei.

In der Praxis kämpfen die meisten IT-Manager mit einem Wust an komplexen Altanwendungen, deren Ablösung oder Aufspaltung schon aus finanziellen Gründen häufig nicht in Betracht kommt. Solche Legacy-Anwendungen gelte es, mit Hilfe von Wrapping-Techniken in die neue Architektur einzubinden, führte Genovese aus. Ein weiteres Problem stellten die unterschiedlichen Datenbestände in Unternehmen, Abteilungen oder Tochtergesellschaften dar. Um sie für SOA-Anwendungen nutzbar zu machen, müssten IT-Verantwortliche Metadaten, sprich "Daten über Daten", generieren.

Best of Breed lebt

Für die Softwarehersteller bringe der Wandel zur SOA weitreichende Konsequenzen mit sich, prognostiziert Gartner. IT-Manager würden künftig nicht mehr bei einem einzigen Anbieter kaufen, sondern sich aus einem "Ökosystem" aus mehreren Herstellern bedienen. Weil diese jeweils unterschiedliche Komponenten des für SOA benötigten Software-Stacks anböten, ergebe sich in vielen Fällen eine wechselseitige Abhängigkeit. Zwar hätten Konzerne wie IBM, SAP oder Microsoft dabei die besten Karten. Doch auch andere Player, darunter Siebel, Sun oder Hewlett-Packard, könnten wichtige SOA-Komponenten liefern. Wer letztlich die dominierende Rolle im Ökosystem spielt, werde in einer erbitterten Schlacht entschieden, prophezeien die Auguren.

Warum die schöne neue Servicewelt auch eine adäquate technische Basis erfordert, erklärte Gartner-Analyst Thomas Bittman. Er nennt sie Realtime Infrastructure (RTI): Virtualisiert, automatisiert und verbunden soll sie sein, um in Echtzeit wirtschaftliche Veränderungen identifizieren und selbständig darauf reagieren zu können. Gartner schlägt hier die Brücke zum bereits 2002 vorgestellten Konzept des Realtime Enterprise (RTE), das auf eine drastische Beschleunigung von Kernprozessen zielt.

Nimmt man Bittmans Einschätzung der aktuellen Lage zum Maßstab, scheinen die Unternehmen auf diesem Weg noch nicht allzu weit vorangekommen zu sein: "Die bestehenden IT-Infrastrukturen sind teuer, komplex und unzuverlässig." Veränderungen nähmen zu viel Zeit in Anspruch. Immerhin hätten viele IT-Verantwortliche das Problem erkannt. Der Aufbau einer flexiblen und effizienten Infrastruktur genieße oberste Priorität, wie eine Umfrage unter rund 900 CIOs ergeben habe. Die Ausgaben für die Infrastruktur verschlingen nach Gartner-Schätzungen mindestens 70 Prozent der IT-Budgets.

Doch der Wandel lässt sich nicht über Nacht bewerkstelligen, gibt Bittman zu bedenken: "Wir reden von einer Aufgabe für die nächsten zehn Jahre." Innerhalb der Echtzeit-Infrastruktur bestimmten geschäftliche Vorgaben - Gartner nennt sie "business policies" - und Service-Level-Agreements die automatische Konfiguration der IT-Ressourcen. Den Schlüssel dazu liefern Virtualisierungstechniken, die die Grenzen zwischen verschiedenen IT-Ressourcen aufheben.

Bis zum Jahr 2010 wird sich nach den Vorstellungen der Analysten ein Meta-Betriebssystem ("Meta OS") zum zentralen Bestandteil der RTI entwickelt haben. Dabei handelt es sich um eine Virtualisierungsschicht zwischen Anwendungen und verteilten IT-Infrastrukturkomponenten. Zu Letzteren zählen etwa Server, Speicher und zugehörige lokale Betriebssysteme. Neben dem Meta-Betriebssystem benötige RTI eine Art Workload Manager, der sicherstellt, dass Applikationen stets die benötigten Ressourcen zugewiesen bekommen. In der Gartner-Diktion übernimmt diese Aufgabe ein "Service Governor".

Wer diese zentralen Komponenten liefert, entscheide sich in einem harten Konkurrenzkampf der IT-Hersteller, so die Prognose. Die Anbieter verfolgten dabei unterschiedliche Ansätze. So konzentriere sich etwa IBM mit seiner "On-Demand"-Initiative vorrangig auf Prozesse und Beratung. Hewlett-Packard (HP) stelle zwar mit "Adaptive Enteprise" Infrastrukturaspekte in den Vordergrund. Das damit verbundene Versprechen aber gleiche dem IBMs. In der zweiten Reihe sieht Bittman Hersteller wie Sun mit "N1 Grid" und Veritas mit "Utility Now". Auch Microsoft ziele mit seiner "Dynamic Systems Initiative" in diese Richtung.

Deutliche Kostenvorteile

Für die Anwender lohnt sich der Einsatz von RTI-Techniken auch in finanzieller Hinsicht, argumentiert Bittman. So ließen sich die jährlichen Data-Center-Kosten (Hardware, Software, Personal) für Unix-Server um 13 Prozent senken, die für Windows-Server sogar um 37 Prozent.

IT-Virtualisierung und die Entwicklung einer Service-orientierten Architektur zählen für Gartner zu den fünf wichtigsten Techniktrends bis zum Jahr 2010 (siehe Kasten "IT-Trends bis 2010"). Auf dem Weg zur Realtime-Infrastruktur wandelten sich zudem immer mehr Produkte zu Dienstleistungen, erläuterte Steve Prentice, Forschungschef für den Bereich Hardware und Systeme. Nicht mehr der physische Besitz von Produkten stehe im Vordergrund, sondern der Einkauf von Services.

Unterstützt werde das agile Unternehmen auch durch den Trend zur drahtlosen Welt, so der Analyst. In vielen Organisationen entständen bereits"hybride Netze", die die Vorteile von Funktechniken mit geringer Reichweite, beispielsweise Bluetooth oder Zigbee, mit denen breitbandiger Verbindungen wie Ultrawideband kombinierten.

Der private Kunde im Visier

Trotz des Nutzens der IT im Profimarkt rücke für die Industrie immer stärker der private Kunde in den Mittelpunkt, beschrieb Prentice einen weiteren Megatrend. Schon jetzt mache der Verkauf von Halbleiterprodukten für Consumer-Geräte rund 45 Prozent des weltweiten Absatzes aus. Dieser Wert werde bis zum Jahr 2013 auf mehr als 50 Prozent steigen. Prentice: "Den größten Einfluss auf Produkteigenschaften, Lebenszyklen und Kosten werden künftig nicht mehr geschäftliche Anforderungen, sondern die Bedürfnisse der Konsumenten haben."