Raus aus der Kostenfalle

12.09.2005
Von Margot Weigl 
Nach wie vor steht die IT unter dem Spardiktat. Eine Kombination aus klassischem Service-Management und Analyse-Tools liefert die nötigen Einblicke in die IT-Infrastruktur, um Technikbudgets zu verteidigen.

Angesichts der knappen IT-Etats fällt es oft schwer, Ausgaben für den Erhalt der technischen Infrastruktur zu rechtfertigen. Zudem stehen CIOs heute vor der Herausforderung, den Wert der IT in konkreten Zahlen darzustellen. Das geht weit über die Aufgabenstellung der vergangenen Jahre - mit weniger mehr zu leisten - hinaus. Umso wichtiger ist es, neue Ansätze für eine optimierte und kosteneffiziente IT-Infrastruktur zu entwickeln. Ein mehrstufiges Modell, nach dem Daten aus unterschiedlichsten Unternehmensbereichen konsolidiert, analysiert und zudem "Was-wäre-wenn"-Szenarien erstellt werden, liefert eine verlässliche Grundlage für IT-Investitionsentscheidungen.

Hier lesen Sie …

• wie die IT ihre Kosten besser kontrollieren kann;

• wie CIOs eine verlässliche Grundlage für IT-Investitionsentscheidungen erhalten;

• wie sich die IT-Infrastruktur auf eine automatisierte Entscheidungsoptimierung vorbereiten lässt.

Mehr zum Thema

www.computerwoche.de/go/

*80529: Auf Kostendruck folgt Outsourcing;

*78731: Zaghafter IT-Einsatz kommt teuer;

*74687: Studie/IT-Budgets;

76300: Wege aus der Kostenfalle.

Haifischbecken Budget

In vielen Unternehmen genehmigt der Finanzvorstand Investitionen nur dann, wenn sich deren unmittelbarer Geschäftsnutzen nachweisen lässt. Zudem treten externe Dienstleister mit Optimierungsmodellen an Firmen heran und versprechen, die Ausgaben deutlich zu senken. Erhält ein IT-Verantwortlicher nun die Vorgabe, die Ausgaben etwa um zehn Prozent zu reduzieren, weiß er oft nicht, wo er den Rotstift zuerst ansetzen soll. Kürzungen an einer Stelle verursachen womöglich Störungen oder Ausfälle an einer anderen. Die langfristigen Konsequenzen sind häufig kaum absehbar.

Um sicherzugehen, dass bei einer Entscheidung alle relevanten Faktoren berücksichtigt werden, muss die IT-Infrastruktur so transparent wie möglich sein. Nur wenn potenzielle negative Auswirkungen von Budgetkürzungen bekannt sind, kann man diesen vorbauen. Aus diesem Grund muss ein Unternehmen den Investitionsfluss entlang der Wertschöpfungskette zurückverfolgen können - von der eingesetzten Hard- und Software über den Anwender bis hin zu den Dienstleistungen. Zudem ist der Nutzen einer Investition zu dokumentieren. Dieser kann sich beispielsweise in verbesserten Geschäftsprozessen, höherer Kundenzufriedenheit oder der zuverlässigen Einhaltung rechtlicher Vorgaben widerspiegeln.

Fakten, Fakten, Fakten

Der erste Schritt auf dem Weg zur dahingehend optimierten IT ist die Bestandsaufnahme der vorhandenen Hard- und Software. Laut einer aktuellen Studie von AMR Research liegen etwa 46 Prozent der Softwarelizenzen in den Unternehmen brach. Und das, obwohl diese nach Schätzungen der nun zu Gartner gehörigen Meta Group im Schnitt 25 Prozent der IT-Bugdets verschlingen. Um solche Geldfresser aufzuspüren, müssen Daten aus Leasing-, Lizenz- und Wartungsverträgen sowie aus Garantie- und Service-Vereinbarungen aufgenommen und mit den Nutzerdaten verknüpft werden. Hilfestellung bei einer solchen prozessorientierten IT-Strukturierung bietet die IT Infrastruktur Library (Itil). Sie enthält unter anderem Empfehlungen für die Gestaltung von Abläufen in einer geschäftsorientierten IT-Organisation. Die Best-Practices-Sammlung liefert den Rahmen für geregelte replizierbare Vorgehensweisen und Prozesse im IT-Service-Management. So lassen sich effiziente Abläufe definieren und Kosten langfristig senken.

Konsolidieren und analysieren

In einem nächsten Schritt gilt es, alle entscheidungsrelevanten Daten zu Systemausfällen, Personalplanung, Service-Level-Vereinbarungen und -Zielsetzungen sowie IT-Performance zueinander in Bezug zu setzen. Dazu werden sie aus unterschiedlichen Quellen in einer Datenbank konsolidiert, sodass sie eine Gesamtübersicht über alle Konfigurations- und Beziehungsebenen der IT-Infrastruktur ergeben.

Um Aktualität und Qualität der Informationen sicherzustellen, sind wiederum Daten aus dem Netz sowie aus Systemen und Anwendungen zu verknüpfen. So werden automatisch neue Informationen aus den unterschiedlichsten Quellen zusammengetragen und abgeglichen.

Auch Leistungsfähigkeit und Trends der IT lassen sich analysieren. Das heißt: Der IT-Verantwortliche erhält einen Überblick darüber, wann welche Lizenzen auslaufen und welche Programme von den Mitarbeitern tatsächlich noch genutzt werden. So kann er frühzeitig erkennen, zu welchem Zeitpunkt und auf welche Weise er aktiv werden muss. Hier helfen Analysefunktionen, wie sie Business Intelligence-Tools (BI) bieten: Sie sammeln detaillierte Daten aus Service- und System-Management oder ERP-Lösungen und konsolidieren die daraus gewonnenen Informationen zu Systemverhalten sowie Auswirkungen von Anforderungen oder Veränderungen. Daraus ergibt sich eine Liste von Geschäftsvariablen, die sich dann je nach Bedarf analysieren lassen.

Mit Hilfe solcher Analysen erkennt ein IT-Verantwortlicher beispielsweise, dass er seine Ausgaben um fünf Prozent senken kann, indem er die Austauschzyklen einiger Hardware-Komponenten verlängert und die Zahl der Service-Level-Agreements (SLAs) mit niedrigerer Priorität reduziert.

Reine BI-Funktionen reichen angesichts der Komplexität heutiger IT-Infrastrukturen allerdings nicht mehr aus. Um dem IT-Verantwortlichen einen echten Einblick in die Auswirkungen von Investionen, Veränderungen und Streichungen zu geben, ist eine Kombination aus Analyse, Prognose und Szenarienbildung notwendig. Kreditkarteninstitute beispielsweise nutzen diese schon seit geraumer Zeit, um Kartenmissbrauch vorzubeugen: Jeder Karteneinsatz wird analysiert und im Kontext des Nutzerprofils sowie der Millionen anderen Transaktionen, die dem Institut vorliegen, bewertet. Entspricht die Transaktion einer zuvor als Missbrauch definierten Regel, kann sie verweigert werden. Dieser Prozess läuft automatisch ab und dauert nur wenige Sekunden. Auf diese Weise konnten die Kreditkarteninsitute sowohl das Vertrauen der Kunden stärken als auch die Missbrauchrate von 18 Prozent im Jahr 1991 auf heute unter acht Prozent reduzieren.

Die optimale IT-Infrastruktur

Viele Firmen verfügen über Notfallpläne, um in Krisenfällen möglichst schnell reagieren zu können. Angesichts der Tatsache, dass ein Ausfall der IT die meisten Geschäftsprozesse lahm legt, bringt jedoch jeder noch so kurze Stillstand erhebliche Einbußen mit sich. Über das beschriebene Zusammenspiel von Analyse, Prognose und Szenarienbildung sowie der Bewertung von Prozessen lassen sich Schwachstellen rechtzeitig erkennen und potenzielle Risiken bewerten. Auf diese Weise erhält der IT-Verantwortliche Aufschluss darüber,

- wie stark das Firmennetz ausgelastet ist oder sein wird beziehungsweise wann ein Upgrade erforderlich ist;

- wie sich Veränderungen in der IT auf SLAs und damit letztendlich auf den Geschäftserfolg auswirken;

- wie sich IT-Komponenten optimal umverteilen lassen;

- welche Auswirkungen Budgetveränderungen auf die Verfügbarkeit von Systemen und Service haben.

Intelligente Analysen, bei denen alle entscheidungsrelevanten Daten eines Unternehmens vom IT-Bestand bis hin zu den vereinbarten SLAs gesammelt, untersucht, nach vorgegebenen Kriterien bewertet und verständlich aufbereitet werden, bilden eine verlässliche Entscheidungsgrundlage. So kann sich durchaus herausstellen, dass eine Senkung der Kosten durch Outsourcing das Ausfallrisiko des Firmennetzes erhöhen würde. Da ohne die IT aber der gesamte Arbeitsbetrieb des Unternehmens still liegen würde, überträfen die Kosten eines Ausfalls und der damit einhergehende Imageschaden für die Firma die errechneten Einsparungen unter Umständen um ein Vielfaches.

Indem simuliert wird, wie sich Änderungen an der IT-Infrastruktur möglicherweise auswirken, kann ein CIO Kosten-Nutzen-Analysen erstellen und entscheiden, in welchen Fällen Einsparungen vertretbar sind. Gleichzeitig hilft das beschriebene Konzept bei der Abwägung, welche Leistungen oder Systeme priorisiert werden müssen.

Eine dahingehende Optimierung der IT-Infrastruktur nimmt erfahrungsgemäß einige Zeit in Anspruch. Im Gros der Unternehmen sind die dafür relevanten Daten bereits vorhan- den - die Kunst besteht darin, sie zu konsolidieren und zu ana- lysieren sowie daraus die richtigen Schlüsse zu ziehen. Doch auch für Firmen, die noch ganz am Anfang dieses Prozesses stehen, kann sich die schrittweise Umsetzung dieses Konzepts lohnen, denn bereits die einzelnen Stufen bringen Einsparungen und amortisieren sich daher schnell. (kf)