Kosten senken in der IT/Den Vergleich mit der Bezugsgruppe suchen

Kostentreiber eruieren und analysieren

06.09.2002
Pauschale Kostensenkungsprogramme bringen oft nicht die gewünschten Ergebnisse. Eine detaillierte Analyse der Kostentreiber, deren Vergleich mit dem Markt und intelligente Strategien zur gezielten Optimierung versprechen mehr Erfolg. Von Martin Lippert*

"Management per Holzhammer" ist nun wirklich keine Methode, derer sich ein Verantwortlicher gern rühmt. Geht es aber um die Kosten, scheint gerade sie der Weisheit letzter Schluss zu sein: pauschale Budgetkürzungen, pauschale Auslagerung, pauschaler Personalabbau. Der Druck, Ausgaben zu reduzieren, lähmt offenbar die Phantasie und fördert grobe Lösungen. Doch diese provozieren Konflikte, und ihre Wirkung ist eher zweifelhaft.

Wie so oft verspricht differenziertes Herangehen mehr Erfolg. Ergebnisse von mehr als 6700 Unternehmensanalysen weltweit belegen: Die "Best Performer" sind diejenigen, die intelligent die Kostentreiber identifizieren, sie so weit wie möglich auffächern und gezielt ansetzen.

Wer intelligent und differenziert handeln will, muss genau Bescheid wissen. Er muss die Abläufe und Kenngrößen des eigenen Unternehmens im Detail überschauen und sie in Beziehung zum Markt setzen. Hier die wichtigsten Faktoren:

Ich kaufe nur, was ich auch wirklich brauche - dieser Grundsatz jedes sorgsamen Haushaltsvorstands wird in der IT oft vergessen. Von der optimalen Ausstattung, die in einem Bereich vielleicht sinnvoll ist, wird pauschal auf das gesamte Unternehmen geschlossen. Jeder Verantwortliche sollte deshalb zunächst prüfen, ob Umfang und Qualität der IT-Leistungen für das angestrebte geschäftliche Ergebnis überhaupt benötigt werden.

Pro Fachabteilung sollte der spezifische IT-Bedarf eruiert werden. Die Anpassung wird durch genauere Analysemethoden erleichtert. Bezog sich Right-Sizing früher auf die gesamte Plattform, kann man heute auf Service-Level-Ebene differenzieren und für jede Anwendergruppe passgenaue Lösungen entwickeln. Häufig sind zum Beispiel Service Level Agreements (SLA) durchgängig auf das Maximum ausgelegt, obwohl in vielen Sektoren einfachere Leistungen ausreichen. So hat ein Luftfrachtunternehmen die Wiederherstellzeit im Desktop-Bereich von einer auf vier Stunden ausgedehnt - und damit acht Prozent seiner Kosten eingespart.

Jeder IT-Bereich hat externe Dienstleister: Hardware- und Softwarelieferanten, Service-Provider im Netzbereich, Entwickler in Projekten. Der IT-Markt verändert sich jedoch schnell. Konditionen, die vor einem Jahr vereinbart wurden, können heute schon viel zu teuer sein. Die Überprüfung des Vertragsaufbaus, der Laufzeiten und der Ausstiegsklauseln, die Bündelung von Verträgen sowie der Vergleich der Konditionen mit aktuellen Marktpreisen können kurzfristig erhebliche Einsparungen bringen. Ein IT- und Finanzdienstleister hat so innerhalb von zwei Jahren die Preise um 17,4 Prozent reduziert.

Right-Sizing auch bei Verträgen

Auch beim Neuabschluss von Verträgen hilft der detaillierte Vergleich. Mit dem üblichen Einholen verschiedener Angebote erzielt der Einkauf in der Regel Nachlässe zwischen zehn und 15 Prozent. Werden nun die einzelnen Angebotskomponenten selektiv gegen den Markt bewertet, können zusätzliche Potenziale von drei bis acht Prozent ausgeschöpft werden.

Auch bei Verträgen ist das Right-Sizing außerordentlich wichtig. So sind zum Beispiel in SAP-Implementierungen meist alle Komponenten pauschal enthalten. Dem Kunden reicht aber in manchen Bereichen vielleicht ein wesentlich einfacherer Support oder Service. Die Anpassung der Vertragsleistung an den wirklichen Bedarf kann die Kosten deutlich senken, ohne die Qualität des unterstützten Geschäftsprozesses zu beeinträchtigen.

Ein erheblicher Kostenfaktor sind insbesondere bei der Anwendungsentwicklung externe Spezialisten. Für befristete Projekte engagiert, arbeiten sie oft lange im Unternehmen - zu deutlich höheren Kosten als interne Mitarbeiter. So betrug der Anteil der externen IT-Kräfte bei einem Finanzdienstleister 56 Prozent. Mit einer Festanstellung hätte dieses Unternehmen 20 Millionen Euro gespart.

Redundanzen beseitigen

Projekte sind eine moderne, effiziente Form der Organisation. Leider liegen sie außerhalb der gewachsenen Berichtslinien, und auf höherer Ebene fehlen oft die Instrumente, um sie in ihrer Gesamtheit zu kontrollieren. So kommt es nicht selten zu Doppelaktivitäten.

Diese Redundanzen zu identifizieren und eventuell ein System einfach wegzulassen kann die Kosten auf frappierende Weise reduzieren. Ein Unternehmen aus dem Finanzbereich etwa hat innerhalb von drei Monaten die Zahl seiner Systeme von sieben auf drei verringert und damit Millionen eingespart. Ein großes Energieunternehmen musste sogar feststellen, dass es durch doppelte Projekte 50 Millionen Euro verschwendete.

Gerade beim Oursourcing von IT-Aktivitäten wird die Entscheidung meist nach dem Grundsatz "alles oder nichts" getroffen. Aber die besten Ergebnisse erzielen diejenigen, die gezielt die kostenintensivsten Teilkomponenten auslagern.

Wandel zum "Manager von Lieferanten"

Ein häufiger Schwachpunkt: Unternehmen bereiten sich nicht ausreichend auf die Veränderungen vor. Die "Retained Functions", die nach der Auslagerung im eigenen Haus verbleiben, müssen genau geplant werden. Die Verantwortlichen müssen wissen, wie viele Mitarbeiter sie in welchen Funktionen benötigen, um den Prozess des Outsourcing zu organisieren. Und allen muss bewusst sein, dass sich diese Fachkräfte vom vormaligen "Leistungserbringer" zum "Manager von Lieferanten" wandeln. Ansonsten besteht die Gefahr, dass die ausgelagerte Organisation im Laufe der Zeit intern wieder spiegelbildlich aufgebaut wird - wodurch sich die Personalkosten letztendlich verdoppeln. Sicher nicht der angestrebte Effekt.

Kostensenkung ist ein dynamischer Prozess. Auch wenn ein Unternehmen alle Bereiche optimiert hat, werden durch organisatorische Veränderungen, Zukäufe, Zusammenschlüsse und Verkäufe wieder Kostentreiber eingebaut. Dies äußert sich dann vor allem in den Gemeinkosten, die ohnehin schwer zu messen sind.

Hier hilft die Strategie einer vorausschauenden Kostenmodellierung. Zielorganisation, -prozesse und -kosten werden während des Veränderungsprozesses abgeleitet. So behält man die Haupteinflussfaktoren im Griff. Gerade Großunternehmen haben häufig Probleme mit einfachsten Informationen. Technischer und kaufmännischer Bestand stimmen oft nicht überein, Unschärfen von fünf bis zehn Prozent sind keine Seltenheit. Die Ursachen: PCs und andere Komponenten werden bereits bei der Anschaffung nicht richtig erfasst, die Unternehmen besitzen kein Asset-Management-System oder dieses wird nicht konsequent gepflegt.

Die verschiedenen "Sichten" im Unternehmen - Informations-Management, Budget-Management und Ressourcen-Management - unter einen Hut zu bringen, ist eine wichtige Voraussetzung für effektives Kosten-Management. Die Differenzen müssen erfasst und abgeglichen werden. Eventuell ist ein neues System sinnvoll; oft genügt es jedoch, die Schnittstellen zu optimieren und den Informationsaustausch sicherzustellen.

Durch Verbesserung der Prozesse können interne Ressourcen wesentlich effizienter genutzt werden. So beobachten wir bei der Entwicklerproduktivität teilweise Schwankungen von bis zu hundert Prozent.

Geeignete Maßnahmen: auch hier Redundanzen erkennen und abbauen, Reibungspunkte an den Schnittstellen beseitigen, insbesondere zwischen Anwendungsentwicklung und Betrieb, Prozesse wo möglich standardisieren und automatisieren, etwa bei Fehlerüberwachung, Datensicherung und Backup. Vor allem aber gilt es, die bereichsübergreifenden Abläufe zu vereinfachen sowie die als Kostentreiber erkannten, nicht zum Kerngeschäft gehörenden Prozesse outzusourcen.

Analyse muss regelmäßig stattfinden

Grundlage der differenzierten Kostensenkungsstrategie ist die Identifizierung der kritischen Erfolgsfaktoren und deren Vergleich mit dem Markt. Dabei bergen dezentrale Systeme, Netzwerke und Anwendungsentwicklung das größte Optimierungspotenzial. Aber selbst im Rechenzentrum, das als der ausgereifteste Bereich angesehen wird, sind immer noch Einsparungen von fünf bis zehn Prozent zu erzielen.

Da sich der Markt permanent wandelt, muss die Analyse regelmäßig durchgeführt werden. Zwar bringt bereits die erste Untersuchung meist signifikante Verbesserungen; das Niveau der "Best Performer" im jeweiligen Segment erreicht ein Unternehmen allerdings erst nach drei bis vier Jahren. (bi)

*Dr. Martin Lippert ist Geschäftsführer der Compass GmbH, Wiesbaden.

Abb: Mehr Effizienz durch Analyse

Kontinuierliche Analyse optimiert die IT am effizientesten. Die Statistik zeigt: Zwar werden bei der Erstuntersuchung bereits deutliche Verbesserungen erzielt, das Qualitätsniveau der "Best Performer" im jeweiligen Segment erreichen Unternehmen jedoch nach drei bis vier Jahren und sind nach fünf Jahren um 30 bis 49 Prozent effizienter als Neukunden. Quelle: Compass