DV-Kosten/Nur die meßbaren Kosten analysieren

23.10.1998

Besondere Bedeutung haben diese Untersuchungen für Distributed Systems, also für eine regional verteilte IT-Infrastruktur aus Servern und Clients, die über Local Area Networks (LANs) beziehungsweise Wide Area Networks (WANs) verbunden sind.

IT-Kosten haben zwei primäre Kategorien: Kapital und Betriebskosten. Diese werden auf einen zu definierenden Zeitraum beziehungsweise Lebenszyklus, in der Praxis zumeist fünf Jahre, umgelegt. Zu den anfallenden Kosten und Aufwendungen gehören unter anderem die Anfangsinvestitionen in Hard- und Software, über die Zeit anfallende Ausgaben für Updates, Lizenzen sowie externe Services bei der Implementierung und beim Betrieb. Hinzu kommt der zumeist interne Aufwand für den operativen Betrieb, der stark durch Personalausgaben geprägt ist.

Zu den sogenannten Opera- tions zählen unter anderem System- und Datenbankadministration, Netzwerkadministration, Updates, Softwareverteilung, Applikations-Management und Helpdesk-Aktivitäten. Die operationalen (Personal-)Kosten werden daher in sogenannten Full Time Equivalents (FTEs) gemessen, die wiederum in "Dollar pro Jahr" umzurechnen sind.

In Deutschland wird derzeit eine kontroverse Diskussion zum Thema Cost of Ownership geführt. Dabei geht es also darum, die Gesamtnutzungskosten von komplexen IT-Systemen über den gesamten Lebenszyklus zu bewerten und zu vergleichen. Die Meta Group beobachtete, daß zahlreiche IT-Budgets 1997 deutlich den geplanten Rahmen überstiegen haben. Das hat die Kostendiskussion neu entfacht.

Die IT-Anbieter forcieren die TCO-Diskussion und konbinieren sie mit den potentiellen Vorteilen der eigenen Produkte. Es existieren zahlreiche Kennzahlen der führenden Marktforschungsinstitute (Kosten je Arbeitsplatz pro Jahr), die sie nach dem Motto "je höher, desto besser" für die eigene Marketing-Argumentation nutzen.

Allerdings sind diese Zahlen nur sehr bedingt mit der konkreten Situation eines Anwenders vergleichbar und zudem ist das Know-how auf Anbieterseite in den meisten Fällen sehr beschränkt. Dies stiftet bei der Kostenanalyse Verwirrung, anstatt zu helfen.

TCO versus RCO

Zu dem Thema Cost of Ownership existieren unterschiedliche Ansätze. Dies führt dazu, daß sich die veröffentlichten Kostensätze pro Jahr und Arbeitsplatz zwischen 2800 und 12000 Dollar bewegen - eine Spannbreite, die die Seriosität dieser Untersuchungen stark in Frage stellt.

Die meisten der Analysen - zumindest der führenden Marktforschungsunternehmen - sind trotz dieser zunächst offensichtlichen Widersprüche wissenschaftlich fundiert. Die Unterschiede rühren primär aus differierenden Modellannahmen her.

Die grundsätzlichen Unterschiede liegen in der Einbeziehung der differierenden sonstigen Kostenarten in die Analyse. Das Unterscheidungsmerkmal zwischen den Total-Cost-of-Ownership-Untersuchungen sind bei dem von der Meta Group verwendeten Real-Cost-of-Ownership- (RCO-)Modell die sogenannten Hidden Costs oder Opportunitätskosten. Hierzu gehören zum Beispiel der Zeitbedarf für ein multiples Einloggen auf mehreren Applikationen, für Hilfestellung bei anderen Anwendern, selbstlernende Aktivitäten und ande- res. Die Existenz dieser Kosten ist unbestritten, der Wert für eine vergleichende Untersuchung sehr wohl.

Die bewußte Beschränkung auf die tatsächlich meßbaren Kos- ten und Kostenbestandteile beruht auf den Erfahrungen aus der Praxis. Opportunitätskosten werden in den meisten Fällen nur grob geschätzt und können das Gesamtergebnis dadurch unter Umständen stark verzerren. Zusätzlich fällt die Argumentation gegenüber Vorstand oder Management extrem schwer und Kosteneinsparungen sind nachträglich kaum nachzuweisen.

Ein an Cost of Ownership angrenzendes Gebiet sind traditionelle IT-Benchmarking-Untersuchungen. Sie vergleichen die ermittelten Parameter des Unternehmens mit einer Kontrollgruppe beziehungsweise bestehenden Datenbasis. Dabei wird vorausgesetzt, daß sich sehr homogene und damit vergleichbare Gruppen bilden lassen. Dies gilt auch weitestgehend für die Rechenzentren. Bei verteilten Umgebungen ist diese Voraussetzung bei verschiedenen Unternehmen aber nur sehr bedingt gegeben und beeinflußt somit das Ergebnis.

Ein weiteres Manko ist die Darstellung der Resultate bei traditionellen Ansätzen. Sie vergleichen ausschließlich quantitative Parameter und überlassen dem Anwender die Interpretation.

Das Modell der Meta Group geht über diesen Ansatz hinaus. Es liegen zum einen Vergleichswerte aus ganz ähnlichen Untersuchungen vor, zum anderen steht aber die individuelle Anpassung des Modells für das Unternehmen im Vordergrund, verbunden mit der Ableitung von konkreten Handlungsempfehlungen aus den quantitativen Ergebnissen.

Datenerhebung im Experteninterview

Real Cost of Ownership basiert auf einem über Jahre entwickelten und getesteten Modell. Hauptbestandteile sind das mehrdimensionale Analyseblatt und der darauf abgestimmte Fragebogen für die tatsächliche Datenerhebung bei Anwendern beziehungsweise Unternehmensteilen. Der Schwerpunkt liegt dabei auf der Genauigkeit und Tiefe der Datenerhebung, weniger auf der Menge der Datenpunkte.

Die Auswertung und Ergebnisdarstellung erfolgt mittels Standard-Tools (Excel, Word, Powerpoint).

Die Datenerhebung wird nicht mittels eines Fragebogens schriftlich vorgenommen, sondern erfolgt in einer Art Experteninterview direkt beim Kompetenzträger. Es hat nämlich gezeigt, daß die Informationen aus schriftlichen und telefonischen Befragungen meist erhebliche Mängel aufwiesen, so daß das Interview im Rahmen eines Fachgesprächs nicht zu ersetzen ist.

Das Gesamtprojekt teilt sich idealerweise in folgende Phasen (die Zeiten gelten für mittelständische Unternehmen oder Konzernteile, die schon eine gute Übersicht über ihre Kosten haben):

-Abstimmung und Anpassung des RCO-Modells auf die Belange des zu untersuchenden Unternehmens und unter Umständen IT-Teilbereichs (zirka zwei bis drei Wochen),

-persönliche Datenerfassung bei den zu analysierenden Unternehmensteilen (zirka vier bis fünf Wochen),

-Datenbereinigung und -analyse (zirka drei Wochen) sowie die

-Ergebnispräsentation.

Bei vergleichbaren Projekten hat sich gezeigt, daß eine Laufzeit von drei bis vier Monaten realistisch ist. Dies setzt allerdings voraus, daß die analysierten Unternehmen beziehungsweise die konkret Befragten bereitwillig mitarbeiten und die Daten in der gewünschten Form liefern.

Vertrauensbildende Maßnahmen wichtig

Diese Kooperation wirkt qualitätsfördernd. Daher sollte der Anwender einen Projektkoordinator benennen, der während der gesamten Laufzeit punktuell zur Verfügung steht. Bei der Datenerhebung im Vorfeld und bei den Interviews sind vertrauensbildende Maßnahmen wichtig.

Eine solche Analyse liefert konkrete Angaben über Gesamtkosten und Kostenstruktur bei dem Unternehmen. Wo möglich, werden Vergleiche zu ähnlichen Firmen gezogen und bewertet.

Ein Schwerpunkt liegt auf den sich aus der Untersuchung ergebenden Maßnahmen. Hier geht die Analyse über traditionelle Ansätze hinaus, wenn sie einen abgeleiteten Best-Practises- Ansatz liefert. Dabei geht es insgesamt um konkrete Verbesserungsvorschläge.

Die Analyse liefert konkrete Angaben über die Kosten pro Arbeitsplatz in verteilten Umgebungen. Dabei wird ein vernetzter Standard-Office-Arbeitsplatz angenommen, der mit den üblichen Applikationen für Textverarbeitung, Tabellenkalkulation, Präsentationserstellung und E-Mail ausgerüstet ist.

Bei einer weltweit angelegten Untersuchung ist die Meta Group zu dem Ergebnis gekommen, daß die Kosten eines solchen Arbeitsplatzes durchschnittlich zirka 2800 Dollar betragen.

Der Zuschnitt ist oft stark US-zentriert (zum Beispiel Gehälter, Urlaubstage, Arbeitsstunden pro Jahr); die Ergebnisse sind aber grundsätzlich mit der Situation in Deutschland vergleichbar.

In der Abbildung ist die Ver- teilung der Kosten einer typischen PC-Umgebung (nicht gemanag- te Intel-Windows PCs) dargestellt. Es zeigt sich, daß hier 51 Prozent der Gesamtkosten auf Operations, also den Betrieb entfallen. Davon wiederum verschlingt das meist manuelle Ma- nagement der PCs annähernd die Hälfte.

Mit individueller Situation nicht vergleichbar

Die konkreten Dollar-Werte der Kostenaufteilung der Basiskonfiguration finden sich in der Tabelle auf Seite 82. Dabei handelt es sich um eine derzeit bei Anwendern in Deutschland übliche verteilte Umgebung; System-Management-Prozesse und -Werkzeuge sind noch kaum im Einsatz. Der Kauf der Hardware nimmt mit 49 Prozent immer einen erheblichen Teil ein, Kosteneinsparungen sind hier jedoch nur begrenzt möglich und nicht empfehlenswert.

Im Vergleich dazu sind die entsprechenden Kennzahlen ei-ner reinen Network-Computer- (NC-)Umgebung dargestellt. In der rechten Spalte sind die Einsparungen angegeben. Hier zeigt sich, daß NCs theoretisch erhebliche Einsparung ermöglichen - nach unseren Analysen insgesamt bis zu 26 Prozent. Kostensenkungen ergeben sich vor allem beim Client-Kauf, obwohl Server um zehn Prozent und Netzwerke um 25 Prozent höher dimensioniert wurden.

Sehr starke Einsparungen sind ebenfalls beim Break-Fix-Sup-port und bei Installation sowie Updates zu verzeichnen. Allerdings muß man erhebliche Abstriche bei der Funktionalität in Kauf nehmen, die für sehr viele Anwender ein K.-o.-Kriterium darstellen.

Als dritte Alternative wurde eine aktiv gemanagte PC-Umgebung untersucht. Dabei sind die Kosteneinsparungen nicht so groß wie bei NCs, das Einsatzpotential aber gegenüber der Basiskonfiguration nicht eingeschränkt. Insgesamt sind in diesem Beispiel Kostensenkungen von zirka zwölf Prozent zu erzielen. Bei der Hardware wurden alle Entry-PCs durch Net-PCs ersetzt, was nur zu relativ geringen Einsparungen (drei Prozent) führt. Bei Installation und Update wurden flächendeckend ESD Tools (ESD = Electronic Software Delivery) eingesetzt, was Kostensenkungen von 44 Prozent nach sich zog. Beim System-Management wurden weiterhin automatisierte Inventory Tools und Kontroll-Diagnose-Tools für die Unterstützung des Helpdesk eingeführt.

Anwendern ist zunächst einmal eine realistische Erwartungshaltung bezüglich der Kosteneinsparungen (zehn bis 15 Prozent pro Jahr je Arbeitsplatz) zu vermitteln. Da insbesondere für Großunternehmen die Gesamtsumme sehr attraktiv ist, erscheinen die Investitionen in vielen Fällen als angemessen.

Es ist zu erwarten, daß bis zum Jahr 2000 80 Prozent aller großen IT-Anwender entsprechende Maßnahmen ergreifen.

Die angegebenen Werte dienen als Anhaltspunkt, ohne Anspruch, konkret mit einer indi- viduellen Situation vergleichbar zu sein. Hierin liegt auch die größte Gefahr bei einer oberflächlichen Analyse: Sie vergleicht oft verschiedene Kennzahlen, ohne die Modellannahmen und spezifischen Parameter anzupassen.

Die Cost-of-Ownership-Problematik erscheint weitgehend analysiert und begründet. Die Herausforderungen liegen zumeist in der Datenerhebung und der Erwartungshaltung. Bei einem gezielten und pragmatischen Vorgehen kann eine Analyse die Kostenseite von IT-Systemen sehr gut abbilden.

Zukünftig werden die Vorstände und Entscheidungsträger in den Unternehmen allerdings viel mehr nach dem Wert der In- formationstechnologie und dem Return on Investment (ROI) fragen.

Keiner der Ansätze erfüllt aber bisher den Anspruch einer kla- ren Entscheidungsgrundlage für alternative IT-Investitionen anhand von ROI-Kennzahlen. Keines der bekannten Modelle besteht eine harte wissenschaftliche und gleichzeitig praktische Überprüfung, wobei letztere noch etwas besser ausfällt. Der Grund mag darin liegen, daß der dyna- mische IT-Markt durch erhebliche Strukturbrüche gekennzeichnet ist.

Die Meta Group wird weiterhin an umsetzbaren ROI-Modellen arbeiten und diese in der Praxis testen.

Hintergrund

Die Meta Group ist ein internationales unabhängiges Market-Assessment- und Consulting- Unternehmen, das sich auf Informationstechnologie spezialisiert hat. Es betreut bis heute über 1300 Kunden in 23 Ländern weltweit.

Diplom-Wirtschaftsingenieur Andreas Zilch ist Director Consulting und Research bei der Meta Group Deutschland in Ullersdorf.