TCO: Monster oder Sparschwein?

04.04.2002
Von 
Jan Schulze ist freier Autor in Erding bei München.
MÜNCHEN (COMPUTERWOCHE) - Total Cost of Ownership ist in letzter Zeit verstärkt in den Mittelpunkt der Aufmerksamkeit gerückt. Kosten senken ist in vielen IT-Abteilungen oberstes Gebot. Doch Experten zweifeln immer wieder am Sinn der verschiedenen TCO-Modelle.

Nach den fetten Jahren, in denen die IT meist mit großzügigen Budgets sehr innovativ agieren konnte, ist nun Sparsamkeit und Kosteneffizienz Pflicht für viele CIOs (Chief Information Officers). Um die Kosten in den Griff zu bekommen, bietet sich die Methode TCO (Total Cost of Ownership) als Controlling-Instrument an. Dabei werden die kompletten Kosten einer IT-Infrastruktur über ihren gesamten Lebenszyklus hinweg ermittelt. Vorreiter in diesem Feld war das amerikanische Marktforschungsunternehmen Gartner Group.

Als 1987 Gartner sein TCO-Modell auf den Markt brachte, standen lediglich die Arbeitsplatzrechner im Blickfeld der Kostenanalyse. Das Gartner-Konzept versuchte, neben leicht identifizierbaren Kosten wie Anschaffung der Hard- und Software oder direkt zuzuordnendem Unterhaltsaufwand auch weiche Faktoren zu berücksichtigen, die im Lauf eines PC-Lebens eine Rolle spielen. Mit dem technischen Fortschritt und den Veränderungen der IT-Infrastrukturen wurde auch das TCO-Modell weiterentwickelt und deckt inzwischen fast alle Bereiche eine IT-Landschaft ab.

Am Markt konnten sich drei TCO-Angebote etablieren. Neben der Gartner Group bewerben sich vor allem Forrester Research und die Meta Group um die Gunst der Klienten. Die verschiedenen Modelle weisen zum Teil deutliche Unterschiede auf, die auch zu gänzlich anderen Annahmen über die Total Cost of Ownership führen. Am Beispiel eines Clients, wie sie zu Tausenden in Firmennetzen zu finden sind, zeigt sich der Unterschied. Einem Arbeitspapier des Lehrstuhls für allgemeine Betriebswirtschaftslehre und Wirtschaftsinformatik der Universität Mainz zufolge soll die Gartner-TCO des PCs zwischen 9000 und 12000 Dollar liegen, Forrester berechnet die Kosten auf rund 8200 Dollar. Beim Modell der Meta Group fallen nur 2800 Dollar im Verlauf des Lebenszyklus an. Während Gartner und Forrester mit den Ergebnissen recht nah beieinander liegen, weicht der Wert der Meta Group deutlich ab.

Der Grund dafür sind grundlegende Unterschiede in den Teilkosten, die diese Modelle berücksichtigen.

Alfred Weigel (Meta Group): "Für die Frage nach dem Nutzen ist eine Betrachtung der Prozesse nötig, die in den alten Modellen nicht ausreichend berücksichtigt wurden."

Als Rechenbasis bei Gartner und Forrester dienen zwei Bereiche, die direkten und die indirekten Kosten. Direkte Kosten sind Ausgaben, die eindeutig der IT zuzuweisen sind, also die Kosten für die Beschaffung von Hard- und Software, Wartungsverträge mit externen Anbietern oder die Gehälter der IT-Mitarbeiter. Unter den indirekten Kosten erscheinen Positionen wie Produktivitätsverlust der Anwender bei Rechnerausfällen oder eigene Support-Leistungen der End-User. Zur Erfassung der indirekten Kosten nutzt Gartner traditionelle Untersuchungsmethoden wie zum Beispiel Umfragen. So wird etwa das Durchschnittsgehalt eines Fachbereichs ermittelt, woraus sich die Kosten errechnen lassen, die durch Systemausfälle in der IT entstehen.

Der ursprüngliche Ansatz der Meta Group - die statt TCO auch das Kürzel RCO (Real Cost of Ownership) benutzt - beschränkt sich dagegen im Wesentlichen auf die direkt messbaren Kostenfaktoren wie Gehälter, Abschreibungen oder Schulungsaufwendungen für die User. Auch Aspekte wie Qualität oder Produktivität fließen indirekt in die Rechnung ein, da im Modell Kosten berücksichtigt werden, die durch eine ineffiziente Zusammenarbeit zwischen der IT-Abteilung und den Fachbereichen eines Unternehmens entstehen.

Kritik an den Kostenrechnungsmodellen

Die TCO-Modelle der verschiedenen Anbieter sind nicht kompatibel zueinander, ein Kostenvergleich auf Basis zweier TCO-Ansätze ist nicht möglich. Denn alle angebotenen Analysemethoden sind Produkte, welche die jeweiligen Unternehmen am Markt verkaufen wollen. Entsprechend rar sind detaillierte Angaben zur jeweils eingesetzten Methodik. Das unterscheidet TCO von allgemein üblichen Controllingverfahren wie zum Beispiel der Return-on-Investment-Methode.

TCO-Analysen gelten als probate Hilfsmittel, Handlungsempfehlungen für verschiedene Bereiche abzuleiten. Sowohl auf der Basis des aktuellen Ist-Zustandes einer IT als auch in Simulationen potenzieller Entwicklungen können Bewertungen vorgenommen werden; Investitionen lassen sich damit evaluieren, und Dienstleistern soll TCO bei der Preiskalkulation helfen. Doch an vielen Stellen ist auch immer wieder Kritik an den Kostenrechnungsmodellen zu hören. So werde zum Beispiel der Mehrwert, den ein Unternehmen mithilfe seiner IT generiert, nicht in die Berechnung aufgenommen. Auch stellt sich die Frage, wo der Mehrwert einer TCO-Analyse liegt - mit klassischen Controlling-Instrumenten sind Kostenkalkulationen und Budgetplanung ebenfalls realisierbar.

Chris Nethercliff, Senior Research Analyst Measurement and Software bei Gartner in England, weist hingegen die Kritik an der einseitigen Kostenorientierung von sich: „TCO hatte früher nur die Kosten im Blickfeld. Inzwischen beachten wir auch den Mehrwert. Wir haben den Return on Investment mit einfließen lassen.“ Die verschiedenen TCO-Modelle der Gartner Group würden fortlaufend weiterentwickelt und auch dem technischen Fortschritt angepasst. So seien etwa in den neusten Versionen auch Kostenmodelle für Microsofts Windows XP integriert. Generell sei die TCO-Analyse auch nicht das einzige Modell, das ein Controller einsetzen sollte.

Das war laut einem Gartner-Papier von 1998 mit dem vielsagenden Titel „TCO: Have we created a monster?“ allerdings wohl häufig der Fall. 30 Prozent der Kunden haben demzufolge TCO als alleiniges Mittel zur Entscheidungsfindung eingesetzt. „Es wird kein Versuch unternommen, irgendeinen qualifizierten Nutzen der IT-Investitionen zu identifizieren, obwohl das offensichtlich relevant ist“, kritisiert er das Papier und empfiehlt, dass TCO nicht das alleinige Kriterium zur Entscheidungsfindung sein sollte. Als Beispiel für einen falschen TCO-Einsatz nennt Gartner die Einführung von strikten Standardkonfigurationen nach reinen Kostenkriterien. Zwar könne die TCO in vielen Unternehmen dadurch etwa um 25 Prozent gesenkt werden, allerdings gebe es immer auch Arbeitnehmer, die für ihren Job flexible Konfigurationen brauchen. Das Fazit der Untersuchung: Die Technologie, die zur Wettbewerbsfähigkeit eines Unternehmens notwendig ist, sollte höher angesiedelt

werden als die dadurch entstehenden Kosten.

Der perfekte Simulator bleibt Illusion

Nethercliff erklärt sich diese Phänomen zum Teil mit dem Berufsbild des IT-Managers, wie es sich noch bis vor ein paar Jahren dargestellt hat. Früher hätten technikorientierte IT-Entscheider vorgeherrscht. „Unsere Klienten sind viel cleverer geworden“, konstatiert der Analyst. Als Monster möchte er TCO nicht mehr bezeichnen. Heutige IT-Manager hätten mehr Business-Wissen und würden das Werkzeug TCO besser einsetzen.

Den Vorteil der TCO-Modelle als Ergänzung zu anderen Controlling-Methoden sieht Nethercliff in der breiten Datenbasis, auf der diese beruhen. So würden die indirekten Kosten etwa durch ständig weitergeführte Umfragen ermittelt und als Durchschnittswerte in die Rechnung einfließen, was die Positionsbestimmung der eigenen IT-Kosten, etwa im Branchenvergleich, erleichtere.

Allerdings, so die Gartner Group in ihrer Research Note „TCO Simulations and Their Relationship to Reality“ vom März 2000, ermitteln die Klienten bei TCO-Projekten andere Kosten, als sie nach den TCO-Index zu erwarten wären. Der TCO-Index von Gartner ist ein Grundwert, der seine Daten aus der Gartner-Measurement-Datenbank und aus dem „Research Advisory Service“ (RAS) der Marktforscher bezieht. Gartner kommt zu dem Ergebnis, dass es nie einen perfekten TCO-Simulator geben wird. Da verschiedene Daten aus verschiedenen Erhebungsverfahren in die Vergleichwerte einfließen, ist die Wirklichkeit in den Unternehmen nie völlig deckungsgleich mit den Simulationsdaten. „TCO ist ein Modell, kein Realitätsgenerator“, heißt es in dem Papier.

Ähnlich wie Nethercliff schätzt auch Alfred Weigel, Senior Analyst Service Management Strategies der Meta Group Deutschland, die Notwendigkeit von TCO ein: „TCO geht über den klassischen Controlling-Bereich hinaus.“ Die Vergleichsmöglichkeit zu anderen Unternehmen fehle in Methoden wie dem Return-on-Investment-Verfahren. Zum Beispiel die IT-Dienstleister würden aber diesen Vergleich zur eigenen Positionsabschätzung dringend benötigen.

Kaum Einsparpotenzial bei Hard- und Software

Auch für Weigel ist TCO kein Mittel, das solitär eingesetzt werden sollte. Aus seiner Sicht ist die TCO-Analyse nur das Einstiegsinstrument. Die IT-Kosten in den Unternehmen seien meist schon so weit reduziert, dass der reine Kostenblick kaum einen Sinn ergebe. Bei Hard- und Software sei beispielsweise kaum Einsparpotenzial gegeben. Die Frage müsse sein, wie ein Anwender den bestmöglichen Nutzen aus der vorhandenen IT ziehen könne. Dazu sei auch die Betrachtung der Prozesse nötig, die laut Weigel allerdings in den alten Modellen nicht ausreichend berücksichtigt wurden. Auch bei der Meta Group würden deshalb die TCO-Modelle fortlaufend weiterentwickelt und an die Kundenanforderungen angepasst. Zum Beispiel wurde das mehr als drei Jahre alte RCO-Modell mittlerweile so verändert, dass auch Leistungen externer Dienstleister im Benchmarking erfasst werden können.

Um die Leistungen gegen die Kosten abwiegen zu können, empfiehlt Weigel aber das Balanced-Scorecard-System. Am vereinfachten Beispiel eines Helpdesks macht er die Methodik deutlich: Indem die eingehenden Calls gezählt werden, lassen sich die Kosten des Helpdesks ermitteln. Die Qualität spiegle sich im Lösungsgrad der gemeldeten Probleme wider.

Eine weitere Möglichkeit, die IT-Kosten gegen den Geschäftsnutzen abzuwägen, ist für Weigel das „IT-Spending“. Dabei werden die Ausgaben für IT in Beziehung zum Gesamtumsatz des Unternehmens oder eines Geschäftsbereichs gebracht. Um sich klar von den älteren TCO- und RCO-Modellen abzugrenzen, zieht Weigel hierfür den Begriff „Kosten-Leistungs-Vergleich“ vor.

Sowohl Nethercliff als auch Weigel halten TCO nach wie vor für ein aktuelles und adäquates Mittel im IT-Controlling. So stellt der Meta-Group-Analyst fest: „Durch die Euro-Einführung hat sich die Nachfrage nach TCO verstärkt.“ Auch haben sich nach Weigels Einschätzung die Themenbereiche der Analyse verlagert. War früher oft der Endanwender im Fokus des Benchmarking, stünden heute besonders der Rechenzentrumsbereich und die E-Business-Investitionen im Vordergrund: „Die Kunden suchen nach geeigneten Verrechnungsschemata.“