Web

 

CW extraKT: TCO - Mehr Mythos als Methode

03.12.2001
0

MÜNCHEN (COMPUTERWOCHE) - Die aktuelle "COMPUTERWOCHE extra" vom 30. November widmet sich dem Thema "IT meets Business - EDV muss ihren Nutzen beweisen". Als kleinen Appetithappen servieren wir Ihnen heute online den Beitrag "Kosten senken um jeden Preis?" von Achim Born*.

Schon mit dem Untergang der Dotcoms wurde in den USA eine Debatte los getreten, ob die exzessiven IT-Investitionen tatsächlich durch entsprechende Produktivitätssteigerungen gerechtfertigt seien. Für die Gartner Group ist es deshalb unstrittig, dass IT-Manager großes Geschick bei ihren Investitionen an den Tag legen müssen und sich hierbei von einer "unbarmherzigen Effizienz" leiten lassen müssen. Die Unternehmensberatung lässt in ihren Papieren und Studien kaum ein Feld unbehelligt von möglichen Einsparpotenzialen. Allein die Zentralisierungs- und Konsolidierungsmaßnahmen für die IT-Infrastruktur sollen über einen Zweijahreszeitraum zu einer zehn- bis 20-prozentigen Budgetreduzierung führen. Eine konsequent durchgeführte TCO-Optimierung soll danach Großunternehmen eine Reduktion in den ITKosten um bis zu 6,5 Millionen Dollar bescheren.

Versteckte Kosten aufdecken

Die Berater greifen mit TCO einen Begriff auf, den sie vor fünf Jahren erstmals einführten. Sie gaben den Unternehmen endlich ein Modell in die Hand, die Kosten für die ausufernden dezentralen Strukturen zu berechnen. Dies war zum damaligen Zeitpunkt dringend geboten, da der Unix- und PC-Boom die einstmals wohlgeordnete, zentrale ITLandschaft auflöste und die Fachabteilungen dem Rechenzentrum das Zepter des Handelns aus der Hand nahmen. Während die Mainframer etwa händeringend um eine Speichererweiterung (die leicht den Preis eines Einfamilienhauses erreichte) im Vorstand kämpfen mussten, durften Gruppenleiter oder Sachbearbeiter in vielen Unternehmen die kleineren Summen unterhalb der 2000-Mark-Grenze für die PC-Ausbauten selbst unterschreiben. Auf das Gesamtunternehmen hochgerechnet wurde dabei in so manchem Fall eine mittlere sechsstellige Summe ausgegeben. Nur wusste das Management in den wenigsten Unternehmen hierüber Bescheid, da es an einer zentralen

Koordinierungs- oder Erfassungsstelle für die PC-Kosten mangelte.

Meriten errang sich die Gartner Group mit dem TCO-Modell insbesondere durch das Aufdecken der versteckten Kosten jenseits der Aufwendungen von Anschaffung, Administration oder ordnungsgemäßem Support. Diese "hidden costs" - Kollegenhilfe, Dateimanagement, Selbstkonfiguration, Ausfall etc. - vereinnahmten das Gros (konkret 61 Prozent) der Ausgaben in Höhe von 10.000 Dollar pro durchschnittlichen Windows-95-Arbeitsplatz jährlich. Zudem nutzten 80 Prozent der Anwender gerade einmal zehn Prozent der Leistungsfähigkeit ihres Rechners.

Trotz der unbestrittenen Verdienste beim Aufdecken der Missstände von unkontrolliert wachsenden Client/Server-Umgebungen bot und bietet das TCO-Modell selbst breite Angriffsfläche für Kritik. Der Hauptvorwurf ist, dass bei der reinen Kostenbetrachtung die Qualität beziehungsweise der Nutzen der IT für das Unternehmen außer Acht bleibt. Zusätzlich geriet TCO in Misskredit, da die Gartner-Konkurrenz nur allzu gerne werbeträchtig eigene TCO-Modelle auf den Markt warf. Die errechneten Unterschiede waren dabei gewaltig. Sie umfassten im PC-Segment beispielsweise eine Bandbreite von 2000 bis 10.000 Dollar. Der Glaubwürdigkeit war diese Vielfalt wenig dienlich.

Man kann sich ebenso des Eindrucks nicht erwehren, dass TCO mitunter zum Spielfeld von Zahlenfetischisten "verkommt". Nimmt man die diversen TCO-Berechnungen für bare Münze, müssten etwa die Thin-Client-Systeme die PCs als Standardarbeitsplatz schon seit geraumer Zeit abgelöst haben. So sagte die britische Bloor Research im September 1996 den Niedergang der Windows-dominierten PCs zugunsten schlanker Internet-Terminals mit Java-basierten Browser-Frontends voraus, die die Kosten pro User auf ein Fünftel drücken sollten. Die "nackte" Realität: Im vergangenen Jahr wurden gerade einmal 900.000 Thin-Client-Systeme abgesetzt - gegenüber 131 Millionen PCs weltweit.

Ein anderes Beispiel eines kontinuierlichen Stars in TCO-Schönheitswettbewerben ist IBMs I-Series-AS/400. Erst jüngst ermittelte IDC für den Rechner, dessen Wurzeln bei den Midrange-Klassikern der /3x-Linien liegen, beim Einsatz als Trägersystem für ERM (Enterprise Resource Management)-Programme einen erheblichen TCO-Vorteil gegenüber vergleichbaren Unix-Rechnern sowie Systemen auf Basis der Standard-Intel-Architektur. An dem Einsatz von NT und Unix als Server-Betriebssysteme und der - wenn auch bedeutenden - Randrolle der I-Series änderten die diversen TCO-Veröffentlichungen bislang nichts.

TCO-Rechnung: Fremde Zahlen mit Vorsicht genießen

Unvergessen auch die Schlammschlacht aus dem Frühjahr, als IBM und Oracle im Datenbank-Segment heftig mit TCO-Argumenten aufeinander einschlugen. Jenseits der Schlagzeilen wurde dabei schnell offensichtlich, dass wieder einmal Äpfel mit Birnen verglichen wurden. Viele Annahmen in Analystenrechnungen wie beispielsweise zur Frage der Produktivität darf man zudem getrost ins Reich der Fabeln und Legenden verweisen. Zu fadenscheinig wirken mitunter die Rechnungen.

"Wir können den TCO nicht als zuverlässiges Handbuch für realistische Aufwandsschätzungen heranziehen" beklagte sich Gary Herman schon im vergangenen Jahr, der für das unabhängige britische Forschungsinstitut National Computing Centre (NCC) einen Report über mögliche Reduzierungen bei Arbeitsplatzkosten erstellt.

Keine Argumente für Abenteuer

Selbst Gartner Research Director Peter Lowber möchte die eigenen generischen Ziffern nicht für bare Münze genommen wissen. Stattdessen rät er Unternehmen, zusätzlich eine eigene Datensammlung vorzunehmen. Der Analyst Michael Gartenberg, der sich in seiner Gartner-Zeit ausgiebig mit TCO-Initiativen beschäftigte, warnt grundsätzlich davor, überhaupt fremde Zahlen in den Vergleich einfließen zu lassen. Keineswegs sei die Technologie mit dem niedrigsten TCO-Wert die beste Wahl. Schließlich biete sie nicht automatisch die optimale Lösung für die jeweiligen Anforderungen der Anwender. Die nackten Kosten müssten vor dem Hintergrund eines potenziellen ROI (Return On Investment) ausbalanciert werden. Rolf Sackmann, leitender Berater und Partner bei der PriceWaterhouseCoopers in Zürich bevorzugt deshalb lieber das umfassendere Konzept des TVO (Total Value of Ownership), das er in einem Interview kürzlich auf die Kurzformel "Service Level

rauf und TCO runter" brachte.

TCO kann zwar eine Hilfe sein, um überhaupt ein Kostenbewusstsein und ein Gespür für Kostenblöcke zu schaffen. Dies wird aber vor dem Hintergrund der tatsächlichen Nutzenbewertung nicht automatisch im Umstieg auf eine kostengünstigere Technologie münden. Der PC als Auslöser der TCO-Debatte ist hierfür ein gutes Beispiel. Denn laut Lowber beträgt der Kostenvorteil einer Thin-Client-Infrastruktur gegenüber einer gut verwalteten Windows-2000-PC-Umgebung nur noch rund ein Prozent. Wahrlich kein Argument für ein neues Infrastrukturabenteuer.

*Achim Born ist freier Journalist in Köln.