Auch TCO-Modelle helfen nur bedingt weiter

IT-Kosten: Transparenz durch Klärung der Strategie

22.05.1998

Einmal mehr steht das IT-Management im Spannungsfeld zwischen der Pflicht zu mehr Kostenbewußtsein, dem Effizienz-Nachweis der eingesetzten Technologien und der vermeintlich tragenden Rolle des "IT-Shops" bei der Umsetzung der Geschäftsstrategie des Unternehmens. Häufig ist derzeit vom erneuten Paradigmenwechsel, von der Renaissance zentraler Strukturen, ja sogar des Mainframes die Rede - und damit befindet sich die Ablösung dezentraler Client-Server-Lösungen angeblich auf der Tagesordnung. Viele der aufwendigen und teuren Projekte sind gescheitert oder zumindest nicht zufriedenstellend gelaufen. Gleichzeitig scheint die Notwendigkeit neuer Investitionen zu bestehen, entsprechender Rechtfertigungszwang inklusive - Network-Computing, Data-Warehouse und Electronic Commerce sind dabei wichtige Stichworte!

Dieses Dilemma, vor dem die meisten IT-Manager derzeit stehen, zog sich wie ein roter Faden durch die Vorträge und Diskussionsbeiträge der Kölner Veranstaltung. Helmut Merkel, Geschäftsführer der Essener Deichmann-Gruppe, faßte das Problem mit der griffigen Formulierung einer "Gratwanderung zwischen zu viel Innovationen und zu viel Altlasten" zusammen. Doch lamentieren nütze nichts, so der Chef des weltweit tätigen Handelshauses, der - in Deutschland eher eine Seltenheit - in seinem Unternehmen quasi auch das Vorstandsressort IT innehat. IT-Verantwortliche hätten darauf zu achten, daß die IT-Strategie stets in die Geschäftsstrategie eingebunden sei. Das wäre in Deutschland nicht immer der Fall.

Oft laufe die IT nebenher, die Kostenfrage werde erst gestellt, wenn Umsätze und Erträge eingebrochen seien.

Diese zwei Feststellungen, die sich zunächst fast wie Plattitüden anhören, ergeben für Merkel durchaus einen tieferen Sinn. Zum einen hätten die IT-Kosten in den Unternehmen trotz teilweise immens gestiegener Budgets immer noch den Stellenwert von Routine-Kosten, würden also aufgrund ihrer im Vergleich zu anderen Ausgaben zu vernachlässigenden Größe (siehe Abbildung 1) billigend in Kauf genommen, solange man nicht aus übergeordneten Gründen den Rotstift ansetzte. Besagtes "Image" der IT-Kosten komme erst recht zum Tragen, wenn die IT-Abteilung nicht für ihre Daseinsberechtigung werbe, ihren "Job" schlecht mache und sich nicht als "wichtige Plattform für die Umsetzung der Geschäftsstrategie" etabliere.

IT-Spezialisten müssen in die Offensive gehen

Bezogen auf die aktuellen Herausforderungen des IT-Managements forderte Merkel daher: Die IT-Spezialisten müßten "endlich in die Offensive gehen". Den "gordischen Knoten" könne man dabei aber nicht zerschlagen. Gemeint ist besagter Konflikt zwischen der Bewältigung von Altlasten, Jahr-2000-Projekten, der Euro-Umstellung, Einführung von Standardsoftware sowie der vielfach anzutreffenden Unzufriedenheit in den Fachabteilungen und dem gleichzeitigen Handlungsbedarf in Sachen Internet/Intranet, Data-Warehousing, Workflow und Electronic Commerce. "Wollen Sie sich ernsthaft zurücklehnen, wenn Ihr Vorstand mit dem Vertrieb über das Internet liebäugelt", fragte der Chef der Deichmann-Gruppe rhetorisch in die Runde.

Zumindest könne man aber einige der drängendsten Fragen einvernehmlich mit dem Vorstand klären. Wie lassen sich Altsysteme unterstützen und migrieren, ohne daß gleichzeitig der Anschluß an die zukünftige Entwicklung verpaßt wird? Mit welchem Personalbestand kann die sich immer schneller entwickelnde Technik parallel noch bewältigt werden? Zählt die Informationsverarbeitung noch zum Kerngeschäft? Falls nein - kann man sie outsourcen? Welche Investitionen müssen getätigt werden, welche nicht?

Um alle Trends in der IT mit Projekten abzudecken, müßte beispielsweise sein Unternehmen allein im laufenden Jahr das IT-Budget um 80 Prozent erhöhen, skizzierte Merkel. Dies sei jedoch ebenso illusorisch wie überflüssig. Denn aus dem eben beschriebenen Entscheidungskatalog ergibt sich seiner Auffassung nach schon die "notwendige Transparenz für das Machbare". Nicht jedes Projekt müsse man "benchmarken". Wichtiger sei die Grundsatzentscheidung, zu welchem Zeitpunkt in eine neue Technologie investiert werden soll. Wobei sich für ihn der Kreis zur Strategie des Unternehmens wieder schließt. Bei funktionierenden Geschäftskonzepten müsse man sich "früh mit neuen Technologien beschäftigen", könne aber "ohne großes Risiko" verhältnismäßig spät investieren - vorausgesetzt, man habe es mit einer "lernfreudigen Unternehmenskultur" zu tun.

Doch das hier propagierte "offene" Verhältnis zwischen IT-Management und Unternehmensleitung entspricht in vielen Fällen nicht der Realität. Der "Beitrag der IT zum Unternehmenserfolg" stellt, wie Eberhard Mücke, Leiter DV-Controlling bei der BHF-Bank AG in Frankfurt am Main, feststellte, trotz mangelnder Verzahnung mit der Geschäftsstrategie einen "zentralen Diskussionspunkt" dar. Speziell im Zusammenhang mit Kostensenkungsprogrammen werde diese "populistische Fragestellung" von seiten der Geschäftsführung immer wieder neu aufgewärmt, gleichzeitig fragwürdige Einzelbeispiele zur Untermauerung der Argumentation ins Feld geführt. Konsequenz und in vielen Fällen traurige Anwenderrealität: Die Beibehaltung "uralter Applikationen und Systeme", die vermeintliche kostengünstige Minimalinvestitionen garantieren - Innovation und damit Chancen zur Steigerung der Wettbewerbsfähigkeit gleich Null.

Innovationszyklen kaum mehr nachvollziehbar

Der vielfach zu beobachtende Konflikt zwischen strategischem IT-Management, dem Zwang zu Kosteneinsparungen und dem damit verbundenen nachweislich zu späten Einsatz neuer Technologien scheint also mehr denn je in eine Sackgasse zu führen. Auch deshalb, weil, wie in mehreren Diskussionsbeiträgen unverblümt zum Ausdruck kam, das "Innovationstempo" der IT-Hersteller für "Irritationen" unter den Anwendern sorgt. Zentrales, dezentrales oder Network-Computing, Internet und Electronic Commerce; stets wird, so vereinzelt kritische Kommentare, eine "neue Trendsau durch das virtuelle Dorf gejagt", während die IT-Abteilung ausufernde System-Management- und Personalkosten intern zu erklären hat. Hinzu kommen zeitgemäße IT-Controlling-Maßnahmen wie Benchmarking, Prozeßkostenrechnung und/ oder die Einführung von Profit-Centern.

Auch die seit geraumer Zeit für Gesprächsstoff sorgenden verschiedenen TCO-Modelle wurden in diesem Zusammenhang auf dem I.I.R.-Forum kritisch unter die Lupe genommen. So mangelt es nach Ansicht von Gerald Groh, Managing Director beim Züricher Beratungshaus GSM Software Management AG, der TCO-Debatte an "klaren Definitionen". Es gebe unterschiedliche Befragungs- und Erhebungsmethoden. Inwieweit versteckte Kosten, etwa Netzausfall, Berücksichtigung fänden, sei nur schwer auszumachen. Nicht umsonst kämen etwa einschlägige Untersuchungen bei der Frage, was ein PC kostet, zu völlig unterschiedlichen Ergebnissen (siehe Abbildung 2). Aber auch unabhängig vom Gegenstandsbereich einer TCO-Betrachtung müßten, wie Groh ausführte, Anwender bei der Beurteilung solcher Studien von einem "Interessenkonflikt" ausgehen.

Während Anwender sich dabei ein Instrument zur Ermittlung der "wahren Kosten" ihrer IT versprechen, im Zweifel auch Hilfestellung bei Investitionsentscheidungen und bisweilen sogar die Skizzierung neuer Anwendungsszenarien, seien auf der anderen Seite IT-Dienstleister und Hersteller - verdeckt oder auch offen "Sponsoren" dieser Untersuchungen. Und demzufolge an einer der "Entwicklung kompletter TCO-Services in Anlehnung an ihre bestehende Dienstleistungs- oder Produktpalette" interessiert. Grohes Fazit in Sachen TCO: Deutlich niedriger hängen, als eines von vielen Kriterien zur Verbesserung der Kostentransparenz in der IT. Jede Untersuchung verfolge "unterschiedliche Ziele" und jedes Anwenderunternehmen habe "eine andere Struktur".