Neue Kommunikationsformen machen DV-Bedarfsbestimmung zunehmend komplizierter

Kapazitätsplanung: Schlüsselrolle bei der Budgetierung

02.07.1982

MÜNCHEN - Das DV-Budget wird insbesondere in Großunternehmen durch den Einsatz neuer Kommunikationstechniken und Anwendungen zunehmend unübersichtlicher. Zwar sind die Aufwendungen der zentralen DV-Abteilung noch relativ überschaubar. aber die Kosten für dezentrale Lösungen oder für Datenfernübertragung machen eine korrekte Planung für die DV-Verantwortlichen deutlich schwieriger. Michael Gora, Seniorberater bei der Frankfurter Unternehmensberatung Arthur D. Little Inc., zeigt auf, in welchen Bereichen der Hardwareplanung die Benutzer heute die meisten Fehler machen und wie diese durch gezielte Kontrolle umgangen werden können.

Mit der Zunahme von neuen Funktionen wie kommunizierende Textverarbeitung (Teletex) und Programmierung von einfachen Anwendungen durch den Endanwender - mit der Hilfe von Datenbankabfragesprachen und Anwendungsgeneratoren wie SQL, Natural und Mapper - wird die Budget-Übersicht nicht besser.

Zwischen 1974 und 1980 ist der Anteil der Hardwarekosten im EDV-Budget von 40 Prozent auf 29 Prozent gefallen, was auf den ersten Blick wie eine Einsparnis von mehr als 25 Prozent aussieht. Dieser Effekt wurde aber zum großen Teil durch das Unbundling hervorgerufen: 1974 war noch viel mehr Software im Hardwarepreis inbegriffen als heute Insgesamt sind die Hardwareausgaben noch gestiegen, obwohl der Preis pro Leistungseinheit kontinuierlich gefallen ist. An diesen beiden Tendenzen wird sich kaum etwas ändern.

Optimierung des Hardware-Budgets

Was wissen wir über die zukünftige Entwicklung der Kosten? Das EDV-Budget wird weiterhin 1 Prozent bis 1,5 Prozent des Unternehmensumsatzes ausmachen. Die Hardwarekosten werden wahrscheinlich noch schneller fallen als in der Vergangenheit. 32-Bit-Mikroprozessoren mit virtueller Speichertechnik werden dafür sorgen, daß auch größere EDV-Anwendungen außerhalb der EDV-Zentrale unterstützt werden können. Telekommunikation Datenbankmaschinen, ¿Knowledgebased Systems" und die neuen Anwendungen, die die fortgeschrittenen Technologien erlauben, werden die neuen Hardwarekapazitäten ausnützen. Die Anwendungen müssen sich, wie eh und je, an die verfügbaren Technologien anpassen. Für den Anwender wird die Frage, wie sich das Hardware-Budget optimieren läßt, deshalb in Zukunft noch schwieriger zu beantworten sein als heute. Die Anzahl der PCM-Hersteller und OEM-Lieferanten wird wachsen, da hoch integrierte und leicht verfügbare Bausteine es immer einfacher machen, die Hardware nachzubauen. Somit setzt die langfristige Bewältigung der Hardwareanforderungen für den Benutzer eine kontinuierliche Weiterentwicklung der Methoden der Kapazitätsplanung voraus.

Kapazitätsplanung wird heute oft ziemlich ungenau betrieben. Man kauft oder mietet eine CPU, die nicht mehr als 65 Prozent oder 70 Prozent ausgelastet sein wird, und geht davon aus, daß jederzeit weitere Platten, Speichereinheiten, Steuereinheiten und Kanäle anschließbar sind. Oder man sucht sich die Leistungsgeschwindigkeit so aus, daß die Leitungen nie mehr als 60 Prozent bis 75 Prozent belegt sind, in der Annahme, daß Engpässe nicht zu schlechten Antwortzeiten führen werden. Oft weißt dabei nicht, ob die unregelmäßig auftretenden schlechten Antwortzeiten durch Paging, CPU-Zeit oder I/O-Engpässe verursacht werden. Isoliert er einen Engpaß und hebt ihn auf, so stößt er bald auf den nächsten. Es ist keine Frage, daß bei steigender Komplexität der Systeme und Netze auch eine komplexere Planung und Überwachung (auch Kapazitätsplanung genannt) erforderlich ist.

Netze und Peripherie vernachlässigt

Kapazitätsplanung besteht aus der Erstellung eines Modells, wobei dessen Komplexität von den jeweiligen Benutzer-Anforderungen abhängt. Der Sinn des Modells ist es, die vorhandenen Systemabläufe zu verstehen, die zukünftigen vorauszusagen und die dafür erforderliche DV- und Netzkapazität zu bestimmen. Kapazitätsplanung muß nicht nur für die Zentraleinheiten, sondern auch für die Peripherie und für das gesamte Netz erfolgen.

Ein einfaches Modell besteht häufig nur aus einer Auswertung leicht verfügbarer Accountingdaten. Zwischen diesem und aufwendigeren Theorien, die auch in großen und schnell wachsenden Online-Systemen die erforderlichen Antwortzeiten gewährleisten können, gibt es drei oder vier Stufen der Komplexität. Welche dabei für einen bestimmten Anwender in Frage kommt, hängt stark von seiner Stellung im evolutionären Prozeß ab. In den meisten Fällen wird die Kapazitätsplanung jedoch vernachlässigt.

Tuning als Sparmaßnahme

Grundsätzlich gibt es nur zwei Möglichkeiten, bei der Hardware zu sparen: Kurzfristige und langfristige Lösungen, wobei beide ausgeschöpft werden müssen. Kurzfristige Alternativen gibt es nur bei Preis und Leistung, insbesondere bei "alternativer" Hardware oder mit Performance-Tuning. Alle langfristigen Möglichkeiten der Kostenersparnisse erfordern eine bessere Kapazitätsplanung, bei der es in erster Linie darauf ankommt, das eigene System und die eigenen Anwendungen besser zu verstehen und die Möglichkeiten der neuen Hardware- und Netzarchitekturen zu kennen.

Es gibt für die nächsten fünf bis zehn Jahre weit mehr Netz- und Hardwarealternativen als je zuvor. Der Benutzer sollte sich nicht nur fragen, wo er sparen kann, sondern vielmehr, wie eine Strategie für den effizienten Einsatz von neuen Techniken realisiert werden kann. Die Kapazitätsplanung spielt dabei eine Schlüsselrolle.