Kapazitätsplanung ohne Tools ist ein Faß ohne Boden

04.07.1986

Um im Bereich Kapazitätsplanung (KP) auf einen grünen Zweig zu kommen, braucht man in erster Linie geeignete Werkzeuge zur Beschreibung des Ist-Zustandes. Ulrike Kruse, Projektleiterin Kapazitätsmanagement bei der Colonia Versicherung, setzt für diese Aufgabe auf den Einsatz einer höheren Programmiersprache wie SAS und die Anschaffung von Realtime-Monitoren. Auch für Norbert Herting, Referatsleiter Planung bei Mannesmann, führt kein Weg am Tool vorbei. Seine Begründung: "Will eine Planungsgruppe nicht den größeren Anteil ihrer Tätigkeit darauf verwenden, Daten aus Mammutbeständen zu extrahieren, ist es unumgänglich, diesen Meßdatendschungel in den Griff zu bekommen." Benötigt würden Hilfsmittel, die die gesamte Anforderungspalette von der Aufbereitung der Rohmeßdaten über die statistische Analyse, die Erstellung von Listen und Grafiken bis hin zum Online-Informationssystem für das RZ-Management abdecken. Dagegen gibt Bernd Meierhof, Systemmanager bei der Alldata Service GmbH, zu bedenken, daß KP-Tools aufgrund ihres immer noch relativ langsamen "Vorgehens" nicht als Allheilmittel betrachtet werden dürften. sch

Norbert Herting, Referatsleiter Planung und Berichtswesen, Mannesmann Datenverarbeitung GmbH, Ratingen

Kapazitätsplanung ist eine kontinuierliche Aufgabe! Denn neben Last- und Performancevorhersagen, die mit Hilfe von Trend- und Modellrechnungen erarbeitet werden, umfaßt sie unbedingt einen regelmäßigen Soll-Ist-Vergleich sowie die stetige Kontrolle des Service-Levels, den ein Rechnersystem jedem einzelnen Anwender bietet. Deshalb ist das RZ-Berichtswesen unzertrennlich mit der Kapazitätsplanung verknüpft.

In einem Service-Rechenzentrum mit verschiedenen Großrechnersystemen und einer großen Zahl sehr unterschiedlicher Anwendungen und Benutzergruppen ergibt sich vor allem bei der differenzierten Analyse des Ist-Zustandes ein Problem: Nicht, daß es an Meßinstrumenten mangeln würde. Bei entsprechender Vielfalt der Anwendungssysteme sind zum Beispiel bei einem IBM-Großrechner leicht zehn verschiedene Loggingsysteme oder Softwaremonitore nötig. Reichen diese nicht aus, oder soll deren Overhead vermieden werden, ist es sinnvoll, einen Hardwaremonitor einzusetzen (besonders auch im Netzbereich). Nur produzieren all diese Instrumente:

- eine unübersehbare Menge von Daten, die

- in den meisten Fällen aufgrund ihrer komplizierten Formate programmtechnisch nicht gerade leicht zu handhaben sind und

- sich einer Zusammenschau (sowohl formal als auch inhaltlich) eher widersetzen!

So erstellt zum Beispiel ein größeres IBM-System innerhalb von 24 Stunden eine Million Datensätze mit mehreren tausend unterschiedlichen Meßgrößen - verpackt in mindestens 100 verschiedene Satzstrukturen. Werden Daten über mehrere Monate oder gar Jahre für eine Trendrechnung benötigt, so sind pro Monat (etwa bei SMF) 20 bis 30 Magnetbänder zu verarbeiten.

Will eine Planungsgruppe nicht den größeren Anteil ihrer Tätigkeit darauf verwenden, Daten aus Mammutbeständen zu extrahieren und verarbeitbar zu machen, ist es unumgänglich, diesen "Meßdatendschungel" in den Griff zu bekommen: Man kommt hier ohne den Einsatz von Hilfsmitteln nicht aus.

Auf der Suche nach Tools, die möglichst die gesamte Anforderungspalette von der Aufbereitung der Rohmeßdaten über die statistische Analyse, die Erstellung von Listen und Präsentationsgrafiken bis hin zum online-abfragbaren grafischen Informationssystem für das RZ-Management abdecken, haben wir uns für SAS (SAS Institute) entschieden. Dieses Softwaresystem erfüllt nahezu alle unsere Anforderungen. Ergänzt wird es in einem entscheidenden Punkt durch die ebenfalls auf SAS basierende Performance- und Kapazitätsdatenbank MICS (Marino Ass.). Diese Kombination versetzt uns in die Lage, sowohl den Aufwand für die regelmäßigen Planungs- und Berichtsarbeiten zu minimieren als auch auf Ad-hoc-Anforderungen schnell und flexibel reagieren zu können.

Bernd Meierhof, Systemmanager bei der Alldata Service GmbH, München

Die Planung der künftig benötigten Ressourcen für CPU-Power und Plattenspeicher erhält immer mehr Bedeutung, und die Überprüfung dieser Werte muß in immer kürzeren Zeitabständen vorgenommen werden. Trotzdem bleibt es ein schwieriges Unterfangen, zum richtigen Zeitpunkt die gerade benötigte Kapazität zur Verfügung zu stellen - insbesondere mit dem steigenden Einsatz von Dialoganwendungen, bei denen das Antwortzeitverhalten den Enduser unmittelbar berührt. Hier verschärft sich die Forderung nach ausreichender Kapazität noch in den allgemein bekannten sogenannten Spitzenzeiten. Eine erfolgreiche Kapazitätsplanung muß daher immer endbenutzerorientiert sein.

Zwei Umstände verurteilen dieses Vorgehen häufig zum Scheitern: Für die vorhandenen Dialoganwendungen fehlt es an Zahlenmaterial, um einen Bedarf hochzurechnen, und/oder der Endbenutzer kann seinen künftigen Bedarf nicht definieren.

Wenn der Anwender seinen künftigen Bedarf nicht zuverlässig vorgeben kann, hilft auch das komfortabelste Tool für Kapazitätsplanung nicht mehr weiter. Um in einer solchen Situation reaktionsfähig zu bleiben, muß ein steter guter Kontakt zu den Anwendern vorhanden sein. DV-Installationen, die mit einem planbaren Wachstum auf weite Sicht arbeiten können, sind sicherlich äußerst selten. Hier ist eine Kapazitätsplanung mit Hilfe von gesammelten Meßwerten sinnvoll und damit das eine oder andere Tool nutzbar.

Als Nachteil bleibt aber, daß ein Kapazitätsplanungstool relativ lange erst einmal Daten sammeln muß, bevor es eine brauchbare Hochrechnung erstellen kann.

Allgemein kann man sagen, daß alle diese Werkzeuge eine große Menge von Reports erstellen, die viel Zeit zum Auswerten benötigen. Hauptsächlich werden irgendwelche Engpässe aufgezeigt, oder es wird davor gewarnt beziehungsweise zu einer Reaktion aufgefordert.

Ein Toolverkäufer stellte in einer Anzeige die provokatorische Frage: "Wußten Sie, daß das Managen einer DV-Anlage auch einfach sein kann?". Bestimmt kann man es sich einfach machen, der verantwortungsbewußte DV-Manager ist aber gerade bei der Kapazitätsplanung besonders gefordert.

Ulrike Kruse, Projektleiterin Kapazitätsmanagement, Colonia Versicherung AG, Köln

Kapazitätsmanagement: Was ist das, und was bedeutet das für den Betrieb eines Großrechenzentrums? Mit dieser Frage beschäftigt sich die Colonia Versicherung seit 1982. Die erste Antwort ist relativ einfach: Ziel des Kapazitätsmanagements (KM) ist es, einen sinnvollen Mittelweg zwischen dem Anwenderservice und den damit verbundenen Kosten zu erreichen. Zu untersuchen sind die klassischen Gebiete des KM: Performance Management und Kapazitätsplanung. Gegenstand, der Betrachtung sind Systemdaten zu Service, Last und Verfügbarkeit sowie Plandaten für die Hauptanwendungen.

Das Performance Management (PM) beschäftigt sich mit der Verhinderung von Systemproblemen und der optimalen Systemauslastung. Für die Aufgaben der laufenden System-

beobachtung im RZ-Operating ist eine genaue Kenntnis der kritischen Systemgrößen etc. von entscheidender Bedeutung. Im Problemfall müssen, Weitere Analysewerte schnell abrufbar sein, um eine rasche Reaktion zu ermöglichen. Die Punkte Systemoptimierung und Tuning liegen bei der Systemprogrammierung, die durch Selektion und Interpretation von Systemmonitordaten die Komponentenkontrolle und Engpaßbeseitigung betreibt.

Bei der Kapazitätsplanung stehen die frühzeitige Erkennung von Kapazitätsengpässen und das Erarbeiten von Alternativen bei der Hardwareerweiterung im Vordergrund. Für den ersten Teil ist eine genaue Kenntnis der Ist-Situation notwendig, wobei insbesondere die Reserven für die wichtigsten Ressourcen bekannt sein müssen. Auf der Planungsseite müssen Planungskenngrößen für die Hauptanwendungen festgelegt und in regelmäßigen Abständen bei den Fachabteilungen erfragt werden. Diese Planungsgrößen müssen in systembezogene Variablen umgesetzt werden, die dann mit Methoden der Trendanalyse oder mit Modellingtechniken für verschiedene Hardwarekonstellationen hochgerechnet werden.

Untersucht man die Arbeiten, die konkret im Rahmen von PM und KP zu tun sind, so steht in beiden Fällen die Ist-Analyse und damit die Beschaffung von Datenmaterial an erster Stelle. Die Schwierigkeit ist hier nicht etwa das Fehlen von Informationen. Im Gegenteil: Wer eine Auskunft zu einer Systemkomponente sucht, hat bei Auswertungen der MVS-Systemmonitore (SMF, RMF, IMS-LOG, TSO/MON, NPA, LOGREC) viel eher das Problem, die relevanten Informationen aus einer Vielzahl von Detailsätzen zu selektieren und sinnvoll zusammenzuführen. Ein großer Anteil der Arbeitszeit von hochbezahlten Systemspezialisten geht für diese Datensammelaktionen verloren, bevor die eigentliche Analyse für die Komponentenoptimierung beziehungsweise Engpaßbeseitigung beginnen kann. Das gleiche Problem hat der Kapazitätsplaner, der die mühsam zusammengestellten Daten verdichten und statistisch weiterverarbeiten muß.

Bedenkt man diesen Aufwand, so wird deutlich, daß KM heute als dritte Komponente ein Information Management (IM) enthalten muß. Für Analysearbeiten ist die Anforderung an das IM, alle wichtigen Systemmonitordaten in einheitlicher, einfacher und verdichteter Form zusammenzufassen (KM-Datenbank). Ein DV-Berichtswesen muß aber alle wesentlichen Systemgrößen zu Last, Service und Verfügbarkeit in Tages-, Monats- und Jahresübersichten ausweisen. Für die Auswertung der KM-Datenbank ist eine höhere Programmiersprache erforderlich, die einfache Befehle für die weitere Bearbeitung, statistische Verdichtung und tabularische/grafische Darstellung der Ergebnisse enthält. Außerdem brauche das RZ-Operating Realtime-Monitore, die den aktuellen Service- und Lastzustand der Maschinen im laufenden Betrieb wiedergeben.

Bei der stufenweisen Einführung wurde bei der Colonia Versicherung mit dem Einsatz der Realtime-Monitore Omegamon/MVS (1982) und Omegamon/IMS (1983) begonnen. Für die Auswertung der Systemmonitordaten wird seit 1982 die Programmiersprache SAS (Statistical Analysis System) eingesetzt, die zusätzlich zu Statistik- und Grafikkomponenten eine eigene relationale Datenorganisationsform enthält. Die KM-Datenbank ist seit 1985 mit dem Softwarepaket MICS (MVS Integrated Control System) realisiert das in SAS geschrieb(...) ist. MICS faßt alle Systemmonitordaten in einer SAS-Datenbank zusammen, die folglich mit allen Prozeduren dieser Statistiksprache ausgewertet werden kann. Darauf aufbauend wurde ein DV-Berichtswesen in Eigenentwicklung erstellt und Anfang des Jahres eingesetzt. PM und KP werden durch zusätzliche MICS-Komponenten unterstützt.

Mit dieser Kombination von KM-Software ist ein hoher Grad an Transparenz in der Colonia-DV erreicht. Die Reaktionszeiten in Problemfällen sind gesunken, der Ist-Zustand der Maschinen ist sehr genau bekannt, der Entscheidungsspielraum bei Hardwareerweiterungen ist deutlich größer geworden.

Man täusche sich allerdings nicht über die Vorarbeit, die geleistet werden muß, um diese Ergebnisse zu erreichen. Die KM-Software ist teuer, und der Implementierungsaufwand ist nicht unerheblich. Die Frage ist hier, ob bei dem oft bevorzugten "Kapazitätsmanagement nach Daumenmaß" der Aufwand und die Kosten mindestens ebenso stark zu Buche schlagen, dort nur weitaus besser versteckt im Tagesgeschäft. Besonders teuer sind zeitlich falsch terminierte Hardwareerweiterungen, aber wer rechnet das schon nach?