Verteilte Rechen-Kapazitäten werden zu sehr nach "Gefühl" betrieben:

Netzwerke schreien nach Monitoring

07.07.1978

Falls man heutige Computer-Installationen mit anderen hochkomplexen, technischen Einrichtungen derselben Wertklasse vergleicht, kann sofort festgestellt werden, daß Computersysteme nur sehr wenig instrumentiert sind. Zur Zeit wird noch sehr wenig auf dem Gebiet der Überwachung und Steuerung großer EDV-Installationen - insbesondere bei verteilten Rechenkapazitäten - getan. Dabei kann die heutige Generation der Computersysteme neben technologischen Innovationen (mikroskopisch integrierte Schaltkreise, Mikroprogrammierung, Laserspeicher, Geschwindigkeiten in ns-Bereich etc.) am besten durch die Verteilung der Computerintelligenz in Form von Computernetzen charakterisiert werden.

Um die Belastung der Einzelressourcen berechnen, Kapazitätsreserven, -engpässe feststellen und das Zusammenwirken aller Hardware- und Softwareressourcen einschätzen zu können, muß man von den Möglichkeiten keiten der Leistungsmessung Gebrauch machen.

Ohne genaue Meßdaten kann man die überdurchschnittliche Dynamik der DV-Entwicklung nicht mehr beherrschen. Man muß ja mit dauernden Änderungen der Hardware, der Software, der Anwenderprogramme, des Datenvolumens, der Benutzeranforderungen und der Teleprocessing-Aktivitäten rechnen. Der Bedarf an Transparenz, an Überwachung und Steuerbarkeit von Computersystemen läßt sich gerade bei Computernetzen heutzutage kaum befriedigen, da meistens nur isolierte Messungen mit verschiedenen Meßinstrumenten ohne jegliche Standardisierung vorgenommen werden.

Man redet von einer neuen Generation der Leistungsmessung, wenn Meßnetzwerke ausgebaut werden.

Die wichtigsten Gründe, derartig aufwendige Meßnetze aufzubauen können so zusammengefaßt werden:

- Mangel an erfahrenem Personal für die Leistungsmessung,

- geografische Verteilung der Computernetze

- Notwendigkeit der Ausführung kontinuierlicher und simultaner Messungen

- Verfügbarkeit der Meßdaten an verschiedenen Stellen,

- Möglichkeit der Datenfernanalyse,

- Koordinierung und Standardisierung der Messungen,

- zentrale Überwachung und Steuerung.

Welche Kriterien soll ein Meßnetzwerk erfüllen?

Kontinuierliche Messungen: Um die Überwachung der einzelnen Ressourcen und des Gesamtsystems gewährleisten zu können, müssen Auslastung und Überlappung einzelner Aktivitäten gemessen werden. Es handelt sich in erster Linie um Messung der Systemprofile (Aktivität der Zentraleinheit und der Kanäle, Überlappung der Einzelaktivitäten, Messung des Problem-/Supervisor-Verhältnisses) und einiger TP-Aktivitäten.

Messung der Behinderung an Systemressourcen: Die Ausgewogenheit des Systems und der Systeme kann durch die Beseitigung der gegenseitigen Behinderungen maßgeblich verbessert werden.

Ausführung spezieller Messungen: Messung des Betriebssystems durch MEMORY MAPPING oder durch PROTECT KEY, Messung der Dateiaktivitäten (Plattenarmbewegungs-Analyse), Messung der Anwenderprogramme und Messung ausgewählter peripherer Ressourcen.

Genauigkeit der Messungen: Um richtige Aussagen treffen zu können, müssen die Messungen - bei jedem Auslastungsgrad - genaue Ergebnisse liefern.

Datenbankkonzept: Um Trend-Analysen durchführen zu können müssen die PERFORMANCE-Daten auf längere Zeit aufbewahrt werden. Es ist sehr wichtig, daß gewählte Zeitperioden - auch online - abgefragt und untersucht werden können. Neben der zentralen Datenbank können auch dezentrale PERFORMANCE-DATEIEN gepflegt werden.

Datenreduzierung: Um das große Datenvolumen nicht speichern zu müssen, müssen die erfaßten Daten mit Hardwaregeschwindigkeit verdichtet werden. So sind die sinnvoll verdichteten Daten kurz nach der Erfassung schon verfügbar.

Echtzeitanalysen: Wenn das Systemverhalten in Echtzeit angezeigt werden kann, können Sofortmaßnahmen bei kritischen Situationen lokal oder zentral rechtzeitig ergriffen werden.

Flexibilität der Berichterstattung: Um den Bedarf verschiedener Empfänger befriedigen zu können, müssen sowohl periodische wie auch Ausnahmeberichte generiert werden, wobei von den Darstellungsmöglichkeiten der Diagramme, Histogramme und Bedingungsmatrizes Gebrauch gemacht werden soll. Es ist besonders zu beachten, daß der Grad der Detailliertheit richtig gewählt wird.

Unabhängigkeit vom zu messenden System: Um zusätzliche Systemlast zu vermeiden, soll dafür Sorge getragen werden, daß die kritischen Systemressourcen (CPU, Speicher) nicht weiter beansprucht werden.

Zuverlässigkeit der Datenübertragung: Um relevante PERFORMANCE-Daten nicht zu verlieren, müssen Sicherheitsmaßnahmen eingebaut werden; falls der Übertragungsweg oder die zentrale Einrichtung gestört sind, müssen die gemessenen Daten zeitweilig dezentral zwischengespeichert werden können.

Meßeinrichtungen

Bei der Auswahl der geeigneten Meßinstrumente müssen die Kriterien stets vor Augen gehalten werden. Bei einigen Kriterien ist die Entscheidung zwischen Hardware- und Softwaremitteln eindeutig. Kontinuierliche Messungen lassen sich kaum ohne OVERHEAD mit Softwaremitteln durchführen. Die Genauigkeits- und Unabhängigkeitsanforderungen sprechen wiederum für Hardwaremessungen. Die zentrale Datenbankkonzeption und die Flexibilität lassen sich nur mühsam mit softwaremitteln realisieren. Jedoch einige Sondermessungen (Optimierung von Anwenderprogrammen) führt man zentral oder dezentral am besten mit Softwaremethoden durch. Auch zur Plausibilitätsprüfung und zur. Eliminierung von Problemkreisen sind Softwaremittel von großer Wichtigkeit. Wegen der einheitlichen Gestaltung und Handhabung des Meßnetzwerkes ist es zu empfehlen, daß auf der Hardwarebasis aufzubauen und nur zusätzliche Messungen auf der Softwarebasis durchzuführen. In diesem Fall werden also mehrere Hardwaremonitoren an dezentralen Stellen eingesetzt und mit gemieteten oder privaten Leitungen mit dem zentralen Monitor verbunden. Die Meßdaten von anderen Quellen (Accounting, Softwaremonitoren) werden dann entweder lokal unmittelbar nach der Messung gespeichert und ausgewertet oder der zentralen Datenbank - angepaßt an die erforderliche Speicherform - übertragen.

Wirtschaftlichkeit

Alle positiven Effekte lassen sich nicht in HARDMARK (Reduzierung der Laufzeiten, Anschaffung nichtbenötigter Hardware und Software, Hinauszögerung künftiger Erweiterungen und Reduzierung des Entscheidungsrisikos) ausdrücken. Obwohl sie schwieriger nachweisbar sind, dürften die überwiegenden Effekte im SOFTMARK-Bereich (Transparenz und Steuerbarkeit, Trendanalyse, Managementberichte, Echtzeitanalysen, Standardisierung) zu erwarten sein.