Bedarf ist Ansatz zur System-Performance:

Interaktive Überwachung verhindert Engpässe

28.10.1983

Seit Einführung des Multi-Programmings wird die Lücke zwischen dem Kapazitätsbedarf der Anwender und der Leistungsfähigkeit der gesamten DV zunehmend größer. Ist der Bedarf erfüllt, wirft die beachtliche Kapazitätsauslegung die Frage nach der Wirtschaftlichkeit auf. Im anderen Fall sinkt die Akzeptanz der Anwender ins Bodenlose. Dieser Misere liegen komplexe Probleme zugrunde, die durch die Hardware-Ressourcen und systemnahe Software verursacht werden.

Da theoretische Ansätze, wie etwa die Warteschlangentheorien, wegen der Komplexität nicht mehr einsetzbar sind, gibt es zum Erkennen der vielseitigen Wechselbeziehungen einzelner Komponenten nur eine Lösung: das gesamte Systemverhalten zu messen. Ausgereifte Firmware und Software, mit denen - unabhängig vom Betriebssystem und Hardware - eine interaktive Systemüberwachung in Echtzeit- und Langzeitanalysen durchgeführt werden kann, stellen das geeignete Werkzeug dar.

Diese Produkte sind bezüglich Einsatzort und dem Gegenstand der Messung zu unterscheiden und können modular in einer verteilten Architektur zusammengefaßt und auch einem zentralen Kontrollsystem unterstellt werden.

Als Schnittstelle zwischen Meßobjekt und Meßsystem ist das elektrische (Aktiv-) Signal am Register einer Rechnereinheit und in der Verkabelung (passives Meßverfahren) anzusehen. Aber auch RMF- und SMF-Sätze gelten als Interface. Die Interpretation der Zustände und des Datenflusses kann so auf einer sehr niedrigen Ebene erfolgen und führt zu genauen Aussagen über Zuverlässigkeit und Aktivitäten der Systemsoftware, wie etwa dem Kanalprogramm im Falle des Meßobjektes "Kanäle".

Bei der Schnittstelle zum TP-Netz kommen weitere Verhaltensindikatoren hinzu. Neben der Hardwareebene (LINE DOWN/IDLE) kann auch die Verfahrensebene (Poll-Delay, Retransmissions, No-Response-to-Poll) mit in die Interpretation einbezogen werden (ISO-Referenzmodell bis Stufe 3).

Durch dieses Konzept wird garantiert, daß nicht nur die Kapazitätsauslastung und Lastverteilung innerhalb der Anlage und des TP-Netzes, sondern auch der Servicelevel aus Benutzersicht, nämlich Antwortzeiten und Verfügbarkeiten, ermittelt werden können.

Bedarf wird erkennbar, und den Forderungen des Anwenders nach Rechtzeitigkeit, Genauigkeit und Zuverlässigkeit kann als gerechtfertigt nachgekommen werden.

An dieser Stelle wird ein Entscheidungsmodell zum Einsatz kommen, das - ausgehend von dem Leistungsverhalten "Durchsatz" oder "Antwortzeit" - die Erstellung eines Systemprofils (Auslastung der Grundkomponenten und Arbeitsüberlappungen) und die Erstellung der Lastprofile der Anwendungen (Laufzeitverhalten und Ressourcenverbrauch) erfordert.

Diese lastsensitiven Größen werden in einer kontinuierlichen Datenbank dokumentiert und in Echtzeit aufgezeigt, und zwar nach

- Abweichungen vom Normalverhalten,

- Schwellwertüberschreitungen und Ausnahmesituationen,

- Anzahl und Häufigkeitsverteilung von Ereignissen,

- zeitlichen und anwendungsbezogenen Verläufen von Lastgrößen und deren Korrelation über gemeinsamer Zeitachse.

Es können Störungen und Ausfälle frühzeitig erkannt, analysiert und Gegenmaßnahmen als Voraussetzung des optimalen Operatings schnell und gezielt eingeleitet werden. Ferner gehen die Ergebnisse als Log-File protokolliert oder in Form von Statistiken - in die Schwachstellen-, Konkurrenz-, Engpaß- und Trendanalysen ein. Sie ermöglichen so eine effiziente Kapazitäts- und Konfigurationsplanung, zumal der Erfolg von Modifikationen nachweisbar wird.

Auch können zeitkritische Anwendungen zurückverfolgt und Frühwarnzonen mit Deadlines exakt bestimmt werden. Als unabdingbare Voraussetzung bleibt die Messung.

Die hierfür von Herstellern und Monitoranbietern bereitgehaltenen Meßpunkte, Modi- und Auswertungsprogramme zu den Meßobjekten, Prozessor, Kanäle, Peripherie und Netzwerk stellen eine sehr große Anzahl von logischen und physikalischen Kenngrößen dar.

Erst der qualifizierte Analytiker beziehungsweise Berater vermag diese Größen in Beziehung zueinander zu setzen, Zusammenhänge zu erkennen und Tuning-Vorschläge zu erarbeiten.

*Wolfgang P. Riegelmayer ist Diplom-Informatiker und als Consultant bei der Tesdata GmbH, Frankfurt, beschäftigt.