Der meßbare Bedarf ist ausschlaggebend:

System-Performance ist keine graue Theorie

09.09.1983

Seit Einführung des Multi-Programming wird die Kluft zwischen dem Kapazitätsbedarf der unterschiedlichsten Anwender und der Leistungsfähigkeit der Gesamt-DV immer größer. Einerseits ist zwar der Bedarf erfüllt, die beachtliche Kapazitätsauslegung wirft jedoch schnell die Frage nach der Wirtschaftlichkeit auf. Andererseits sinkt die Akzeptanz der Anwender ins Bodenlose. Auch wird man bei längeren Antwortzeiten die sinkende Produktivität der Mitarbeiter nicht akzeptieren. Dieser Problematik liegen äußerst komplexe Ursachen zugrunde, die durch Hardware-Ressourcen und systemnahe Software verursacht werden.

Theoretische Ansätze wie Warteschlangentheorien sind wegen ihrer Komplexität nicht mehr einsetzbar. Deshalb gibt es zum Erkennen der vielseitigen Wechselbeziehungen einzelner Komponenten nur eine Lösung: das gesamte Systemverhalten zu messen. Ausgereifte Firmware und Software, mit denen unabhängig von Betriebssystem und Hardware eine interaktive Systemüberwachung in Echtzeit und Langzeitanalysen durchführbar ist, stellen das geeignete Werkzeug dar.

Diese Produkte unterscheiden sich bezüglich Einsatzort (Remote oder ......) und Gegenstand der Messung (Mainframe-Aktivitäten und Netzwerkverhalten) und können modular über Stand- oder Mietleitungen Offline und Online in einer verteilten Architektur zusammengefaßt und auch einem zentralen Kontrollsystem unterstellt werden.

Als Schnittstelle zwischen Meßobjekt und Meßsystem ist das elektrische (Aktiv-)Signal am Register einer Rechnereinheit und in der Verkabelung (passives Meßverfahren) sind aber auch RMF- und SMF-Sätze anzusehen. Die Interpretation der Zustände und des Datenfluss kann so auf einer sehr niedrigen Ebene erfolgen und führt zu genauen Aussagen über Zuverlässigkeit und Aktivitäten der Systemsoftware, wie beispielsweise dem Kanalprogramm im Falle des Meßobjektes Kanäle.

ISO-Refernzmodell bestimmt das Konzept

Bei der Schnittstelle zum TP-Netz kommen weitere Verhaltensindikatoren hinzu. Neben der Hardwareebene (Line Down/lDLE) kann auch die Verfahrensebene in Form von Poll-Delay, Retransmissions, No-Response-to-Poll mit in die Interpretation einbezogen werden (ISO-Referenzmodell bis Stufe drei).

Dieses Konzept garantiert, daß nicht nur die Kapazitätsauslastung und Lastverteilung innerhalb der DV und des TP-Netzes ermittelt werden können, sondern auch der Servicelevel aus Benutzersicht, also Antwortzeiten und Verfügbarkeiten.

Durch die Messung an der DFÜ-Schnittstelle wird der Bedarf erkennbar und die Forderungen des Anwenders nach Rechtzeitigkeit (Timeliness), Genauigkeit (Accurancy) und Zuverlässigkeit (Reliability) lassen sich berücksichtigen.

An dieser Stelle wird ein Entscheidungsmodell eingesetzt, das, ausgehend von dem Leistungsverhalten Durchsatz oder Antwortzeit, die Erstellung eines Systemprofils (Auslastung der Grundkomponenten und Arbeitsüberlappungen) und die Erstellung der Lastprofile der Anwendungen (Laufzeitverhalten und Ressourcenverbrauch) erfordert.

Diese Größen werden in einer kontinuierlichen Datenbank dokumentiert und in Echtzeit aufgezeigt und zwar nach

- Abweichungen vom Normalverhalten,

- Schwellwertüberschreitungen und Ausnahmesituationen,

- Anzahl der Häufigkeitsverteilung von Ereignissen,

- zeitlichen und anwendungsbezogenen Verläufen von Lastgrößen und deren Korrelation über gemeinsamer Zeitachse.

Es können Störungen und Ausfälle frühzeitig erkannt und analysiert werden, und Gegenmaßnahmen lassen sich als Voraussetzung des optionalen Operatings schnell und gezielt einleiten. Ferner gehen die Ergebnisse, als Log-file protokolliert oder in Form von Statistiken, in die Schwachstellen-, Konkurrenz-, Engpaß- und Trendanalysen ein und ermöglichen so eine effiziente Kapazitäts- und Konfigurationsplanung, zumal der Erfolg von Modifikationen nachweisbar wird. Zeitkritische Anwendungen können zurückverfolgt und Frühwarnzonen mit Deadlines exakt bestimmt werden. Unabdingbare Voraussetzung bleibt die Messung.

Die hierfür von Herstellern und Monitoranbietern bereitgehaltenen Meßpunkte, Modi- und Auswertungsprogramme zu den Vießobjekten, Prozessor, Kanäle, Peripherie und Netzwerk stellen eine große Anzahl von logischen und physikalischen Kenngrößen dar. Erst der qualifizierte Analytiker oder Berater vermag diese Größen in Beziehung zueinander zu setzen.

Wolfgang Riegelmeier ist Diplom-Informatiker und Consultant bei der Tesdata GmbH, Frankfurt