Leistungsmessung lieber zu früh als zu spät einsetzen

01.07.1983

"Wenn ich schon Geld ausgebe, dann investiere ich in zusätzliche Hardware." Diese Meinung vertreten nach Ansicht von Bernhard Fucyman, Lehrgangsleiter Systemanalyse und Programmierung am Control Data Institut, viele DV-Leiter. Die Anschaffung neuer Systeme

bringe dem "Patienten Performance" zwar Linderung, jedoch nicht Gesundheit. Mit jeder neuen Applikation könne das Problem wieder akut werden. Peter Brosseder, Niederlassungsleiter der Apollo GmbH, moniert, daß viele Anwender Leistungsmessung und Tuning erst dann einsetzen, wenn es eigentlich zu spät sei. Einig sind sich die Befragten darin, daß die richtige Interpretation der Ergebnisse und die daraus resultierenden Maßnahmen mindestens ebenso wichtig sind, wie die korrekte Durchführung der Messung selbst.

Peter Brosseder

Niederlassungsleiter Süd, Apollo GmbH, EDV- und Unternehmensberatung, München

Wie die Erfahrung aus unserem Beratergeschäft zeigt, werden vom DV-Anwender Leistungsmessungen und Tuning erst dann eingesetzt, wenn es eigentlich zu spät ist.

Eine aus der Situation notwendige Optimierung bringt in der Regel nur eine kurzfristige Leistungsverbesserung, kann aber die grundsätzlich gemachten Fehler nicht beheben. Es ist daher viel wichtiger, den DV-Anwender rechtzeitig bei seinen Entscheidungen zu beraten.

Die Ergebnisse der Leistungsmessungen und des Tuning werden durch die Hard-und Software bestimmt, wobei die Meßwerte der Hardware noch durch die Software beeinträchtigt werden können.

Bei der Auswahl der Hardware hat der Kunde die Möglichkeit, sich frühzeitig über die Vergleichswerte der unterschiedlichen Hersteller zu informieren.

Die häufigsten Fehler werden allerdings nicht bei der Auswahl des Herstellers, sondern bei der Festlegung der Minimalkonfiguration gemacht. Die Wettbewerbssituation am Markt zwingt den Vertriebsbeauftragten des Hardwareherstellers, eine für den Kunden häufig zu kleine Konfiguration im Angebot festzulegen. Das führt vielleicht zum Verkaufserfolg, kann aber weder den Anwender noch den Vertriebsbeauftragten zufriedenstellen.

Gerade in diesen Fällen führen später notwendige Tuningmaßnahmen nur zu unbefriedigenden Teilerfolgen, die in der Regel doch in einer Konfigurationserweiterung enden.

Der Schwerpunkt von Leistungsmessung und Tuning liegt ohne Zweifel allerdings im Bereich der Software, wobei die häufigsten Einflußfaktoren in der DB/DC-Anwendung und im Bereich der Betriebssysteme liegen. Für beide Teile sollten schon frühzeitig, das heißt bei Systeminstallation, die wesentlichen Akzente festgelegt werden. Es gibt dafür bereits heute schon zahlreiche Hilfsmittel, die beispielsweise die Strukturen von Dateien oder Datenbanken festlegen oder eine dynamische Anpassung der Systembereiche unterstützen. Der Trend, auch bei unserer Systemsoftware, zeigt eindeutig, daß in Zukunft solche Hilfsmittel noch stärker genutzt werden. Eine nachträglich durchgeführte Leistungsmessung oder Tuning hat in diesen Fällen nur eine geringfügige Umstrukturierung zur Folge.

Günstige Hardwarevoraussetzungen können nur dann optimal genutzt werden, wenn die verwendete Software auch die Möglichkeit dazu bietet. Da das im wesentlichen durch den Aufbau und die Struktur der verwendeten Programme sowie DB/DC-Komponenten bestimmt wird, sollte bei der Auswahl der Software nicht nur der Leistungsumfang, sondern mit gleicher Priorität auch die DV-technischen Aspekte bewertet werden.

Wie unsere Erfahrung zeigt, können Tuningmaßnahmen in großen integrierten Programmpaketen nur sehr schwer oder mit großem Aufwand realisiert werden. In kleineren Programmpaketen ist eine Leistungsverbesserung in der Regel mit einer Neuprogrammierung verbunden.

Leistungsmessung und Tuning sind aus unserer heutigen Erfahrung zum überwiegenden Teil nur Maßnahmen, um einmal gemachte Fehler temporär zu beheben. Frühzeitige Information und Beratung des Kunden werden daher solche Maßnahmen in Zukunft zur Ausnahme, aber nicht mehr zur Regel machen.

Bernhard Fucyman

Lehrgangsleiter Systemanalyse und Programmierung, Control Data Institut, Frankfurt

Wenn ich schon Geld ausgebe, dann investiere ich in zusätzliche Hardware oder kaufe noch Programme! So ähnlich antwortet mancher DV-Leiter auf die Frage, ob er nicht einmal eine genaue Analyse seiner Performance machen möchte. Fragt er den Hersteller, was zu tun sei, damit das Antwortzeitverhalten verbessert wird, bekommt er sofort ein Angebot über zusätzliche Kanäle, Plattenspeicher, Speichererweiterungen und den Hinweis, daß damit sein Problem gelöst werde. Mit dieser Methode hat der DV-Leiter schon in der Vergangenheit positive Erfahrungen gemacht und ist geneigt, wieder einmal den Weg durch die Beschaffungsinstanzen anzutreten. Er erntet sogar Lob, wenn die Antwortzeiten kürzer werden und der Gesamtdurchsatz sich verbessert.

Dieser DV-Leiter hat aber nur Symptome bekämpft, er hat die Ursachen außer acht gelassen! Er hat dem "Patienten Performance" Linderung verschafft, gesund ist er nicht. Das Problem ist verdrängt und kann mit einer neuen Applikation wieder akut werden.

Ein verantwortlicher DV-Leiter wird seinen gesamten DVBereich durchleuchten und dies in sinnvollen Abständen wiederholen. Die Komplexität vieler Installationen verbietet es dabei, sich mit einem flüchtigem Blick auf das Maschinenprotokoll zu begnügen. Die darin aufgelistete Inanspruchnahme der Systemressourcen ist alleine längst nicht ausreichend, um eine exakte Performance-Analyse durchzuführen. Hier hilft nur eine empirische Erfassung entscheidungsrelevanter Daten.

Es muß gemessen werden. Zu diesem Zweck kann ein Hardwaremonitor installiert werden. Er erfaßt über einen bestimmten Zeitraum die Kanalbelegung, die Zugriffe pro Platte, die Interaktionen zwischen der Zentraleinheit und den Terminals. Den gleichen Zweck erfüllt auch ein Softwaremonitor. Seine Installation ist unproblematischer, seine Ergebnisse sind vergleichbar, er beansprucht jedoch selbst Rechen- und Ein-/Ausgabekapazität.

Genauso wichtig ist die richtige Interpretation der Ergebnisse und das Veranlassen von Maßnahmen. Es können Spitzenbelegungen pro Kanal erkannt werden. Es werden auch die Jobs gefunden, die sich gegenseitig behindern (Contention). Eine Aufteilung der Daten auf mehrere Einheiten kann die Zugriffswarteschlange verkürzen. Die Akzeptanz beim Bildschirmbenutzer wird erhöht, wenn auch in Spitzenzeiten die Antwortzeiten günstig bleiben. Der Vorteil ist unmittelbar in Mark und Pfennig zu messen, wenn durch bessere Auslastung der Systemressourcen eine Schicht eingespart werden kann. Die Kosten einer Performanceanalyse haben sich in der Praxis meist schon nach wenigen Monaten amortisiert.

Leistungsmessung ist nicht nur zeitgemäß, sondern heute auch wichtiger denn je.

Kerstan von Witzleben

Leiter Forschung und Entwicklung, Donnelley & Gerardi GmbH & Co. KG, Ettlingen

Durch die Ankündigung von leistungsstarken Maschinen, die ein Mehrfaches an Leistung der zuvor installierten Systeme brachten, begann der neutrale Beobachter zu überlegen, ob Leistungsmessungen und Tuning noch zeitgemäß seien. Ist dies wirklich die richtige Fragestellung?

Durch den immer stärker forcierten Wandel der EDV-Verarbeitung vom Batch zur Online-Verarbeitung muß auch das Leistungsverhalten eines EDV-Systems unter anderen Aspekten betrachtet werden. Die Auswirkungen einer nichtoptimalen Batch-Verarbeitung bestehen lediglich darin, daß sich der zu bewältigende Workload auf einen längeren Zeitraum ausdehnt. Dieses ungünstige Verhalten kann durch einen mehrschichtigen Betrieb, oder allgemein durch mehr Arbeit, ausgeglichen werden. Im Online-Betrieb sind diese Auswirkungen jedoch sofort am Bildschirm des Sachbearbeiters sichtbar.

Die Konsequenz ist, daß das Systemverhalten einer dauernden Beobachtung unterzogen werden muß, um mit steigenden Online-Anwendungen adäquate Antwortzeiten am Bildschirm zu erhalten. Ebenso sind Spitzenbelastungen bei Batch-Verarbeitung durch verlängerte Arbeitszeiten und Computermehrnutzung zeitlich auszugleichen. Die Spitzenbelastung im Online-System läßt sich jedoch nur durch verlängerte Antwortzeiten ausgleichen. Da die Anwender unmittelbar am Computergeschehen teilhaben, müssen ihre Aussagen zu Ausnahmesituationen jederzeit nachprüfbar sein, damit festgestellt werden kann, welcher Engpaß zu einem verlängerten Systemverhalten geführt hat. Durch die Installation von VM-VTAM und zusätzlichen Systemen wie Textverarbeitung oder grafische Datenverarbeitung kann das Verhalten des Systems sehr schnell umkippen.

Viele Faktoren können in einem Gesamtsystem zu schlechteren Antwortzeiten führen. Das ist einmal die Power der CPU, die Speicher-, Kanal- und die Plattenbelastung der einzelnen Plattenmodule. Für alle Komponenten liegen Zahlen vor, wie das Belastungsverhalten maximal sein darf. Durch die Installation von Meßmonitoren unter VM oder DOS oder anderen Systemen, gibt es relativ gute Möglichkeiten, Systemverhalten in den bereits erwähnten Faktoren mit genauen Zahlen zu belegen. Aus meiner Sicht ist es absolut notwendig, die aktive Beobachtung des Systems mit folgenden Anforderungen durchzuführen:

1. Messungen müssen ständig in den Hauptbelastungszeiten gefahren und die entsprechenden Aufzeichnungen ausgedruckt werden.

2. Auswertungen lassen sich sporadisch und bei Systemveränderungen oder -erweiterungen in der Soft- und Hardware durchführen. Wünschenswert sind fortgeschriebene Statistiken, die regelmäßig durch beauftragte Sachbearbeiter oder Sekretariate erstellt werden.

3. Wenn entsprechende Systemveränderungen stattgefunden haben, muß die Interpretation der entsprechenden Aufzeichnung durch einen sachverständigen EDV-Mitarbeiter erfolgen. Die dann vorliegenden Ergebnisse können zu einer mittel- und langfristigen Planung herangezogen werden, da sich durch die Erfahrungswerte entsprechende Trends relativ langfristig ankündigen.