Das Computersystem transparent machen

20.01.1978

Zweckmäßigerweise lassen sich die Rechnerressourcen in die folgenden

Komponenten einteilen:

- Steuerung des Rechenzentrums (Planung, Trendanalyse und Auswertung von Berichten mit allgemeinem und zusammenfassendem Charakter).

- Optimierung des Betriebssystems (etwa 25 bis 35 Prozent der Rechnerressourcen werden dadurch beansprucht so daß eine anwenderindividuelle Optimierung durch Reduzierung des Overheads jederzeit gerechtfertigt ist).

- Zuteilung der Konfiguration (besonders bei großen Installationen können Engpässe durch den gleichzeitigen Bedarf an Ressourcen verursacht werden: deren Analyse und Vermeidung führt zu erstaunlichen Effektivitätserhöhungen).

- Dateimanagement (durch die schnelle Verbreitung von Datenbanksystemen ist

ein entscheidender Anteil der EDV-Kosten und der Kapazitätsbelegung dem

Bereich der peripheren Massenspeicher verschoben worden - die Effektivität der Dateiverwaltung läßt sich durch kontinuierliche Meßaktivitäten auf einen stabilen Stand bringen).

- Optimierung der Anwendungsprogramme (durch kritische Einzelprogrammanalyse und Modifikationen lassen sich die Performance Parameter wie Durchsatz, Antwortzeit und Ausnutzungskoeffizient verbessern).

Es gibt etwa 40 Parameter zu beachten, und da diese systemabhängig und individuell sehr unterschiedliche interpretierbar sind, ist eine wichtige Voraussetzung, daß Z klare Definitionen geschaffen r werden. Ein weiterer Punkt wäre das Festlegen klarer Projektziele. Es genügt nicht, daß man mehr Wirtschaftlichkeit und mehr Throughput erzielen will - man muß schon präziser wissen, ob es um die Laufzeitverkürzung bei kritischen Anwendungen, um die Verbesserung des Antwortzeitverhaltens von Systemen, um die Reduzierung der Hardware-Ressourcen oder um den Austausch ineffizienter Software-Module gehen soll.

Neuinterpretation von Leistungsfähigkeit

Neuerdings erhält der Begriff "Leistungsfähigkeit" von Rechnern einen neuen Inhalt. Man ist nicht mehr nur an Einsparungen (Reduzierung der Laufzeit, Verkürzung der Antwortzeit, Abschaffung von Hardware- und Softwarekomponenten, Hinauszögerung von Systemvergrößerungen), sondern auch an der Steuerbarkeit des Computersystems interessiert. So ist der EDV-Manager in der j ersten Phase der Anpackung von Performance-Fragen auch mit der Transparenz seines Computersystems zufrieden Ohne Messungen erhält man jedoch keinen Systemüberblick.

Wirtschaftlichkeit bei Messungen

Es gibt mehrere Möglichkeiten, zu Meßergebnissen zu gelangen. Je nachdem, welche Effekte erzielt werden müssen und welche Mittel zur Verfügung stehen, können verschiedene Meßmethoden angewandt werden.

Da gibt es zunächst die Daten des Job-Accounting dann kann man Benchmarks mit produktiven Programmen fahren, des weiteren gibt es synthetische Programme, die verschiedene Lastsituationen simulieren können, ferner gibt es bekanntlich Hard- und Software-Monitore sowie letztendlich die Simulation unterschiedlicher Systemkonfigurationen.

Man wird als Anwender nicht alles machen wollen, was eigentlich der Hersteller zu tun hätte. Die wichtigsten Werkzeuge des Anwenders sind wohl Job-Acoounting-Auswertung, Benchmarks mit unterschiedlichen Parametern und natürlich Software-Monitore Je größer eine Installation ist, desto mehr wird man sich der sonstigen Instrumente wie beispielsweise der Hardware-Monitore bedienen.

In günstigen Fällen versucht man die Meßergebnisse verschiedener Quellen miteinander in Verbindung zu bringen. In der Graphik sehen wir einige Beispiele dafür. Sowohl für kleine wie auch für größere Installationen ist eine stufenweise Vorgehensweise empfehlenswert.

Tendenzen

Auch die Effektivitätsmessung muß mit der dynamischen Entwicklung auf dem EDV Sektor Schritt halten. In da nächsten Zukunft rechnet man mit folgenden Entwicklungstendenzen auf dem Gebiet der Messung, Analyse und Verbesserung der Leistungsfähigkeit:

- Integration von Hardware-und Softwaremitteln bei Messungen,

- Aufbau, Verwaltung und ständige Nutzung von Performance-Dateien,

- mehr Angebot an Messung und Auswertung von Teleprocessing-Aktivitäten,

- Messung und Optimierung von Computernetzen.

* Der Autor hält vom 27. 2. 1978 ein Seminar zu diesem Thema; Informationen: INTEGRATA, Biesingerstraße 10, 7400 Tübingen.