"Erst jetzt leistet die Anlage, was sie kann"

22.08.1975

Mit Manfred Dziewas, Leiter des Rechenzentrums der Messerschmitt-Bölkow-Blohm GmbH, sprach CW-Chefredakteur Dr. Gerhard Maurer

- Bei der Firma MBB wurde in den letzten Jahren ein umfangreiches, systematisches Tuning-Programm durchgeführt. Können Sie schon über Erfolge berichten?

Unser Hauptrechner hier in Ottobrunn ist eine IBM 370/165, die seit September 1971 installiert ist. Seither haben wir uns um Hardware-Tuning und um Software-Tuning bemüht.

- In Anwenderkreisen hört man, daß Sie dabei eine Durchsatz-Verbesserung von etwa 300 Prozent erzielt haben sollen, so daß heute 200 Prozent der ursprünglichen Last zusätzlich gefahren werden kann. Wie kann man diese Dinge messen?

Der von Ihnen genannte Wert ist im wesentlichen richtig. Etwa ein Drittel der erzielten Durchsatzsteigerung ist auf Verbesserungen und Erweiterungen an der Hardware zurückzuführen. Der überwiegende Anteil - also zwei Drittel der Durchsatzsteigerung - konnte durch Software-Tuning erreicht werden. Wir wissen dabei selbst, daß das Nennen solcher Werte sehr problematisch ist. Wir vergleichen jeweils Erfahrungsdaten aus dem Accounting und aus den SMF-Sätzen.

- Welche Maßnahme hat denn den größten Erfolg gebracht?

Unsere Meßergebnisse weisen aus, daß knapp 40 Prozent unserer Leistungsverbesserung dadurch erzielt werden konnten, daß wir die auf Platten- und auf Trommelspeichern gehaltenen Systembestände und Systemprogramme, umverteilten.

- Und wie kamen Sie zu den Erkenntnissen darüber, welche Neuverteilung bessere Ergebnisse liefert?

Eine Möglichkeit, das festzustellen, liefert der IBM-Hardware-Minitor SMI, den uns IBM in regelmäßigen Abständen leihweise und kostenlos zur Verfügung stellt. Ferner nutzen wir im Hause entwickelte Trace-Programme, die die Zugriffs- und Übertragungsfrequenzen zwischen den Extern-Speichern und der Zentraleinheit feststellen. Beide Verfahren zeigen Engpässe auf, aus denen sich erforderliche Maßnahmen der Umverteilung herleiten lassen.

- Haben Sie noch andere Maßnahmen ergriffen, um Zugriffszeiten und damit I/O-Waits zu minimieren?

Durch Verlagerung häufig benutzter Systemroutinen, - beispielsweise SVC-Routinen - in den Hauptspeicher, glauben wir 15 Prozent Durchsatzzuwachs erzielt zu haben.

Ein weiterer Effekt konnte dadurch erreicht werden, daß der Ein/Ausgabetransfer beispielsweise von Kartenlesern und zu Drukern, - unabhängig davon, ob sie nun entfernt oder lokal an das System angeschlossen sind - durch Komprimierung der Daten beschleunigt werden konnte.

Unser Verwaltungs- und Sicherungssystem für auf Platten- und Bandeinheiten gespeicherte Daten bedingt häufige Zugriffe zum Katalog. Wir haben deshalb die von IBM gelieferten Routinen teilweise durch selbstgeschriebene ersetzt und damit den Zugriff zu den Katalog-Daten erheblich beschleunigt.

Bekanntlich geht sehr viel Zeit durch Zugriffe zur Job Queue verloren. Wir haben aus diesem Grund auch hier nach einer Möglichkeit zur Verbesserung gesucht, und konnten durch Optimierung dieser Zugriffe einen Effekt von etwa fünf Prozent der Gesamtmenge erzielen.

- Wie steht es um die Vergeudung von Speicherplatz bei Benutzer-Beständen und bei der Platzverwaltung von Arbeitsbereichen?

Das war in der Tat ein Problem, das uns lange Zeit beschäftigte,- bis wir auch hier eine Lösung fanden: Durch entsprechende Verwaltungsroutinen, die bei der Anlage und Benutzung von Daten- und Programmbibliotheken wirksam werden und ebenfalls bei der automatischen Zuweisung von Arbeitsbereichen bei Sort-Läufen aktiviert werden, konnten wir unseren externen Speicherbedarf um etwa 25 Prozent reduzieren. Natürlich hat diese Optimierungsmaßnahme auch zu einer Verkürzung der Ablaufzeiten geführt.

- Was läßt sich denn im Rechner selbst optimieren?

Einsparungen, die etwa 15 Prozent der Gesamt-Verbesserungen ausmachen, meinen wir durch eine Automatisierung des Job Scheduling erreicht zu haben. Dieses von uns selbst entwickelte Programm ersetzt weitgehend den Konsol-Operator. Das Verfahren "scheduled" automatisch - in Abhängigkeit verfügbarer Hauptspeicher und auch peripherer Resourcen - die in der Warteschlange des Systems anstehenden Programme. Wir nutzen hier die Tatsache, daß auch der fähigste Operator die Vielzahl der zur Steuerung eines großen Systems erforderlichen Daten nicht so gut übersehen und handhaben kann wie ein Algorithmus auf der Maschine.

- Das hört sich an wie Pionier-Arbeit.

Wir haben zwar Kontakt zu einer Vielzahl von Installationen unserer näheren und weiteren Umgebung, sind auch Mitglied im MVT-Arbeitskreis der Share-Benutzer-Organisation. Unseres Wissens aber existiert in der Bundesrepublik kein vergleichbares System zu dem bei uns seit Sommer 74 eingeführten Verfahren.

- Job Scheduling und Hauptspeicherverwaltung tangieren einander. Haben Sie auch für die Steuerung des Multiprogramming Verbesserungen eingeführt?

Man ahnt ja gar nicht - weil man sich um diese Innereien in der Regel nicht kümmert wie - ineffizient einzelne Betriebssystemkomponenten konzipiert und programmiert sind. So haben wir zum Beispiel:

So haben wir zum Beispiel eine Routine mit etwa 1000 Befehlen, die jede vierte Millisekunde angesprungen wird, durch ein entsprechendes Modul der Share-Arbeitsgruppe ersetzt, das nur sieben Befehle umfaßt.

Solche Änderungen an der System-Steuerung haben uns unter dem Strich ebenfalls einen Tuning-Effekt von zirka sieben Prozent gebracht. Man muß sich um diese Optimierungssoftware bemühen, - beispielsweise haben wir das zuletzt genannte Verfahren von einer Arbeitsgruppe der Share Organisation aus den USA übernommen und unserer Konfiguration angepaßt.

- Es lohnt sich also, in solchen User-Organisationen und ihren Arbeitsgruppen mitzuarbeiten?

Sie haben insbesondere dann recht, wenn man sich als Benutzer mehr auf der nehmenden Seite befindet. Um einen Überblick über die Größenordnung der überhaupt verfügbaren Modifikationen, die über Share erhältlich sind, zu geben, kann gesagt werden, daß alleine für das MVT-Betriebssystem etwa 100 000 Befehle für Modifikationen angeboten werden.

- Beziehen Sie auch System-Software als Standardpakete von den Software-Anbietern?

Wir haben bei uns mit Erfolg das Fast Dump Restore-Verfahren von Westinghouse im Einsatz. Auch die Pakete PPE und TSA von CAP haben wir gekauft, auf die insgesamt etwa drei Prozent unserer Tuning-Erfolge zurückzuführen sein dürften. Bei einigen Anwendungen - insbesondere für in PL 1 geschriebenen Programmen aus der Administration - konnten wir mit PPE beziehungsweise mit PPE und TSA Laufzeitreduzierungen von bis zu 90 Prozent erzielen.

- Wieviel Programme haben Sie denn bereits mit diesem Software-Monitor analysiert und können Sie einen Durchschnittswert nennen?

Seit wir vor etwa eineinhalb Jahren PPE bei uns eingesetzt haben müßten wir etwa 200 Programme auf der Basis der durch PPE gewonnenen Ablaufdaten optimiert haben. Wir glauben, dadurch die Laufzeit der optimierten Programme um im Durchschnitt 25 bis 30 Prozent verkürzt zu haben.

- Sie haben 14 000 Magnetbänder im Archiv und erwähnten vorhin, daß sie täglich etwa 3000 Bänder wechseln. Da kommt es - wie wohl in jedem Rechenzentrum - auch gelegentlich zu Fehlbelegungen, die dann zumindest bis zur Programm-Aktivierung Magnetbandeinheiten blockieren.

Darüber hinaus sind beim normale Standardsystem in diesen Fällen gezielte Programmabbrüche erforderlich. Wegen der auch bei uns gewonnene schlechten Erfahrungen haben wir ein automatisches Verwaltungssytem entwickelt, das sofort bei Montage der angeforderten Datenträger - und eben nicht erst bei Verarbeitungsbeginn - die Label-Eintragungen gegen die im Katalog gespeicherten Profile vergleicht und somit die von Ihnen genannten Fehlbelegungen vermeiden hilft.

- Das geht aber wohl doch nur bei katalogisierten Bändern. Und wie ist die Situation bei Fremd-Bändern?

Wir treiben einen regen Datenträgeraustausch mit zahlreichen Auftraggebern und Auftragnehmern unsere Firma. Deshalb müssen bei uns sowohl Standard-Label - als auch No Label-Bänder verarbeitet werden. Datenträger die nicht unseren Konventionen entsprechen, werden vor der Verarbeitung durch ein spezielles Verfahren unserem Verfahren angeglichen und können dann auf unserer Anlage genauso verarbeitet werden, wie unsere eigenen Standard-Bänder.

- Das ist sicherlich sehr schön, aber wieso erhöht man dadurch den Systemdurchsatz?

Beim vom Hersteller gelieferten Standard-System werden die im Label enthaltenen Eintragungen mit denjenigen im Katalog erst beim Start der Verarbeitung des betreffenden Programms verglichen. Wir beschleunigen mit unserem Verfahren den Systemdurchsatz dadurch, daß wir diese logische, formale und inhaltliche Überprüfung der Angaben in der Job Control mit denjenigen im Katalog unmittelbar nach dem Einlesen des betreffenden Programmes vornehmen, dies wird durch einen von uns geschriebenen speziellen Exit, in der Reader Routine bewerkstelligt. Diese Früherkennung von Fehlern beziehungsweise Unstimmigkeiten kostet keine CPU-Zeit, die beim Standardverfahren dann anfällt, wenn diese Prüfvorgänge erst bei Beginn der Verarbeitung des Programmes durchgeführt werden.

- Kann man auch das quantifizieren und einen Anteil an den Gesamtverbesserungen nennen?

Wir schätzen, daß wir dadurch unseren Systemdurchsatz um knapp zehn Prozent beschleunigt haben.

- Das klingt alles sehr beeindruckend. Mancher Leser wird sagen: "MBB ist ja auch eine große Firma und nur die können diesen Aufwand treiben". Hätten Sie diese Schritte auch unternommen, wenn Sie Chef einer kleineren EDV-Abteilung, - sagen wir mit einer eher kleinen 370/145 -wären.

Der zur Realisierung der diskutierten Maßnahmen erforderlich gewesene Personalaufwand bewegt sich durchaus in normalen Grenzen. Zur Betreuung der Betriebsysteme von zwei Großrechenanlagen - neben der genannten IBM-Anlage haben wir hier noch ein Siemens-System 4004/151 in Betrieb - steht uns nur ein sehr kleines aber äußerst schlagkräftiges und versiertes Team von fünf Systemprogrammierern zur Verfügung. Wir brauchen also nicht viel mehr Manpower, als für die Systembetreuung mittlerer Anlagen notwendig ist.

- Aber lohnen sich dergleichen Dinge bei mittleren Anlagen im gleichen Maße?

Das hängt auf jeden Fall sehr stark von dem Grad der Komplexität der Anwendungen ab. Mit Sicherheit würde ich aber die Maßnahmen realisieren, die uns einen hohen Tuning-Effekt gebracht haben, - also die erwähnte Neuverteilung der Systembestände auf den Platten, das automatische Job Scheduling und die optimale Speicherung der benötigten Systemroutinen entweder im Hauptspeicher oder auf Externspeicher, - sicherlich auch das Software-Monitoring mit dem erwähnten PPE. Dergleichen Dinge würde ich auch bei einer mittleren Anlage in Angriff nehmen.

- Wie verhält sich denn der Hersteller? Was sagt die IBM zu Ihren zahlreichen Modifikationen am Betriebssystem?

Bezüglich der bei uns durchgeführten Systemmodifikationen nimmt IBM eine nicht eindeutige Haltung ein. Einerseits werden wir gerne gegenüber Dritten als Renommierkunde genannt, dann aber sieht IBM sehr wohl auch die sie ergebenden Schwierigkeiten, was den Wartungs-Service betrifft. Ich kann mir auch vorstellen, daß der uns betreuende Vertriebsbeauftragte über die bei uns erzielten Tuning-Erfolge nicht immer ganz happy ist.