Der größte Gegner der Leistungsmessung ist die Ignoranz

27.10.1978

Mit Ecoma-Präsident Scott N. Yasler sprach Elmar Elmauer

- Herr Yasler, fast jede Session der ECOMA 6 hier in London war gut besucht: Wie viele Mitglieder waren denn insgesamt hier - und wie viele blieben zu Hause?

Wir haben etwa 600 Mitglieder, von denen 270 an der ECOMA 6 teilnahmen. was heißt, daß rund 140 Firmen vertreten waren.

- Das wären fast 50 Prozent: Sie sind also mit dem Besuch zufrieden?

Ich möchte das an einem Vergleich erläutern: Am letzten CMG (Computer Measurement Group) in den USA nahmen etwa 400 Zuhörer teil. Wenn man darüber vergleicht, daß die EDV in den Staaten zehnmal so dicht ist wie hier in Europa, und unsere 270 Besucher dagegenhält, dann haben wir bei einer zehnfach kleineren EDV-Dichte wesentlich mehr erreicht.

- Nun fällt auf, daß hier besonders viele Banken vertreten sind. Steht's mit den Durchsatzproblemen bei den Geldinstituten so schlecht?

Nein. Ich sehe zwei Gründe: Erstens haben Banken normalerweise größere Computer installiert, und zweitens ist sicher wahr, daß Banken mehr Geld investieren können, um Geld zu sparen.

- Ist es nicht auch so, daß zur ECOMA eine Reihe von DV-Profis kommen, die sich bloß vom Kollegen bestätigen lassen wollen, quasi, fishing for compliments?

Nein. Hier geht es sicher um einen Erfahrungsaustausch, bei dem jeder lernt. Zumal wir alle Gruppen von EDV-Fachleuten im Teilnehmerkreis haben. Ich habe einmal eine Statistik gemacht, nach der zwei Drittel Techniker, zu einem Drittel Manager vertreten waren. Aber das ändert sich, so zeigen die Erfahrungen zwischen ECOMA 5 und 6, auch mit dem Programm-Angebot.

- Herr Yasler, ist Leistungsmessung und Tuning, so wie sie hier von der ECOMA diskutiert werden, tatsächlich ein aktuelles Problem?

Das ist sicher ein aktuelles Problem. Wir sehen, daß immer mehr Leute sich damit auseinandersetzen. Beispielsweise haben wir beim ECOMA 1 nur neunzig Leute gehabt, jetzt haben wir fast 300 Leute. Das ist doch ein Beweis, die Leute würden doch sonst nicht teilnehmen.

- Dennoch scheint mir das Verhalten am Markt allmählich anders zu laufen: Wenn's mit den Durchsatzzeiten bei einem bestimmten Hersteller partout nicht mehr stimmt, dann wird zum plugkompatiblen Konkurrenten geswitcht, und die Sache hat sich.

Zuallererst wird aber doch jeder versuchen, seinen Computer besser zu organisieren. Als nächstes wird er versuchen, beim eigenen Hersteller mehr Computerpower zu kaufen, und nur als Ausweg wird er zu einem anderen Hersteller wechseln. Denn es ist ziemlich kostspielig,

wenn man sofort den Hersteller wechselt. Und ganz nebenbei macht's beim Top-Management auch einen schlechten Eindruck, wenn der

EDV-Leiter kommt und sagt: Ich komm' mit dem Hersteller nicht weiter.

- Nun liefert Hardware- und Software-Monitoring sicherlich gute Anhaltspunkte um eine eigene EDV straff zu organisieren. Die Aussagen, die durch Measurement gewonnen werden, dienen aber auch dazu, einen möglichst exakten Forecast über den künftigen Bedarf an Computerpower zu erhalten. Bloß: Was hilft diese Vorgehensweise, wenn sich, wie durch das Distributed Processing, die Struktur der Datenverarbeitung in einem Unternehmen insgesamt verändert?

Unter der Voraussetzung, daß man den Arbeitsablauf geändert hat, kann schon zutreffen, daß ein solcher Forecast nicht mehr stimmt. Aber dennoch bin ich überzeugt, daß Tuning und Monitoring in ihrer Wichtigkeit in der Zukunft steigen werden.

- Sie haben eine Begründung dafür?

Es ist eine Entwicklung. Nehmen Sie zum Beispiel meine Vorhersage nach der dritten ECOMA-Konferenz, als ich erklärte, das High-Bit-Monitoring werde in Zukunft sehr kräftig steigen. Dies ist auch tatsächlich passiert. Typisch ist dafür das Tesdata-Monitoring. Ich habe auch gesagt, daß das interaktive Monitoring zunehmen wird. Auch das ist tatsächlich passiert. Grundsätzlich wird eben Monitoring und Tuning zunehmen und nicht abnehmen.

- Aber dennoch, Herr Yasler, ist es angesichts fallender Hardwarepreise - und das werden sie im Verhältnis zur Software wohl noch länger tun - künftig überhaupt noch lohnend, einen Computer bis zum letzten Bit auszureizen?

Vielleicht lohnt es sich weniger. Aber ich sehe da zwei Entwicklungen: Erstens Hardware-Messung, zweitens Software-Messung. Die Hardware-Messung wird vielleicht eher abnehmen. Software-Messung ist aber sicher zunehmend. Dies können wir schon allein aus den Teilnehmerkreisen der ECOMA-Konferenzen schließen. Am Anfang haben wir vielmehr Interesse auf der Hardwareseite gehabt, jetzt hat sich das Schwergewicht auf die Softwareseite verlagert. Ich glaube, die Software-Messung wird in Zukunft die Hardware-Messung immer weiter zurückdrängen.

- Daß bei der Software etwas getan werden muß, liegt ja schon daran, daß der Anwender um der Zuverlässigkeit seiner Programme willen strukturiert programmiert und dadurch die Laufzeiten erhöht.

Deshalb wird er versuchen, diese Laufzeiten möglichst zu verkürzen. Dazu muß er aber untersuchen, warum ein Programm schlecht läuft. Es könnte ja sein, daß bei einem Cobol-Programm die Regeln für die Paragraph-Sizes nicht beachtet wurden oder die Parameter für das Working-set nicht respektiert wurden. Da kriegt man dann eben sehr schlecht geschriebene Programme.

- Doch das Anwendungsproblem der Zukunft, Herr Yasler, das dürfte weniger die Programm-Effizienz als die Programm- und Datensicherheit sein. Welchen Beitrag kann Tuning, kann Measurement hierzu liefern?

Datensicherheit ist in der Tat das Problem der Zukunft. Die Programm-Effizienz ist zwar immer noch eine wichtige Sache, aber: Nachdem die Hardwarekosten gefallen sind, ist es auch möglich, mit einem sehr ineffizienten Programm zu fahren. Und damit bleibt als eines der größten Probleme, mit welchen sich die heutige EDV zu beschäftigen hat, die Datensicherheit. Mir, als EDV-Revisor, geht's zum Beispiel darum, daß niemand meine Files anzapfen kann und daß wir ein gutes Back-up haben. Ich muß aber auch sehen, daß meine ganze Anlage wirtschaftlich ist. Für die Zukunft heißt das, daß sich der EDV-Revisor viel mehr mit den Werkzeugen für Hardware- und Softwaremessung beschäftigen muß . . .

- . . . viel mehr heißt, er tut es bislang zu wenig?

Wenn er's überhaupt tut, tut er's wirklich zu wenig.

- Doch noch einmal zurück zum wirtschaftlichen Sinn der Leistungsmessung. Pointiert gefragt: Wird es nicht schon bald billiger und nützlicher sein, lieber zwei mittlere Systeme in eineinhalb Schichten auszulasten, als einen getunten Jumbo in drei Schichten zu fahren und einen Profi nur fürs Schnellermachen abzustellen?

Ganz so kann man das nicht sehen. Denn dies hängt ja davon ab, welches Management man hat, und außerdem hat man bei zwei mittleren Anlagen fast, doppelt soviel Personalkosten wie (...) großen Anlage. Es ist nicht wann, daß die Personalkosten gleich hoch sind.

- Dabei behaupten Spötter, in der Regel diene die dritte Schicht nur dazu, daß die Operatoren Nachtwächter spielen. . .

Bei einer gut geplanten Anlage ist die dritte Schicht ja tatsächlich nur als Back-up vorgesehen. Für den Fall, daß in den beiden Normalschichten etwas passiert.

- Sie betonen die gut geplante Anlage. Letztlich bedeutet ja wohl auch das Tuning, daß mit ein paar chirurgischen Eingriffen ein verkorkstes System am Leben gehalten wird.

Ja, das kann in Organisationen so sein, die immer auf der Vergangenheit aufgebaut haben. Da haben Sie dann die sogenannte Empire-Building-Organisation: Da kriegt der höchste

Dataprocessing-Manager um so mehr Geld, je mehr Mitarbeiter für ihn arbeiten. Der hat in den wahrscheinlich wenig Interesse, seine Anlagen abzubauen. Der wechselt nicht von einer 370/178 auf zwei gut getunte 370/145, die in seinem Fall das gleiche bringen, wenn er dann nur die Hälfte der Leute braucht und nur noch sechzig Prozent seines Gehalts bekommt.

- Aber Sie plädieren nicht dafür, das Gehalt am Einsparungsfaktor auszurichten ?

Kein Kommentar.

- Herr Yasler, es gibt aber doch Trends, bei denen durch Tuning- oder Monitoring-Werkzeuge nichts reguliert werden kann: Wenn Sie an computerunterstützte Sachbearbeitung denken und sich einen Fall vorstellen, bei dem der Anwender 700 oder 800 Bildschirme in seine Fachabteilungen stellen möchte. Da entstehen doch Kapazitätsprobleme, die eben doch nur durch Upgrading und nicht durch Tuning gelöst werden können ?

Sie brauchen das Beispiel nicht so hoch anzusetzen. Einen Engpaß können Sie schon bei 200 oder 300 Bildschirmen haben. Aber: Der Engpaß ist nicht hardwareabhängig, der ist von der Software abhängig. Ich habe zum Beispiel Systeme bearbeitet, wo der Engpaß durch die exponentiell steigende Key-length entstanden ist. Und das ist eben eine Funktion der Software und nicht der Hardware. Hardwaremäßig können fast alle großen Anlagen solche Engpässe bewältigen. Aber das Problem liegt einfach an der Key-length und schlechtgeschriebenen Programmen.

- Wieviel Know-how sollte der Anwender haben und aus welcher Anlagen-Größe sollte er kommen, um bei der ECOMA gewinnvoll partizipieren zu können?

Sicher müßte er eine mittlere bis große Anlage haben. Bei Minis kann man nun wirklich nicht viel durch Tuning sparen.

- Wenn aber künftig die Software das Hauptproblem darstellt, dann müßte doch auch der Mini-Anwender gewinnen können?

Ja, wenn er selber optimiert, dann schon. Aber das Problem ist: Wenn er optimiert, dann ist er für die ganze Wartung verantwortlich. Dazu braucht er Leute, und das kostet Zeit. Und da frage ich mich: Ist es nicht wirklich besser, mit ineffizienter Software, aber vom Hersteller gewartet, zu fahren, als eine kleine Änderung vorzunehmen und dann selbst für die Wartung verantwortlich zu sein.

- Herr Yasler - was hält eigentlich so viele Anwender davon ab, Tuning und Monitoring im eigenen Haus zu realisieren ?

Ich kann nur sagen, wer der größte Feind der Leistungsmessung ist: die Ignoranz. Wenn Sie auf dem Mond sind dann brauchen Sie Luft, um atmen zu können. Wenn Sie einen Computer haben, dann brauchen Sie zwar Messen und Tunen auch - aber wenn Sie's nicht machen, sterben Sie nicht daran. Zumindest nicht sofort.