Fehlersuchwerkzeuge hard- und softwaremäßig?

Systeme mit Selbsterkenntnis

21.03.1980

WIEN (to) - Je komplexer ein Netzwerk, desto wichtiger und umfangreicher müssen die Diagnoseverfahren sein. So lassen sich die Gedanken von Erik Rosdol, Software Consultant für Österreich, Osteuropa und Israel im Service-Software-Bereich der Digital Equipment in Vösendorf bei Wien, zusammenfassen. In einem Gespräch mit COMPUTERWOCHE erläutert Rosdol, was Diagnosegeräte leisten, wann Fehlersuchverfahren bereits hardwaremäßig verdrahtet sinnvoll sind, und wann der Anwender auf teure Software-Tools zurückgreifen muß. Die Leitgedanken dieser Unterhaltung sind im folgenden zitiert.

Bei Diagnoseeinrichtungen muß man zunächst einmal feststellen: Benötigt man die Diagnose um einen Fehler im laufenden Netzwerk festzustellen, oder benötigt man sie im Bereich der Entwicklung? Je nachdem sind unterschiedliche Verfahren anzuwenden. Konzentrieren wir uns auf die Diagnoseverfahren im laufenden Netzwerk, wenn plötzlich irgendwo ein Fehler auftritt: Das am häufigsten angewandte Verfahren besteht aus zwei Phasen. Die erste ist der sogenannte Luft-Batch-Test, ein Schleifentest, bei dem man immer weiter in die Übertragungsstrecke vordringt und Kurzschlüsse einbaut - entweder durch manuelle Umschaltung oder durch geeignete Teststecker - und immer wieder Daten über die Leitung schickt, zurückempfängt, vergleicht, und zwar mit der höchstmöglichen Leitungsgeschwindigkeit, so daß der Extremfall getestet werden kann.

Die zweite Phase bezieht sich rein auf das als fehlerhaft diagnostizierte Geräteteil, das mit Spezialgeräten weiter untersucht wird, was jedoch nicht mehr online im Netzwerk durchgeführt wird, sondern auf einem separaten Prüfstand. Wenn ein defektes Modem beispielsweise identifiziert wurde, trachtet der Anwender danach, dieses so schnell wie möglich auszuwechseln um die Systemkosten für den Ausfall gering zu halten.

Ist es jedoch die Rechnerschnittstelle, die den Fehler produziert hat, dann sind die Diagnoseverfahren, die man hier anwendet, sehr herstellerspezifisch. Meistens wird es darauf hinauslaufen, daß man auch hier die Moduln so schnell wie möglich auswechselt und dann offline, also an einem Testsystem die Hardware verifiziert.

Die in die Software eingebauten oder im System integrierten Testhilfen sollten dann verwendet werden, wenn eine Übertragungsstrecke zu testen ist, die sich ja bei heutigen Netzwerken nicht mehr nur zwischen genau zwei Rechnern befindet, sondern wo man eigentlich überhaupt nicht mehr sagen kann, wie die Daten laufen. Sie können einmal über drei Rechner laufen, einmal über fünf - in sogenannten vollverteilten Netzwerk- oder Routingsystemen -, so daß die Kontrolle darüber, wo die Daten effektiv laufen, extern nicht mehr möglich ist. Hier kann nur (oder zumindest fast ausschließlich) mit Softwarediagnosen gearbeitet werden, um die fehlerhafte Teilstrecke zu lokalisieren.

Nachdem das defekte Teil ersetzt wurde, wird es wieder mit Hardware-Prüfgeräten durchgesetzt, wobei unter Hardwarediagnose zweierlei verstanden werden kann:

Zum einen ein Testgerät, in das ich die kaputte Printplatte hineinstecke und das mir dann sagt, daß der Transistor oder der IC Nummer 24 kaputt ist zum anderen die in zunehmendem Maße von den Rechnerherstellern und auch in unserem Hause verwendeten Selbstdiagnosesysteme, die besonders in komplexere Übertragungseinrichtungen eingebaut werden. Das sind zum Teil Mikroprozessoren, die die Möglichkeiten haben, auf Befehl die gesamte Hardwareeinrichtungen im Selbsttestverfahren abzuchecken und sogar an der eigenen Einheit Fehler aufzufinden. Dieser Hardwarebaustein wird voraussichtlich in Zukunft in verbreitetem Maße fast in alle Produkte eingebaut. Es gibt heute kein Terminal mehr ohne Selbstdiagnose und auch fast keine größere Magnetplatte.

Generell ist zu sagen, daß die Mikroprozessoren durch gesteigerte Stückzahlen immer billiger werden und daß man versucht, die Kosten für ein Selbstdiagnoseverfahren, wenn man es mit Mikroprozessor löst, eben durch große Stückzahlen so niedrig wie möglich zu halten.

Ich glaube, daß sich jeder bewußt ist, daß vermehrte Diagnoseverfahren besonders in der Software Geld kosten, daß aber auf der anderen Seite eine unbedingte Anforderung an die Systemsicherheit besteht. Je komplexer die Betriebssysteme werden, je komplexer die Netzwerke von der Architektur her werden, desto komplexer müssen zwangsläufig die Diagnoseverfahren, speziell die Softwarediagnoseverfahren, sein. Natürlich muß man sehr genau abwägen, und das wird bei uns in sehr starkem Maße gemacht, wann man ein Softwarediagnosesystem zugunsten eines Selbstdiagnosesystems nicht implementiert.

In letzter Zeit konnten wir immer öfter feststellen, daß ein Nebeneffekt der Diagnosesoftware in komlexen Netzwerken der ist, daß der Netzwerkmanager in wachsendem Maße Unregelmäßigkeiten frühzeitig erkennen kann. Durch eine langsam steigende Fehlerrate kann der Operator schließen, daß in Kürze an einer bestimmten Stelle ein Defekt auftreten wird, ganz einfach aus statistischer Erfahrung heraus. Dadurch können frühzeitig Gegenmaßnahmen ergriffen beziehungsweise Ersatzteile besorgt werden. Der Trend geht sicher in den nächsten Jahren weg vom reinen Fehlersuchwerkzeug hin zu Systemen, die zukünftige Fehler noch sicherer prognostizieren und dadurch die Ausfallquote des Netzwerkes weiter senken helfen.