System-Management/Expertensysteme können helfen

Das Performance-Management zur Kapazitätsplanung nutzen

06.02.1998

Bereits zum 23. Mal trafen sich Anfang Dezember letzten Jahres DV-Profis aus aller Welt auf der Fachkonferenz der Computer Measurement Group (CMG) in Orlando, Florida. Die CMG, ein Expertenforum für das System-Management, beschäftigt sich mit Themen wie der Ermittlung von Performance-Daten (etwa Antwortzeiten und Datendurchsatz) sowie dem Performance-Tuning in heterogenen Server-Umgebungen. Diese Informationen bilden die Grundlage für geplante Erweiterungen, bei denen es darum geht, möglichst exakt die benötigten IT-Ressourcen für eine adäquate Performance zu ermitteln.

Stand bis vor kurzem noch der Mainframe im Zentrum des Interesses der CMG, so widmen sich die Experten neuerdings zunehmend dem Performance-Management in heterogenen Client-Server-Umgebungen.

Zu den wichtigsten Funktionen des Performance-Managements in Mainframe- wie auch in Client-Server-Umgebungen zählen:

- Echtzeitüberwachung (Realtime Monitoring),

- Alarmhandhabung und

- Trendanalysen.

Realtime Monitoring mißt beispielsweise die Auslastung der File- und Applikations-Server in bestimmten Zeitabständen. Farbige Darstellungen der laufenden Performance-Daten liefern dem Systemverwalter einen schnellen Überblick über den Status von Servern und Applikationen im Netz. Real-time-Daten, die in History-Files abgelegt werden, bilden die Grundlage für eine genauere Analyse, die dem Administrator später hilft, eine günstigere Hardware- und Softwarekonfiguration zu ermitteln.

Diese skizzenhafte Darstellung der Aufgaben verdeutlicht, daß es sich beim Performance-Management um eine Schlüsselfunktion der IT-Infrastruktur handelt. Performance-Management ist in vielen Einsatzgebieten der Informationstechnologie in den Unternehmen erforderlich:

- Netzwerk-Management (ermittelt wird dabei neben der Performance beispielsweise auch die Verfügbarkeit von Hubs, Leitungen, Routern oder Switches);

- System-Management (zusätzlich zu den Performance-Aspekten geht es dabei etwa um Backup, Konfigurations-Management, Lizenzüberwachung, Recovery, Scheduling, Softwaredistribution, Virencheck etc.);

- Datenbank-Management (ergänzend zu Performance-Aspekten dreht es sich hierbei unter anderem um Backup, Cache-Verwaltung, Recovery, Reorganisation, Scheduling) sowie

- Applikations-Management (außer den Performance-Aspekten werden hier auch Funktionen behandelt wie Accounting, Backup, Cache-Verwaltung, Recovery, Reorganisation, Scheduling).

Zu den wichtigsten Anbietern von Performance-Management-Tools zählen: BMC (www.bmc. com), Candle (www.candle.com), Compuware (www.compuware. com), Landmark (www.landmark. com), Loan System (www.loansystem.com) und Platinum (www. platinum.com).

Gerade in heterogenen Client-Server-Architekturen ergeben sich ständig neuartige Anforderungen an Performance-Management-Tools. Zwei Trends waren in diesem Zusammenhang auf der CMG-Konferenz zu beobachten:

- Application Response Measurement (ARM) und

- Expertensysteme.

ARM konzentriert sich auf das Antwortverhalten von Applikationen in Three-Tier-Client-Server-Umgebungen, in denen Transaktionen verarbeitet werden. Eine erste Expertensystem-Implementierung präsentierte auf der CMG-Tagung etwa Loan Systems. Als Ausgangspunkt aller Aktivitäten im Bereich Performance-Management müssen zunächst Daten ermittelt werden. Anschließend sind diese Daten zu interpretieren, und sie bilden dann die Basis für Handlungsanweisungen. Das Application Response Measurement interessiert sich für die Antwortzeiten von Transaktionen in Client-Server-Umgebungen. Dazu wird in eine Applikation, von der die Antwortzeiten gemessen werden sollen, Programmcode in Form des ARM-API eingefügt.

Durch die Einbettung dieser Schnittstelle ist eine Applikation bereit zur Administration. Da entsprechende Meßpunkte in die Anwendung eingefügt wurden, läßt sich feststellen, wie sich diese in bestimmten Situationen verhält, beispielsweise abhängig vom Netzverkehr, dem anfallenden Datenvolumen oder der Anzahl der gleichzeitigen Benutzer.

Expertensysteme bedienen sich der Methoden der künstlichen Intelligenz, um die Gefahr von Engpässen auszuschließen und Systemausfälle schnellstmöglich zu beseitigen. Sie nutzen dazu Analyseergebnisse, die das Performance-Management-Tool liefert. Einige Werkzeuge haben dazu Sammelagenten in der IT-Umgebung verteilt, die ständig die Aktivitäten von Netware-, Windows NT-, AS/400- oder Unix-Systemen überwachen und ihre Beobachtungen an eine zentrale Überwachungskonsole melden.

Neben der Analyse der Server-Aktivitäten in Echtzeit lösen Agenten einen Alarm aus, wenn individuell vereinbarte Schwellenwerte überschritten werden. Darüber hinaus versorgen die Agenten auch die Datei für Langzeitanalysen (History-File) mit Informationen. Die Auswahl der Werte und Zeiträume führt zu aussagekräftigen Trends, die die Grundlage für eine tragfähige Kapazitätsplanung bilden.

Angeklickt

Das Performance-Management der Großrechnerwelt sollte vor allem die Stabilität, Verfügbarkeit und Leistungsfähigkeit der Applikationen und Systeme sicherstellen. Mittlerweile wurde dieser Anspruch auch auf heterogene Client-Server-Umgebungen übertragen. Neue, integrierte Verfahren wie etwa Expertensysteme sollen darüber hinaus auf mögliche Engpässe aufmerksam machen und Handlungsanweisungen geben.

*Jürgen Wasem-Gutensohn ist Redakteur bei der PR-Agentur PR-Com in Martinsried bei München.