Mehr Leistung aus der IT herausholen

19.09.2002 von Martin Seiler
MÜNCHEN (COMPUTERWOCHE) - Die IT ist der Motor jedes Unternehmens: Läuft sie nicht rund, leiden die Geschäftsprozesse, Umsatzeinbußen drohen. Spätestens dann muss die IT-Abteilung aktiv werden und Abhilfe schaffen. Das muss nicht unbedingt die Anschaffung neuer Hardware bedeuten: Oft reicht es, die vorhandene Infrastruktur zu optimieren.

Foto: Volkswagen

Never touch a running system - Administratoren kennen diesen Leitsatz nur zu gut. Doch spätestens wenn die Performance einer einzelnen Anwendung oder sogar der gesamten IT in den Keller geht, sind die Spezialisten zum Handeln aufgefordert. Wer aber glaubt, dass ein Leistungsengpass immer das Bereitstellen von zusätzlichen Kapazitäten und somit neue Investitionen bedeutet, der irrt. Oft ist es viel sinnvoller, gezielt auf Fehlersuche zu gehen und die Systeme zu optimieren. Gerade in heterogenen Umgebungen steckt der Teufel meist im Detail, können hartnäckige Probleme beim Zusammenspiel unterschiedlicher Komponenten entstehen. Ein Tuning wirkt hier oftmals Wunder.

In den meisten Fällen findet eine Optimierung nicht proaktiv statt. Viele Unternehmen suchen erst dann nach Verbesserungen in ihren Systemen, wenn der Leidensdruck hoch genug ist. Bei Einführung von neuen Anwendungen ist dies recht häufig der Fall. Erst dann macht man sich daran, die existierende Hardware-Infrastruktur zu tunen, damit die neue Lösung performant läuft.

Die Praxis zeigt, dass es typische Problemfelder gibt, die regelmäßig für Leistungsengpässe sorgen. Überlastete Netze tauchen in den Untersuchungen der International Data Corp. (IDC) erst auf Platz vier der häufigsten Störungsursachen auf. Den Analysten zufolge sind Anwendungen die häufigste Ursache für Störungen. Zu einem ähnlichen Ergebnis kommt eine Untersuchung der Gartner Group: 40 Prozent aller Ausfälle führen die Spezialisten auf Fehler innerhalb der Software zurück.

Schuld sind oft die Anwendungen

Karsten Ludolph, Geschäftsführer des Tuning-Spezialisten Mercury Interactive, glaubt die Ursachen zu kennen. Er schätzt, dass „80 Prozent aller Programme nicht optimiert sind.“ Erst durch eine individuelle, an den jeweiligen Gegebenheiten in den Unternehmen orientierte Anpassung können Unternehmen ihre Applikationen effektiv nutzen.

Uwe Flagmeyer, Leiter Technical Operations bei Mercury Interactive, warnt davor, dass komplexe Software aus den Bereichen Enterprise Ressource Planning (ERP) oder Customer-Relationship-Management (CRM), oftmals nicht wirklich optimal eingerichtet ist. Obwohl die Lösungen im Zuge der Implementierung beim Kunden immer individualisiert werden, entfalten sie ohne spezielles Tuning nicht ihre volle Leistung.

Rudolf Caspary, Geschäftsführer des auf System-Management-Lösungen spezialisierten Herstellers Realtech GmbH, weiß aus Erfahrung, dass „60 Prozent aller Probleme, die der User spürt, durch modifizierten Programm-Code entstehen.“ Wer sich beispielsweise bei R/3 die Formulierung der im Abap-Code enthaltenen SQL-Anfragen nicht sorgfältig überlegt, kann „erhebliche Probleme“ erzeugen.

Optimierungs-Tools

"Pro Tune", Mercury Interactive Die Lösung hilft laut Hersteller Probleme in Echtzeit erkennen und ist zudem in der Lage, Netze während des laufenden Betriebs zu optimieren. Die Software bedient sich dazu synthetischer Transaktionen, die sie über Netze, Datenbanken, Server und sonstige Systeme ablaufen lässt, um die Ursache eines Leistungseinbruchs festzustellen. Die Lösung wertet Fehlermeldungen aus und gibt sie an eine zentrale Instanz weiter, die auch Empfehlungen zur Beseitigung der Schwachstellen gibt.

"The Guard", Realtech GmbH Die Management-Suite eignet sich nicht nur zur Verwaltung der einzelnen IT-Komponenten, sondern hilft Anwendern auch dabei, Problemsituationen innerhalb der IT rechtzeitig zu entdecken. Dabei nutzt der Hersteller ein besonderes Verfahren, das das Verhältnis von Hard- und Softwarekomponenten innerhalb eines Systems in eine zeitliche Beziehung zueinander setzt. Die besondere Stärke von The Guard liegt im SAP-Umfeld, doch auch Anwendungen von Herstellern wie Peoplesoft oder Siebel sowie eine ganze Reihe verschiedener Datenbanken und Betriebssysteme können damit verwaltet und optimiert werden.

"Silkperformer", Segue Software Über im Netz installierte Agenten überwacht die Lösung die IT-Infrastruktur und darin installierte Anwendungen und Komponenten. Die gesammelten Daten werden benutzt, um Berichte über die zur Verfügung stehende Leistung zu erstellen. So sollen sich eventuelle Engpässe schnell erkennen und beseitigen lassen. Mit Silkperformer können Administratoren auch künstlich Traffic erzeugen, um so die Belastungsfähigkeit ihrer IT zu überprüfen.

"Vantage", Compuware GmbH Die Softwaresuite ist nach Angaben des Herstellers geeignet, um die Leistungsfähigkeit von Windows-, Legacy- oder Citrix-Applikationen zu überwachen. Anwender können dabei wählen, ob das Tool die Performance aus Sicht des Endbenutzers darstellt oder aus der Infrastrukturperspektive. Administratoren unterstützt es bei der Fehlersuche und der Analyse von Engpässen. Automatisierte Analysefunktionen sollen helfen, der Ursache von Leistungseinbußen schneller auf die Spur zu kommen. Überdies soll sich Vantage zur aktiven Netz- und Kapazitätsplanung einsetzen lassen.

Die in den Anwendungen enthaltenen SQL-Statements lassen nicht nur im SAP-Umfeld immer wieder Raum für Verbesserungen. Martin Klapdor, Manager Pre-Sales Performance-Management Client Server bei Compuware, berichtet, dass SQL-Anfragen sowohl im Client-Server-Umfeld als auch im Host-Bereich „oftmals ungeschickt formuliert sind“. Der Hersteller Oracle kommt in einer Studie ebenfalls zu dem Schluss, dass sich eine schlechte Leistung der Datenbank in 60 Prozent aller Fälle über die Feinabstimmung von Applikationen und ihrer SQL-Statements verbessern lässt. Nur in 40 Prozent aller Fälle liege die Ursache bei der Datenbank oder habe sonstige „systembedingte“ Gründe.

Bei der Optimierung können Tools wie „DBPartner“ von Compuware wertvolle Hilfe leisten. Sie analysieren SQL-Anfragen und zeigen Werte wie die Zeitdauer, Anzahl der Verarbeitungsschritte, Angaben zu Festplattenzugriffen oder die CPU-Belastung an. Die Software schlägt dem Entwickler darüber hinaus alternative SQL-Formulierungen vor, die mögliche Fehlerquellen eliminieren. Mit Hilfe solcher Werkzeuge ist es möglich, die Antwortzeiten von Anwendungen oder Datenbanken zu verkürzen, ohne dass dafür in die Erweiterung der Hardwarebasis investiert werden muss.

Falsch programmierte Zugriffe bremsen

Leistungsengpässe können aber auch direkt im Bereich der Datenbanken auftreten. Ulrich Hirner, Senior Consultant SAP Service Engineering bei Realtech, betont, dass „vor allem bei Unternehmen, die große Tabellen und große Datenvolumen haben, ein falsch programmierter Zugriff verheerende Auswirkungen auf die Performance haben kann.“ Betroffen ist dann natürlich zum einen das jeweilige Programm selbst, das unter der langen Antwortzeit leidet, zum anderen werden aber auch Ressourcen für andere User blockiert. Die Gesamt-Performance sinkt dann, obwohl nur ein einziger Prozess schlecht programmiert ist. Nach Meinung von Hirner lassen sich hier Verbesserungen „um einen Faktor zwischen 100 und 10000 erreichen.“

Der Spezialist berichtet von einem konkreten Fall bei einem großen Sportartikelhersteller mit einem hohen Dokumentenvolumen, einer Datenbank im Terabyte-Bereich und etwa 600 bis 700 Online-Usern. Um Kosten zu senken und die Logistik zu vereinfachen, sollten viele Landesgesellschaften auf einem zentralen IT-System integriert werden. Dieser Datenbank-Server lief aber am Limit und hätte nicht mehr erweitert werden können, da die maximale Ausbaustufe bereits erreicht war. Hätte man eine weitere Landesgesellschaft angebunden, wären die Antwortzeiten für alle gesunken. Eine Neuanschaffung kam nicht in Frage, also musste die bestehende Anlage optimiert werden. „Wir haben es in fünf Tagen geschafft, die Last auf dem Datenbank-Server um etwa 25 Prozent zu senken,“ fasst Hirner den Erfolg der Tuning-Maßnahme zusammen.

IT-Optimierung in der Praxis

Wegen Leistungsproblemen machte sich die Boeing-Tochter Jeppeson GmbH, Neu-Isenburg, an die Optimierung ihrer IT. Wie Michael Bergmann, Senior Manager Flight Information Application Development erzählt, "verschwanden hin und wieder Finanzreports. Wenn der CFO Daten an den Drucker schickte, kamen die dort nicht an." Um dem Geheimnis auf die Spur zu kommen, installierten er und sein Team "Application Vantage" von Compuware und zwei Probes. Es stellte sich heraus, dass es kurze, periodisch auftretende Netzausfälle gab, die andere Tools nicht registrierten. Durch die Veränderung der Netzstruktur und den Austausch fehlerhafter Komponenten ließ sich das Problem beheben. "Seitdem läuft unser Netz einwandfrei", freut sich Bergmann.

Die Tests zeigten den IT-Spezialisten zudem Performance-Schwankungen auf. Wie Bergmann bemerkt, kam es zu sehr starken Leistungsschwankungen bei Zugriffen auf die Flugnavigations-Datenbank des Unternehmens, die niemand vom Operations-Team erklären konnte: "Das Netz lief ohne Störung, die Datenbank war verfügbar, die CPU-Auslastung war in Ordnung, aber die Abfragen dauerten einfach zu lange," erinnert sich Bergmann. Zunächst dachten die Spezialisten an ein Bandbreitenproblem im Weitverkehrsbereich und überlegten, die Netzkapazität aufzustocken, was nicht ganz billig ist.

Eine genaue Untersuchung ergab dann, dass es immer wieder hohe Paketverluste gab. Manchmal brauchte es hundert oder zweihundert Anläufe, bis ein Datenpaket überhaupt ankam. Da die von Jeppeson genutzte, 7000 Meilen lange T1-WAN-Verbindung von Neu-Isenburg nach Denver eine Latenzzeit von 150 Millisekunden aufweist, führte dies zu "massiven Auswirkungen": Für die Anwender sah es aus, als hänge die Applikation. Wie der Spezialist erklärt, lag es jedoch daran, dass die Übertragungen nicht komplett stattfanden.

Durch die Analyse profitierte das Unternehmen enorm, denn so ließen sich defekte Netzkomponenten identifizieren, deren Austausch die Datenverluste stark reduzierte. "Ohne diese Tests hätten wir unnötigerweise in teure zusätzliche Bandbreite investiert," berichtet Bergmann.

Mit Hilfe des Compuware-Tools waren er und sein Team außerdem in der Lage, wenig performante SQL-Statements zu identifizieren, die die Entwicklungstruppe dann gezielt verbessern konnte. Ohne die Softwarelösung hätte die ganze Anwendung aufwändig mit Einzelanalysen überprüft werden müssen. Die Tests zeigten innerhalb weniger Tage, welche Teile der Anwendung Performance-Probleme verursachten. Ohne Unterstützung durch die Software hätte die Analyse sicherlich zwei bis drei Wochen gedauert, ist sich Bergmann sicher. Er und sein Team konnten schnell etwa 200 SQL-Statements identifizieren, die am meisten Probleme bereiteten.

"Durch die Optimierung haben wir wesentlich zufriedenere Kunden, weil unser System jetzt stabiler läuft und wir keine Leistungseinbrüche mehr haben," fasst Bergmann das Ergebnis der Tuning-Maßnahme zusammen. Jeppeson plant, in Zukunft weitere Tools einzusetzen, um stärker als bisher proaktiv tätig zu werden.

Generell lassen sich jedoch nur schwer Aussagen machen, um welchen Faktor die Leistung von IT-Systemen durch Tuning steigt. „Das Verbesserungspotenzial ist schwer zu beziffern, denn das hängt sehr stark vom jeweiligen Projekt ab“, erklärt Compuware-Mann Klapdor. Fälle, in denen der Einsatz von Tools zum Testen und Verbessern von Unternehmens- und Web-Anwendungen klar bezifferbare finanzielle Vorteile bringt, sind eher selten. So konnte einer Analyse der International Data Corp. (IDC) zufolge die Fondsgesellschaft Oppenheimer durch den 227000 Dollar teuren Einsatz von Last- und Funktionstestlösungen rund 3,1 Millionen Dollar einsparen. Der Berliner Verband Öffentlicher Bibliotheken erzielte mit Tools des Anbieters Mercury Interactive Einsparungen von rund einer Million Euro. Zahlen wie diese verdeutlichen, dass sich die gezielte Suche nach versteckten Leistungsreserven schnell in barer Münze auszahlt.

Tipps zur Vorgehensweise

Ist die Entscheidung zur IT-Optimierung gefallen, sollten Anwender sich zunächst einmal einen Überblick über die aktuelle Lage ihrer IT verschaffen. Lydia Krowka, Geschäftsführerin der Datakom Gesellschaft für Datenkommunikation mbH in Ismaning bei München, empfiehlt, Messungen des Netzverhaltens über einen möglichst großen Zeitraum vorzunehmen, so dass möglichst alle Charakteristika des typischen Datenaufkommens erfasst werden. „Damit liegen dann die Informationen vor, um für die Optimierung an den richtigen Schrauben zu drehen“, betont die Expertin.

Nach Meinung von Detlev Rieke, European Sales Manager Performance Management Solutions bei Compuware GmbH, ist es zudem notwendig, die wichtigen Prozesse im Unternehmen zu definieren. Er hält es für empfehlenswert, sich zunächst auf kritische Anwendungen zu konzentrieren, die direkte Auswirkungen auf das Funktionieren des Kerngeschäfts eines Unternehmens haben. Diese sollten dann gezielt auf Schwachstellen und Verbesserungspotenziale hin untersucht werden. Dabei können Firmen auf eine ganze Reihe von unterschiedlichen Tools zurückgreifen (Beispiele siehe Kasten).

Gesamtsicht der IT ist wichtig

Der Spezialist weist allerdings darauf hin, dass es wenig sinnvoll ist, nur Teilbereiche der IT zu verbessern: „Die Anwender machen häufig den Fehler, dass sie bei der Fehlersuche oder der Optimierung immer nur einzelne Elemente wie Server, Datenbanken, Netz oder Anwendungen anschauen.“ Nach Meinung des Experten reicht das jedoch nicht aus, vielmehr müsse untersucht werden, zu welchen Wechselwirkungen es zwischen all diesen Komponenten kommen kann.

Sind die Problemzonen einmal identifiziert, lässt sich die Optimierung der Systeme angehen. Mitunter bieten Tools wie „Pro Tune“ von Mercury Interactive Anwendern sogar Hilfestellungen, welche konkreten Maßnahmen zu Verbesserungen führen können. Ohne den Rat von Experten kommen Unternehmen dabei jedoch nur selten aus. Aus Sicht von Realtech-Mann Hirner „können die Kunden diese Optimierung meist nicht allein leisten, weil dafür ein ganz spezielles Know-how notwendig ist.“ Erschwerend kommt hinzu, dass die Mehrzahl der Firmen nicht genug freie Kapazität hat, um diese Aufgabe während des Tagesbetriebs zu meistern.

Bei der einmaligen Optimierung der Systeme sollte es jedoch nicht bleiben. Je öfter die Infrastruktur überprüft wird, umso sicherer können sich Unternehmen sein, dass Anwendungen, Datenbanken, Server und sonstige Komponenten auch tatsächlich ihre optimale Leistung erbringen. Das wiederum ist die Garantie dafür, dass Investitionen auch nur dann getätigt werden müssen, wenn sie auch tatsächlich erforderlich und Leistungssteigerungen auf anderem Weg nicht mehr zu erreichen sind.