Testing-, Tuning- und Monitoring-Tools erweisen sich in Krisenzeiten als Umsatzbringer

IT-Optimierung ist gefragter denn je

21.03.2003
MÜNCHEN (sp) - Mangelhafte Softwarequalität und die zeitweise Nichtverfügbarkeit von Systemen kosten Unternehmen Unsummen pro Jahr. Automatisierungs-Tools zum Optimieren der IT sind daher im Zeichen drastischer Budgetkürzungen gefragter als je zuvor. Vor allem die Marktsegmente Monitoring und Testing sollen in den kommenden Jahren kräftig zulegen.

20 Prozent der gesamten IT-Investitionen - 2001 waren das weltweit rund 500 Milliarden Dollar - werden dem Marktforschungsinstitut Gartner zufolge durch Netzausfälle, fehlerhafte Soft- und Hardware und ungenutztes Potenzial in der IT verschwendet. Nach einer Erhebung des an das US-Handelsministerium angeschlossenen National Institute of Standards and Technology (Nist) im Juni 2002 entgehen allein der US-amerikanischen Wirtschaft durch solche Faktoren 59,5 Milliarden Dollar pro Jahr.

Monitoring und Tuning im Aufwind

Eindämmen lassen sich die überflüssigen Ausgaben nach Ansicht von Experten nur durch ein konsequentes "Aufräumen" - die gezielte Suche nach Fehlerquellen, regelmäßige Verfügbarkeitsmessungen und eine insgesamt effektivere Verwaltung von Hardware, Software und Services. Mittlerweile stehen eine ganze Reihe von Komplettlösungen und dedizierten Tools zur Optimierung der IT-Infrastruktur zur Verfügung. In Anbetracht der allgemeinen Sparmaßnahmen rechnen Analysten vor allem dem Bereich Monitoring/Event-Management - gemeint sind Tools zur Überwachung und Steuerung des operativen Umfelds - sowie der Fehleranalyse im laufenden Betrieb durch Kontrolle und Durchsatz von Antwortzeiten, dem so genannten Performance-Availability-Management (PAM), gute Marktchancen aus. Tuning-Werkzeuge, die für die optimale Einstellung aller Komponenten in der Softwareproduktion zuständig sind, gewinnen in diesem Zusammenhang ebenfalls an Bedeutung.

Laut IDC wurden mit PAM-, Tuning- und Monitoring-Tools im vergangenen Jahr weltweit 3,14 Milliarden Dollar umgesetzt. Über die nächsten fünf Jahre hinweg soll dieses Marktsegment um insgesamt 43 Prozent wachsen. Auch die Analysten der Investment-Bank Pacific Growth Equities prognostizieren einen Anstieg von 2,7 Milliarden Dollar (2001) auf 4,7 Milliarden Dollar im Jahr 2005.

Werkzeuge, mit denen sich Störungen während der Produktion sowie im laufenden Betrieb analysieren lassen sowie Tools zur Beschleunigung von Hard- und Software sind zwar schon seit Jahren im Einsatz. Nach Ansicht von Georg Lukas, Director Consultant bei der Meta-Group, ist ihre Bedeutung aber bislang unterschätzt worden: "Der Operationsbereich galt nie als besonders spannend - sobald alles lief, interessierte es keinen mehr", erklärt der Experte. Angesichts des gestiegenen Kostenbewusstseins beschäftigten sich Unternehmen aber mittlerweile zunehmend mit der Frage, wie sie ihre im Einsatz befindlichen Systeme optimieren können.

Möglichkeiten gibt es genug. Durch automatisierte Aufgaben wie das Messen von Antwortzeiten und die Tool-gestützte Beseitigung von Engpässen arbeiten Systeme nicht nur effektiver - auch der personelle Aufwand lässt sich erheblich reduzieren: "Wenn ein Mitarbeiter statt bisher zehn bis 15 Win-NT-Server plötzlich 35 bis 40 Server verwalten kann, kann man sich vorstellen, welches Rationalisierungspotenzial diese Automatisierungs-Tools bieten", betont IDC-Analyst Dick Heiman.

Eine weitere treibende Kraft sind die steigenden Anforderungen an Überwachung und Diagnose. Schätzungen der Yankee Group zufolge benötigt ein Unternehmen schon heute rund 80 Prozent seines IT-Budgets allein dazu, den Status Quo der Installationen aufrechtzuerhalten. In Anbetracht immer komplexerer Systeme würden hierfür künftig noch höhere Ausgaben anfallen. Für Neuinvestitionen bleibe dann nicht mehr viel übrig. "Während sich das Monitoring früher vorrangig auf den Netzwerkbereich beschränkt hat, ist heutzutage eine Überwachung auf Applikationsebene gefragt", beschreibt Gartner-Analyst Jim Duggan. "Angesichts der zunehmenden Interaktion zwischen den einzelnen Komponenten benötigt man aber weit ausgefeiltere Tools, um herauszufinden, warum eine Anwendung etwa langsamer ist und wie man sie beschleunigen kann."

Auch die zunehmende Bedeutung von Web-Services heizt die Nachfrage nach Optimierungswerkzeugen an. Auf dieses Pferd setzt Hewlett-Packard (HP): Das Unternehmen, das vor allem im Netzwerk-Management eine führende Rolle spielt, ist mit seiner verstärkten Web-Services-Orientierung nach Ansicht von Duggan gut für die neuen Anforderungen des Application-Level-Monitoring gewappnet. Weitere Key-Player im Markt sind die Branchenriesen IBM mit Tivoli, BMC Software und Computer Associates (CA).

Heterogene, schwer zu vergleichende Angebote

Allerdings verfolgen die Anbieter sehr unterschiedliche Schwerpunkte, was die Lösungen schwer vergleichbar macht. Zudem bieten IBM und HP ihre Tuning-, Überwachungs- und Diagnose-Tools als Komponenten von kompletten System-Management-Frameworks an - wie viel Umsatz sie mit den einzelnen Produkten erzielen, ist daher kaum zu ermitteln. Bei CA sind die PAM- und Monitoring-Lösungen als Teil der Produktsuite "Unicenter" dem Application-Lifecyle-Management zugeordnet. Und der auf das Systems-Management spezialisierte US-Anbieter BMC Software, im reinen Monitoring-Bereich Marktführer, verfügt durch die Übernahmen von Peregrine und dem Helpdesk-Spezialisten Remedy mittlerweile über eine breite Palette von Pointsolutions, die für die verschiedenen, aneinander angrenzenden Problemfelder konzipiert sind.

Ein kleinerer Player ist die auf Mainframe-Systeme spezialisierte Firma Compuware. Auch Mercury Interactive, Anbieter im verwandten Bereich Softwaretesting, versucht seit einiger Zeit, sich ein Stück des Kuchens zu sichern (siehe Kasten "Monitoring und Testing aus einer Hand"). Eigenen Angaben zufolge generiert das Unternehmen bereits mehr als 20 Prozent seiner Umsätze aus dem Geschäft mit Tuning- und Monitoring-Tools. Laut Gartner-Analyst Duggan beschränkt sich die Bedeutung der Company bislang aber vorwiegend auf den Bereich Website-Überwachung. Abgesehen davon gibt es viele kleinere Anbieter von einzelnen Point-Solutions für dedizierte Aufgaben. Beispiele hierfür sind das US-Unternehmen Concord Communications, das Software für die Überwachung von Daten und die Vorausberechnung der Netzlast entwickelt, der Mainframe-Spezialist Candle sowie der vorwiegend im SAP-Umfeld tätige IT-Dienstleister Realtech.

Offene Architekturen von Vorteil

Ob Framework- oder Einzellösung hängt von den individuellen Bedürfnissen, vor allem aber von der Firmengröße ab: "Ein Mittelständler schreckt natürlich davor zurück, ein in Anschaffung und Unterhalt teures Framework einzusetzen", so Meta-Group-Experte Lukas. Entscheidend sei aber letztlich, dass die Software offen und leicht zu integrieren sei - wie etwa die weit verbreitete Management-Suite "Patrol" von BMC, die man häufig in Verbindung mit Großlösungen wie "HP Openview" oder CAs "Unicenter" vorfindet, die aber auch einzeln genutzt wird.

Auch Werkzeuge zum Testen und Konfigurations-Management von Software, die im Gegensatz zum Monitoring und Tuning bereits in der Entwicklung aktiv werden, können Experten zufolge erheblich zur IT-Optimierung beitragen. Tools, die für eine bessere Netzverfügbarkeit und Softwarefunktionalität sorgen sollen und die IDC unter dem Stichwort "Automated Software Quality" (ASQ) zusammenfasst, erfahren in Anbetracht des gestiegenen Kostenbewusstseins und der zunehmenden Komplexität von Business-Anwendungen neuen Auftrieb. Nach Einschätzung von Branchenexperten sind über 40 Prozent der Leistungsengpässe eines Systems auf fehlerhafte Anwendungen zurückzuführen - Tendenz steigend.

Das Einsparpotenzial durch Testing und anschließendes Tuning ist enorm: Einer Erhebung der Giga Information Group zufolge verursachen Softwarefehler, die erst in der Post-Production-Phase entdeckt werden, 50 Prozent höhere Kosten als wenn sie bereits in der Entwicklung behoben worden wären. Die Marktforscher von Forrester Research haben errechnet, dass allein in Deutschland Ausfälle von jährlich 85 Milliarden Euro durch mangelnde oder unzureichende Testing-Maßnahmen entstehen.

Mit einem Marktanteil von über 50 Prozent und rund 30000 Kunden ist Mercury Interactive im ASQ-Segment die klare Nummer eins. An zweiter Stelle liegt die kürzlich von IBM übernommene Firma Rational Software mit etwa 25 Prozent, gefolgt vom Testing- und Monitoring-Anbieter Compuware (zehn Prozent) und der Firma Imperix, die sich vorrangig auf Website-Testing konzentriert und einen Marktanteil von rund fünf Prozent besitzt.

Zwar ist die Krise auch an diesem Marktsegment nicht spurlos vorübergegangen. Laut IDC sanken die weltweiten Umsätze aus dem Geschäft mit ASQ-Tools im vergangenen Jahr um 3,6 Prozent gegenüber 2001 auf 1,07 Milliarden Dollar. Gartner-Mann Duggan schätzt den Rückgang sogar auf zehn bis 15 Prozent. 2001 verzeichnete der Markt noch ein Wachstum von 9,2 Prozent im Vergleich zum Vorjahr. Die Experten sind sich aber einig darin, dass die weltweiten Umsätze ab diesem Jahr wieder zunehmen werden - wenn auch nur moderat: So prognostizieren die Marktforscher von IDC bis 2007 durchschnittliche jährliche Steigerungsraten von 0,8 Prozent auf insgesamt 1,58 Milliarden Dollar.

Abb: Wichtige System-Management-Themen

Mit 67 Prozent ist Monitoring mittlerweile die am zweithäufigsten eingesetzte System-Management-Funktion. Höhere Anforderungen an die entsprechenden Tools werden den Markt nach Ansicht von Experten weiter ankurbeln. Quelle: Metagroup/Techconsult