Herausforderung IT-Provider-Steuerung

Wege zur besseren IT-Service-Qualität

22.12.2014
Von Bernhard Thomas und
Siegfried Lautenbacher ist seit 1989 unternehmerisch in der IT-Branche tätig. Zur Jahrtausendwende übernahm er die Geschäftsleitung für die Beck et al. Services GmbH – einem international agierenden IT-Services Unternehmen – das seine Leistungen an der Schnittstelle zwischen IT und Business ausrichtet. Social Collaboration und dessen Auswirkungen auf den Arbeitsplatz der Zukunft  sind zentrale Säulen des Leistungsprofils sowie der eigenen Unternehmenskultur von Beck et al. Services. Siegfried Lautenbacher ist Mitgründer des Start-ups Valuescope. Es bietet Services im Bereich von Social Media Analysis und Sales Intelligence an.

Wissen, was beim Endanwender ankommt

Von ihrem Vorhaben, die Servicequalität mit Hilfe des Outsourcings zu verbessern, sind die meisten Unternehmen weit entfernt. Auch bei der Modernisierung der IT haben sich nicht die erhofften Effekte eingestellt.
Von ihrem Vorhaben, die Servicequalität mit Hilfe des Outsourcings zu verbessern, sind die meisten Unternehmen weit entfernt. Auch bei der Modernisierung der IT haben sich nicht die erhofften Effekte eingestellt.
Foto: Horvath & Partners

Zunächst sollten Unternehmen, die sich professionelle und effiziente Provider-Steuerung zum Ziel setzen, ihre Herausforderungen strukturieren. Neben dem Anforderungs- und Vertrags-Management ist besonders das Risiko-Management wichtig. Es untersucht, welche Auswirkungen die systematische Auslagerung von Services auf einen Business-Bereich haben kann. Entsprechende Maturity-Checks beim Provider sowie Daten aus geeigneten Monitoring-Systemen stellen hier bereits eine gute Grundlage dar.

Genauer gesagt, spezielle End-to-End-Monitoring-Lösungen leisten hier gute Dienste. Sie machen die vom Provider gelieferten Leistungen transparent und bilden damit die Basis für einen 360 Grad-Blick auf die eingesetzten Services. Ohne solche Daten kann nichts verbessert werden, weil niemand weiß, in welchem Ausmaß und welchem Grad Verbesserung notwendig ist.

Monitoring ist nicht gleich Monitoring

Diese Monitoring-Systeme überprüfen, ob und wie performant ein Service des Providers beim Endanwender ankommt, also wie es letztlich um die "End-User-Experience" bestellt ist.

Und das ist nicht trivial, schließlich beeinflussen die Endanwender-Aktivitäten heute gleich mehrere Komponenten in der gesamten IT-Infrastruktur. Angefangen beim Rechner, mobilen Endgerät oder benutztem Drucker, worüber Daten zur Konfiguration, Typ, Modell und Auslastung gesammelt werden. Weiter geht es mit der Software-Konfiguration, den Betriebssystemen, Security-Software sowie der Zahl und den Versionen von Applikationen und Softwarepaketen.

Darüberhinaus geben diese Tools meist auch an, welches Device über welche Domain angemeldet ist, wann es genutzt wird, und wie lange es dauert, bis es hochgefahren wird. Dank ausgereifter Visualisierungstechniken können gute Systeme damit unter anderem rechtzeitig auf Netzwerk- oder Speicherengpässe hinweisen, bevor sie der Endanwender überhaupt bemerkt. Drohen damit Leistungsindikatoren des Providers unter bestimmte kritische Werte zu fallen, warnen diese Systeme. Sehr fortschrittliche Tools integrieren bereits Web- und Cloud-Anwendungen, und dehnen damit die Transparenz auch auf web-basierende Anwendungen aus.

Ausgereifte End-to-End-Monitoring Systeme aus Nutzerperspektive müssen es auch mit dem Datenschutz genau nehmen. Sie gewährleisten die notwendige Anonymisierung und der Systemprotokolle. Bei denen, deren Namen nachvollziehbar sind, lässt sich zudem schnell feststellen, ob der Endanwender vom Unternehmen autorisierte Software einsetzt oder was unautorisierte, dennoch genutzte Services in der Infrastruktur anrichten können.

Die Systeme haben auch keine Mühe damit, auf einen Klick ersichtlich zu machen, wenn die Provider-Leistung fehlerhaft war. Der Beck et al. Services Partner Nexthink gibt dazu ein Kundenbeispiel: die Endanwender klagten über sehr langsam reagierende Rechner, die teilweise sogar komplett abstürzten. Das Verhalten schien willkürlich. Erst als in der gesamten Client-Population nach Rechnern mit hoher CPU-Auslastung "gefahndet" worden war, trat die Ursache zutage. Ein Agent, der auf den Clients für die Software-Entwicklung zuständig war, wurde falsch konfiguriert und steuerte die Rechner in eine Endlosschleife, die dann immer zum Absturz führte. Auf Basis dieser Analyse konnte dem entsprechenden Provider ein Konfigurationsfehler nachgewiesen werden. Im Alternativ-Szenario hätte die Analyse um ein Vielfaches länger gedauert, und die Provider hätten sich wahrscheinlich gegenseitig für den Fehler verantwortlich gemacht.

Um einen Helikopterblick auf die Serviceleistungen der Provider zu erhalten und den Bezug zum Arbeitsplatz des Endanwender zu bekommen, sollte das Monitoring daher in jedem Fall die End-to-End-Perspektive beinhalten. Teil-Monitoring einzelner Bereiche wie Server oder Netzwerk reichen dafür keinesfalls aus.