Herausforderung IT-Providersteuerung

Ich sehe was, was Du nicht siehst

16.12.2014
Von  und Bernhard Thomas  
Siegfried Lautenbacher ist seit 1989 unternehmerisch in der IT-Branche tätig. Zur Jahrtausendwende übernahm er die Geschäftsleitung für die Beck et al. Services GmbH – einem international agierenden IT-Services Unternehmen – das seine Leistungen an der Schnittstelle zwischen IT und Business ausrichtet. Social Collaboration und dessen Auswirkungen auf den Arbeitsplatz der Zukunft  sind zentrale Säulen des Leistungsprofils sowie der eigenen Unternehmenskultur von Beck et al. Services. Siegfried Lautenbacher ist Mitgründer des Start-ups Valuescope. Es bietet Services im Bereich von Social Media Analysis und Sales Intelligence an.
Den End-User mit der richtigen Servicequalität wirksam zu unterstützen, ist Maßstab für jede IT Organisation. Schließlich wird sie daran gemessen, wie schnell und gut sie Probleme erkennt und löst. Dumm nur, wenn eine eingeschränkte Sicht auf Providerleistungen der Grund für mangelnden Service beim Endanwender ist.
Mit einer Unterschrift ist es nicht getan. Wichtig ist es, die zugesicherten Leistungen des Providers im folgenden Betrieb auch überprüfen zu können.
Mit einer Unterschrift ist es nicht getan. Wichtig ist es, die zugesicherten Leistungen des Providers im folgenden Betrieb auch überprüfen zu können.
Foto: eccolo - Fotolia.com

Manchmal geht es in der IT zu, wie in einer KFZ-Werkstatt: der Kunde stellt ein Klappern am Fahrzeug fest, die Werkstatt entgegnet nüchtern: "bei uns läuft er tadellos". Die Folge: ein verärgerter Kunde, der sich nicht ernst genommen fühlt und beschließt, die Werkstatt nie wieder aufzusuchen. Ähnliches passiert täglich zwischen Endanwender und IT-Service: der eine meldet, dass sein E-Mail Abruf nicht funktioniert. Der andere reagiert gelassen: "bei uns funktioniert alles einwandfrei". Frustriert gibt auch dieser "Kunde" auf und fasst den Entschluss, sich mit seinen Problemen nie wieder an die IT zu wenden. Das Schlimme daran: ist die Spirale der enttäuschten Erwartungen seitens des Endanwenders erst einmal in Gang gesetzt, bekommt die IT ein massives Problem. Der Endanwender hat kein Vertrauen mehr.

Hohe Service-Qualität ist das Ziel

Dabei sollte jede IT genau diese Perspektive verstehen, um die Qualität eines IT-Service überhaupt richtig bemessen zu können. Denn der Endanwender ist die höchste Instanz bei der Qualitätsbeurteilung. Ungeachtet ob es sich um Verfügbarkeit, Geschwindigkeit oder Bedienbarkeit handelt. Dass in punkto Servicequalität aus Endanwendersicht noch mächtig Sand im IT-Getriebe zu sein scheint, bestätigt auch der aktuelle "IT Outsourcing Satisfaction Survey" des Beratungsunternehmens Horvath & Partners. Demnach mussten sich ganze 91 Prozent der Befragten IT Entscheider eingestehen, primär die Servicequalität verbessern zu wollen. Die Studienverfasser betonen auch, dass es weniger die Strategie sei, die über Erfolg oder Misserfolg eines IT-Services entscheidet. Vielmehr liege es an der Qualität der operativen Umsetzung. Und die wird heute längst nicht mehr von der internen IT allein geschultert. Im Gegenteil: Services über Provider abzuwickeln, ist heute eine feste Größe im Management der IT-Infrastruktur. Mehr noch: die Effektivität, mit der die Unternehmens-IT ihre Provider steuert, liefert einen wesentlichen Beitrag dazu, wie effektiv das Gesamtunternehmen agieren kann.

Service-Provider kümmern sich um den kompletten Netzbetrieb, das Mail-System, die Cloud-Dienste oder auch nur Teilservices. Um nun im Sinne des Endanwenders feststellen zu können, welcher Service zu welcher Zeit an welchen Lokationen nicht oder nur eingeschränkt funktioniert, muss die IT die Performance ihrer Provider entsprechend umfassend monitoren. Leichter gesagt, als getan, denn das Wirkungsgeflecht zwischen Provider, IT und Endanwender wird noch einen Tick undurchschaubarer, wenn die Delivery-Art hinzukommt. Handelt es sich um einen Managed Service, eine gehostete Lösung oder einen Cloud Service, aus einer Private oder einer Public Cloud? Jede Art hat ihre Eigenheiten und ist häufig rechtlich anders geregelt.

Messkriterien für effektive Provider-Steuerung

Trotz oder gerade wegen dieser erschwerten Transparenz über die ausgelagerten Services, muss die IT jederzeit in der Lage sein, eine Störung als Performance-, Verfügbarkeits-, oder Qualitätsproblem zu identifzieren. Der emanzipierte Endanwender erwartet heute eine hohe Servicequalität bei jeder einzelnen Interaktion. Und das reicht von fehlerhaften Bildschirmdarstellungen bis hin zum schlechten Verbindungsaufbau.

Dieser Zustand, Servicequalität einerseits ständig verbessern zu müssen, und andererseits ein komplexes Providerumfeld im Auge zu behalten, bereitet vielen IT-Managern dauerhaft Kopfzerbrechen. Dabei sehen sie häufig ihre Provider in der Bringschuld.

Für die Praxis effektiver Provider-Steuerung bedeutet das, auf Basis wirksamer Key Performance Indicators (KPI) zu agieren. Valide Messkriterien, die aus einer eher statischen Service-Verfügbarkeit eine schnell einsehbare Service-Nutzbarkeit machen. Hier hängt viel von der Wahl der richtigen Werkzeuge ab. Ohne Service-Monitoring geht es nicht. Die Frage ist, wie muss diese beschaffen sein, um die Performance von Providern ausreichend zu überprüfen oder gar zu steuern?

Wissen, was beim Endanwender ankommt

Zunächst sollten Unternehmen, die sich professionelle und effiziente Providersteuerung zum Ziel setzen, ihre Herausforderungen strukturieren. Neben dem Anforderungs- und Vertragsmanagement ist besonders das Risikomanagement wichtig. Es untersucht, welche Auswirkungen die systematische Auslagerung von Services auf einen Business-Bereich haben kann. Entsprechende Maturity-Checks beim Provider sowie Daten aus geeigneten Monitoring-Systemen stellen hier bereits eine gute Grundlage dar. Genauer gesagt, spezielle End-to-End-Monitoring-Lösungen leisten hier gute Dienste. Sie machen die vom Provider gelieferten Leistungen transparent und bilden damit die Basis für einen 360 Grad-Blick auf die eingesetzten Services. Ohne solche Daten kann nichts verbessert werden, weil niemand weiß, in welchem Ausmaß und welchem Grad Verbesserung notwendig ist.

Monitoring ist nicht gleich Monitoring

Diese Monitoring-Systeme überprüfen, ob und wie performant ein Service des Providers beim Endanwender ankommt, also wie es letztlich um die "End-User-Experience" bestellt ist.

Und das ist nicht trivial, schließlich beeinflussen die Endanwender-Aktivitäten heute gleich mehrere Komponenten in der gesamten IT-Infrastruktur. Angefangen beim Rechner, mobilen Endgerät oder benutztem Drucker, worüber Daten zur Konfiguration, Typ, Modell und Auslastung gesammelt werden.
Weiter geht´s mit der Software-Konfiguration, den Betriebssystemen, Security-Software sowie der Zahl und den Versionen von Applikationen und Softwarepaketen. Darüberhinaus geben diese Tools meist auch an, welches Device über welche Domain angemeldet ist, wann es genutzt wird, und wie lange es dauert, bis es hochgefahren wird. Dank ausgereifter Visualisierungstechniken können gute Systeme damit unter anderem rechtzeitig auf Netzwerk- oder Speicherengpässe hinweisen, bevor sie der Endanwender überhaupt bemerkt. Drohen damit Leistungsindikatoren des Providers unter bestimmte kritische Werte zu fallen, warnen diese Systeme. Sehr fortschrittliche Tools integrieren bereits Web- und Cloud-Anwendungen, und dehnen damit die Transparenz auch auf webbasierte Anwendungen aus.

Ausgereifte End-to-End-Monitoring Systeme aus Nutzerperspektive müssen es auch mit dem Datenschutz genau nehmen. Sie gewährleisten die notwendige Anonymisierung und Pseudonymisierung der Systemprotokolle. Bei denen, die ihren Namen verdienen, lässt sich zudem schnell feststellen, ob der Endanwender vom Unternehmen autorisierte Software einsetzt oder was unautorisierte, dennoch genutzte Services in der Infrastruktur anrichten können. Sie haben auch keine Mühe damit, auf einen Klick ersichtlich zu machen, wenn die Providerleistung fehlerhaft war.
Der Beck et al. Services Partner Nexthink gibt dazu ein Kundenbeispiel: die Endanwender klagten über sehr langsam reagierende Rechner, die teilweise sogar komplett abstürzten. Das Verhalten schien willkürlich. Erst als in der gesamten Client-Population nach Rechnern mit hoher CPU-Auslastung "gefahndet" worden war, trat die Ursache zutage. Ein Agent, der auf den Clients für die Software-Entwicklung zuständig war, wurde falsch konfiguriert und steuerte die Rechner in eine Endlosschleife, die dann immer zum Absturz führte. Auf Basis dieser Analyse konnte dem entsprechenden Provider ein Konfigurationsfehler nachgewiesen werden. Das Alternativszenario wäre gewesen: die Analyse hätte um ein Vielfaches länger gedauert und die Provider hätten sich wahrscheinlich gegenseitig für den Fehler verantwortlich gemacht.

Wichtig ist: um einen Helikopterblick auf die Serviceleistungen der Provider zu erhalten und den Bezug zum Arbeitsplatz des Endanwender zu bekommen, sollte das Monitoring in jedem Fall die End-to-End-Perspektive beinhalten. Teil-Monitoring einzelner Bereiche wie Server oder Netzwerk reichen dafür keinesfalls aus.

Enduser- und Infrastruktur-Services verheiraten

Je nachdem wie viele Provider zu steuern sind und welche Leistungen sie konkret erbringen, kann es sinnvoll sein, End-to-End-Monitoring mit einem Infrastruktur-Monitoring zu verbinden. Diese Kombination beschert der IT nicht nur einen noch umfassenderen Überblick sondern erleichtert auch die Steuerung zwischen On Premise- und Cloud-Infrastrukturen. Dafür müssen beide Systeme allerdings miteinander "reden" können. Gelingt es Unternehmen, die jeweiligen Funktionen zu bündeln, entsteht ein überaus potentes Monitoring- und Providersteuerungssystem. Dies macht dann nicht mehr auf Server-Ebene halt, sondern prüft nahtlos bis in die Nutzungstiefen des Anwenders, welche Provider-Services in welcher Qualität bei ihm ankommen. Das macht es zu einer zentralen Informationsdrehscheibe für alle Performance-Belange. An ihren Ergebnissen können die Verantwortlichen für die Steuerung der Service-Provider aus den Dashboards des Systems komplette, passgenaue Metriken erstellen und ablesen, wie ihre Provider tatsächlich arbeiten.
Werden Schlechtleistungen festgestellt, können sie - sehr schnell und für jeden transparent - reagieren, weil sie auf einer zu jeder Zeit absolut umfassenden, objektiven Datenbasis arbeiten. Erst wenn alle geschäftskritischen IT-Services durch diese Datenanalysen sichtbar gemacht, Wirkungszusammenhänge rechtzeitig erkannt werden können und businesskonform gehandhabt werden, kann sich Provider-Steuerung zur Königsdisziplin der Wertschöpfung im IT Management entwickeln.

Denn in punkto Servicequalität wird es in Zukunft vor allem darum gehen, zu erfassen, was man nicht kennt - und das gilt für die IT ebenso wie für die KFZ-Werkstatt.

Grundüberlegungen zur Providersteuerung

- Bewusstmachen, dass erst objektive und umfassende Daten-Analysen in die Lage versetzen, zu steuern
- Identifizieren der bottlenecks
- Identifizieren, welche Provider mit ihrer Leistung auf die Service-Nutzbarkeit Einfluss nehmen
- Eignung von bestehenden SLAs prüfen
- unterschiedliche Providerleistungen aufeinander abstimmen (bw)