Null-Fehler-Strategie

IT-Qualität ist die Basis für digitales Wachstum

25.07.2016
Von 
Stephan Kasulke leitet seit 2012 als Senior Vice President Quality das Zero Outage Programm in T-Systems International. Kasulke startete 1985 mit 16 Jahren als selbständiger Software Entwickler in Ostwestfalen. Ab 1995 entwickelte er Vertriebssysteme für die Deutsche Leasing AG, Bad Homburg, ab 2001 war er verantwortlich für die IT-Infrastruktur und Architektur der Deutsche Leasing. 2004 wechselte Kasulke zu GE Capital in verschiedenen Führungspositionen, ab 2007 fungierte er als CIO von GE Money Deutschland. 2009-2012 leitete Kasulke als Geschäftsführer die IT Tochter der Erste Group Bank in Wien. Kasulke hält einen MBA der University of Maryland, USA.
Funktioniert die IT nicht, geht schon heute an vielen Stellen nichts mehr. Mit zunehmender Digitalisierung werden IT-Ausfälle in Zukunft noch gravierendere Folgen haben. Unternehmen und IT-Dienstleister müssen deshalb eine Strategie entwickeln, die eine größtmögliche Feherfreiheit garantiert.
  • Unternehmen erleiden bei IT-Ausfällen hohe wirtschaftliche Verluste.
  • Bei der Wahl des Service-Providers ist die IT-Qualität das wichtigste Entscheidungskriterium - noch vor dem Preis.
  • ICT-Dienstleister müssen fehlerfreie IT zum Ziel haben.

Können Sie mir einen wesentlichen Geschäftsprozess nennen, der in der heutigen Wirtschaftswelt noch ohne IT auskommt? Vermutlich müssen Sie länger überlegen, um eine Antwort auf diese Frage zu finden, denn Geschäftsprozesse ohne IT sind inzwischen so rar wie Handys ohne Internetzugang. Durch die Vernetzung ergeben sich Chancen, aber auch Risiken. Wenn alles miteinander vernetzt ist, trifft ein Ausfall der IT die Unternehmen umso härter.

Gut ist in der digitalen Wirtschaft nicht gut genug. Nur mit exzellenter IT-Qualität und einer Null-Fehler-Strategie lassen sich Ausfälle verhindern.
Gut ist in der digitalen Wirtschaft nicht gut genug. Nur mit exzellenter IT-Qualität und einer Null-Fehler-Strategie lassen sich Ausfälle verhindern.
Foto: Olivier Le Moal/Shutterstock.com

Ein Blick in die jüngere Vergangenheit zeigt, dass selbst Großunternehmen wie Amazon, Apple oder die Lufthansa vor Serverausfällen nicht geschützt sind. Hundertprozentige Fehlerfreiheit kann auch ihnen kein seriöser Anbieter garantieren. Die Folge solcher Ereignisse sind oft hohe wirtschaftliche Verluste. Das Marktforschungsinstitut Gartner hat errechnet, dass IT-Systemausfälle Unternehmen durchschnittlich 5.600 US-Dollar kosten - pro Minute.

Imageschäden und Risiken für Leib und Leben

Hinzu kommen Imageschäden: Schlagzeilen wie "Kein Anschluss unter Zuckerberg" nach einem Totalausfall beim Nachrichtendienst WhatsApp kratzen am guten Ruf der Unternehmen. Und die digitale Wutwelle - der vielzitierte Shitstorm - schwappt heute fast garantiert über sie hinweg. Noch schlimmer wiegen Serverausfälle, wenn Risiken für Leib und Leben bestehen, etwa bei Fernoperationen.

Die Qualität der IT-Systeme wird damit zu einer Voraussetzung für digitales Wachstum. Auch der Erfolg von Industrie 4.0 hängt maßgeblich davon ab. Gartner prognostiziert jedoch, dass weltweit jedes vierte Unternehmen seine Marktposition bis 2017 verlieren wird - und zwar aufgrund von "digitaler Inkompetenz". Unternehmen, die auch langfristig am internationalen Markt agieren wollen, müssen also zwangsläufig den Weg hin zu digitalisierten Prozessen einschlagen.

Umdenken bei Unternehmen

In den Unternehmen selbst hat daher längst ein Umdenken eingesetzt. Eine Studie des Beratungsunternehmens PricewaterhouseCoopers (PwC) zeigt, dass die IT-Qualität bei der Wahl eines Service-Providers inzwischen an erster Stelle steht - noch vor dem Preis. 84 Prozent der Befragten nennen die Qualität als wichtigstes Entscheidungskriterium, den Preis gerade einmal 58 Prozent.

ICT-Dienstleister müssen deshalb mit umfassenden Programmen zur Qualitätssicherung für die dringend benötigte Stabilität sorgen. Ihr Ziel muss es sein, ganz in die Nähe eines 100 Prozent fehlerfreien Services zu kommen. Das wird jedoch nur gelingen, wenn auf allen Ebenen - Plattformen, Personal und Prozesse - Standards für maximal zuverlässige Technologien gesetzt werden.

Früherkennung mit Big Data

Um eine hochverfügbare, stabile und sichere IT zu ermöglichen, muss das Zusammenspiel zwischen Mensch und Technik optimiert werden. Kürzeste Reaktionszeiten bei Ausfällen sind genauso erforderlich wie der Einsatz von Big-Data-Technologien, mit denen Systemstörungen deutlich früher erkannt werden. (haf)