Disruptive Innovationen beginnen in der Regel klein und unspektakulär in Nischen. Oft scheinen die neuen Abläufe und Prozesse in wichtigen Eigenschaften den etablierten Vorgehensweisen zunächst unterlegen. Vorteile in anderen Eigenschaften führen aber dazu, dass sie in anderen Bereichen zum Einsatz kommen, dadurch Fahrt aufnehmen und an Bedeutung gewinnen.
Wenn die Innovationen dann durch Verbesserungen auch in den bei etablierten Verfahren als wichtig angesehenen Eigenschaften zwar nicht das Niveau der etablierten Verfahren erreichen, aber als "gut genug" angesehen werden, kommt es zu einem beinahe schlagartigen Wechsel hin zu den neuen, disruptiven Verfahren. Oft spielen dabei auch Kostenvorteile der neuen Verfahren eine wichtige Rolle. Die etablierten Verfahren verschwinden dann weitgehend und bleiben nur in Nischen erhalten.
Das Prinzip der disruptiven Innovation wurde 1997 von Clayton Christensen in seinem Buch "The innovator's dilemma: when new technologies cause great firms to fail" beschrieben.
Cloud als disruptive Innovation
Cloud Computing ist die Nutzung gemeinsamer IT-Ressourcen durch viele verschiedene Nutzer. Gegenüber herkömmlicher Großrechner-Technik unterscheidet sich Cloud Computing dadurch, dass beim Cloud Computing viele kleine Einheiten zu einem Gesamtsystem zusammengeschaltet sind. Gegenüber herkömmlichen PC-Anwendungen unterscheidet sich Cloud Computing dadurch, dass die Anwendungen und Daten nicht lokal für einen Benutzer, sondern aus der Cloud heraus für viele Nutzer gleichzeitig bereitgestellt werden.
Beim Cloud Computing lassen sich im Unterschied zur herkömmlichen IT die zur Verfügung stehenden Ressourcen relativ leicht und dynamisch an den tatsächlichen Bedarf anpassen. Die Bereitstellungskosten werden auf viele Nutzer verteilt. In der Konsequenz führt das bei vielen Anwendungen zu einer deutlichen Reduktion der Gesamtkosten gegenüber herkömmlicher IT sowie zu einer deutlichen Steigerung der Flexibilität. Durch die geringeren Bereitstellungskosten werden zudem viele IT-Anwendungen auch für geringe Nutzerzahlen realisierbar, die sonst unerschwinglich wären.
Der Haupt-Nachteil von Cloud Computing, insbesondere bei der Public Cloud, ist die gegenüber dem Betrieb eigener IT-Systeme reduzierte Kontrolle der Systeme durch die Nutzer, auch verbunden mit potenziellen Sicherheitsrisiken und Compliance-Problemen. Ein weiterer Nachteil, vor allem gegenüber lokal betriebener IT, ist die Entfernung zwischen Nutzer und IT-System, die je nach Anwendung hohe Anforderungen an Verfügbarkeit und Bandbreite des genutzten Netzes stellen.
Aus der Nische in die Breite
Diese Nachteile führten zunächst dazu, dass Cloud Computing in Nischenbereichen zum Einsatz kam, oft im Consumer-Bereich. Beispiele für frühe Cloud-Anwendungen sind E-Mail-Provider wie Web.de, T-Online oder Hotmail, Internet-Suchmaschinen wie Altavista und Google sowie das Rendering von Tricksequenzen in der Filmproduktion in so genannten "Renderfarmen". Kriterien wie Bandbreite, Verfügbarkeit und Kontrolle waren in diesen Bereichen von untergeordneter Bedeutung gegenüber der Fähigkeit, überhaupt die benötigten IT-Ressourcen zu akzeptablen Kosten zu erhalten.
Vor allem die Verbesserung der Bandbreite und Verfügbarkeit von Internet-Anbindungen hat dazu geführt, dass die zentrale Bereitstellung massiver IT-Ressourcen auch in weiteren Bereichen nutzbar wurde, bei weiterhin deutlichen Kostenvorteilen. Damit gelangte Cloud Computing in die Aufmerksamkeit klassischer Business-IT. Bedenken hinsichtlich Sicherheit und Kontrolle gibt es weiterhin, diese werden jedoch durch Verbesserungen der Sicherheit der Cloud-Services, durch Verschlüsselung, durch rechtliche Vereinbarungen, Zertifizierungen etc. reduziert. Für einen Großteil von IT-Anwendungen ist Cloud Computing hinsichtlich Sicherheit, Datenschutz und Kontrolle jetzt "gut genug" - somit werden nun Vorteile wie die dynamische Bereitstellung, die häufig geringeren Kosten und internen Personalaufwendungen ausschlaggebend.
Resultat sind die beobachteten und auch für die nächsten Jahre prognostizierten hohen Wachstumsraten für Cloud Computing: Es findet ein Paradigmenwechsel in der Business-IT statt.
Veränderungen in Anwenderunternehmen
Augenfällige Konsequenz des Paradigmenwechsels in der Business-IT hin zu Cloud Computing: Der Betrieb wesentlicher Teile der IT findet nicht mehr im eigenen Haus der Anwenderunternehmen statt, sondern IT-Ressourcen werden von Dienstleistern bereitgestellt - analog dem klassischen IT-Outsourcing. In beiden Fällen wird der Bedarf vor allem an technischen IT-Kompetenzen bei IT-Anwenderunternehmen deutlich abnehmen, während bei den Anbietern zusätzliches technisches Personal benötigt wird. Auf Grund von Synergieeffekten wird das Verhältnis erwartungsgemäß dabei nicht 1:1 sein. Es ist aber zu erwarten, dass zusätzlicher Bedarf an anderen Stellen durch neue Services entsteht. Frei werdende Ressourcen werden auch jetzt schon vom Markt begierig aufgenommen: Es gibt ohnehin Bedarf an IT-Fachkräften, der nicht gedeckt werden kann.
Ein wesentlicher Unterschied zu klassischem Outsourcing: Es wird beim Cloud Computing in der Regel nicht die IT als Ganzes ausgelagert, sondern nur einzelne Teile oder Anwendungen. In diesem Zusammenhang wird deshalb gelegentlich auch der Begriff "Outtasking" verwendet. Ein weiterer Unterschied zum klassischen Outsourcing: Vor allem im Bereich Public Cloud sind vom Provider bereitgestellte Leistungen und Verträge in der Regel hoch standardisiert, nur im Rahmen vorgesehener Optionen konfigurierbar und in wesentlichen Teilen nicht verhandelbar.
Wichtige Kompetenzen verbleiben deshalb beim Anwenderunternehmen, unter anderem:
Genaue Analyse der Leistungsanforderungen mit Blick auf den konkreten Bedarf des Unternehmens (Business Alignment),
Auswahl der einzelnen Services (unter anderem der Abgleich mit Anforderungen, technische Tests, vertragliche Regelungen),
Initiale Konfiguration bzw. Konfigurationsänderungen auf hoher Ebene aufgrund sich ändernder Anforderungen oder Umgebungen (neue Benutzer, Änderung von Benutzerrollen, geänderte Policies),
Sicherstellung des Zusammenwirkens einzelner Services, auch mit weiterhin intern betriebenen Systemen, unter Umständen mit Unterstützung des Providers,
Controlling der Services hinsichtlich Anforderungen und zugesicherter Leistungen.
Wo Anwender profitieren
Bei einem zunehmenden Cloud-Einsatz braucht es im Anwenderunternehmen weniger technisches Detailwissen - etwa über Betriebssysteme, Datenbanken und Netzwerke. Es findet eine Verschiebung zu strategischen Kompetenzen, juristischen Kenntnissen und Managementkompetenzen statt. Diese Kompetenzen können auch wieder von extern als Beratung eingekauft werden. Im Sinne einer optimalen Ausrichtung der genutzten IT-Werkzeuge auf die Anforderungen des Unternehmens und zur Vermeidung von Vendor-Lock-in sollte das aber mindestens unabhängig vom genutzten Cloud-Anbieter geschehen.
Die beschriebenen Veränderungen in Anwenderunternehmen in Verbindung mit der Nutzung von Cloud Computing lösen naturgemäß Ängste und Sorgen bei betroffenen Mitarbeitern aus. Die Gefahr ist groß, dass ein Projekt zur Einführung eines Cloud-Service deshalb in der IT-Abteilung des Anwenderunternehmens auf Ablehnung stößt. Daneben ist zu beachten, dass die Einführung eines Cloud-Services eine Veränderung der IT-Landschaft des Anwenderunternehmens ist - genauso wie die Einführung eines jeden anderen IT-Services. Dieser Umstand bringt zwangsläufig eine Veränderung von Abläufen mit sich, was bei den betroffenen Anwendern ebenfalls Sorgen und Ängste auslösen kann. (sh)