IDCs Prognosen für die nächste Jahre

Beyond 2019 - so wird die IT-Zukunft

06.12.2018 von Heinrich Vaske
Die IT-Industrie betritt eine „Phase dramatischer und disruptiver Transformation“, sagen die Analysten von IDC. In den nächsten drei bis fünf Jahren kommen massive Veränderungen auf Unternehmen und ihre IT-Organisationen zu.
IDC erwartet Zeiten, in denen eine intelligente Steuerung von hybriden IT-Landschaften entscheidend für den Unternehmenserfolg wird.
Foto: Natasa Adzic - shutterstock.com

Da digitale Services und Technologien die wirtschaftliche Wertschöpfung von Unternehmen immer stärker beeinflussen, sind Erfolg und Überlebenschancen von Betrieben zunehmend von ihren IT-Fähigkeiten abhängig. Dabei bezeichnen die Marktforscher von IDC Public Clouds und die zugehörigen Ökosysteme als wichtigste Quelle von Technologieinnovationen.

Für Unternehmen werde es darauf ankommen, eine verteilte Cloud-Topologie, integriert mit den eigenen Rechenzentren und Edge-Lokationen, flexibel zu managen. Um schnell genug zu sein, setzen die Betriebe ihren eingeschlagenen Weg in Richtung Agile Computing und Devops mit höherer Geschwindigkeit fort. Immer geht es laut IDC darum, digitale Innovation zu beschleunigen.

Die Anzahl der Anwendungen und Services, die Firmen entwickeln und bereitstellen, wird explodieren. Die Technologien, die diesen Prozess beschleunigen, sind Container, Serverless Computing, Microservices-Architekturen, APIs, Platform as a Service, Code-Sharing in Communities, Plattformen und Marktplätze sowie Low-Code-Environments, die zu einer rasant steigenden Zahl an Entwicklern führen sollen.

KI-Technologien werden die Unternehmen und ihre IT-Bereiche in großen Schritten voranbringen. Das betrifft die Schnittstellen zu Kunden und Mitarbeitern (Customer und Employee Experience), IoT- beziehungsweise Edge-Services, Enterprise-Anwendungen sowie komplexe Back-end-Prozesse. Zu letzteren gehören etwa Cybersecurity, der IT-Betrieb, Anwendungsentwicklung- und -Management sowie die Supply-Chain-Optimierung. Außerdem wird die Zahl der digitalen Use Cases stark ansteigen, sie werden durch die verbesserten und flexibilisierten IT-Infrastrukturen sowie eine Menge an vertikal zugeschnittenen Apps und SaaS-Lösungen zunehmen.

Mit ihren Prognosen beschränken sich die Analysten von IDC nicht auf 2019, sondern sie richten sich auf die nächsten drei bis fünf Jahre. Wie bei Marktforschern üblich, sind die Thesen nicht allzu verbindlich formuliert. Eine Orientierung darüber, was auf IT-Shops zukommt, geben sie aber allemal. Deshalb im Folgenden zehn Vorhersagen von IDC für die nächsten Jahre.

These 1: Bis 2022 werden über 60 Prozent der nationalen Bruttoinlandsprodukte (BIP) von Industrieländern auf digitale Wertschöpfung zurückzuführen sein. Die IT-Investitionen werden sich auf sieben Billionen Dollar summieren.

Laut IDC hat das digitale Zeitalter begonnen: Führungskräfte in allen Unternehmen setzen die Digitalisierung ganz nach oben auf ihre Prioritätenliste. Organisationen, die zu spät dran sind, müssen sich mit anderen Nachzüglern um schrumpfende Anteile an traditionellen Märkten streiten. IDC hat bislang mehr als 600 Use Cases für die digitale Transformation in 16 Industrien identifiziert. Die Zahl steigt derzeit exponenziell. Jedes Unternehmen in jeder Industrie ist betroffen. "Die Digitalisierung ist wie eine Uhr, die im Kopf eines jeden CEOs laut tickt", schreibt IDC. Das Rennen sei in vollem Gang.

Die Analysten glauben, dass "digitales Denken" zur Kernqualifikation jedes Managers werden muss. Der C-Level kann die Entscheidungen nicht an sein IT-Team auslagern. Demnach ist es grundfalsch, die Digitalisierung auf Aufgaben wie E-Commerce oder Customer-Management einzuschränken. Sämtliche Produkte und Angebote, Prozesse und Kunden- beziehungsweise Partnerbeziehungen gehören auf den Prüfstand. Der Einfluss auf das Unternehmen ist so gewaltig, dass diese Aufgabe nicht an den CIO oder einen Chief Digital Officer (CDO) abgeladen werden kann.

IDC empfiehlt, eine Geschäftsstrategie rund um die digitale Transformation zu entwerfen und eine langfristige Roadmap aufzustellen, um die formulierten Ziele mit den richtigen Use Cases nach und nach zu erreichen. Gleichzeitig gelte es, eine integrierte Technologiearchitektur einzuziehen. Die Auguren sprechen von einer "Digital-Native-IT", die der Tatsache gerecht werde, dass IT zum zentralen Nervensystem und Wertschöpfungshebel geworden ist.

These 2: Bis 2023 werden drei Viertel aller IT-Ausgaben auf jüngere Themen wie Cloud und Mobile Computing, Big Data, Künstliche Intelligenz (KI), Robotics, Internet of Things (IoT), 3D-Druck, Mixed Reality etc. entfallen.

IDC spricht schon länger von den "3d Platform Technologies". Die Analysten wollen damit sagen, dass sich das Legacy-Problem allmählich erledigt und immer mehr Mittel für Technologien aufgewendet werden, die in den Jahren nach 2007 aufgekommen sind. Betriebe, die in der globalisierten Wirtschaft bestehen wollten, bauen ihre IT-Umgebungen rund um die neuen Technologien der dritten Plattform auf. Ihre älteren Systeme beurteilen sie danach, ob sie in der neuen Welt bestehen können, ohne diese zu beeinträchtigen.

Rund 46 Prozent der Firmen sind laut IDC bereits "digital determiniert", das heißt sie haben eine integrierte digitale Strategie und Architektur. Dazu gehören Cloud-zentrische Services, intensive Agile- und DevOps-Erfahrung, eine tiefe Vernetzung mit digitalen Plattformen und Communities sowie ein Fokus auf integriertes Daten-Management.

Laut IDC muss die Strategie für jedes Unternehmen "Cloud first" sein. Um dorthin zu gelangen, sind langjährige IT-Partner nicht mehr unbedingt die richtige Adresse. Es komme darauf an, ob sich diese schnell genug weiterentwickelten. "Einige etablierte Anbieter werden ins Stolpern geraten und fallen", so die Prognose.

Die Analysten empfehlen, die neue technische Architektur sorgfältig auszuarbeiten, so dass auf dieser Basis die Transformationsinitiativen der nächsten drei bis fünf Jahre ungefährdet stattfinden können. "Die Architektur ist der Schlüssel für den langfristigen Erfolg der gesamten Organisation", heißt es. Starke Veränderungen bei Infrastruktur, Software-Stack, Entwicklungs- und Deployment-Tools, Sicherheit, IT-Betrieb, Vendor-Management etc. seien für viele Betriebe unumgänglich. Auch müsse die "Build-or-Buy-Frage" neu gestellt werden: In vielen Technologiekategorien wird laut IDC künftig eher gekauft als gebaut, was zu einer veränderten Sourcing-Strategie führe.

These 3: Bis 2022 werden mehr als 40 Prozent der Unternehmen in ihrer Cloud-Strategie auch Edge-Infrastrukturen berücksichtigen. Ein Viertel der Endgeräte und -Systeme wird laut IDC KI-Algorithmen ausführen.

"Die Service-Delivery und -Execution wird auf Cloud-Infrastrukturen und Plattformdiensten aufsetzen, die hybride Multi-Cloud-Deployments unterstützen", heißt es bei den Marktforschern. Eine Mischung aus Public Cloud, Hosted Private Cloud, lokalen On-Premise-Anwendungen und zunehmend auch Edge-Lokationen werde typisch. Die dezentrale Edge-Infrastruktur entstehe dort, wo die Nähe zu IoT-Geräten und -Datenquellen zwingend sei. Das könne für Handhelds, Phones, Wearables, Switches, Drohnen, TV, Flugzeuge, Action-Kameras, selbstfahrende Fahrzeugen, Smart Buildings und vieles mehr gelten. In dieser verteilten IT-Welt werden Container und Container-Management-Plattformen zu einer grundlegenden Technologie.

IDC erwartet, dass in einer verteilten Edge-Cloud-Umgebung häufiger KI-Services bereitgestellt werden. Zudem sollen die "Endpoint-Devices" bis 2022 immer intelligenter werden. Oftmals werden Algorithmen lokal trainiert, da sie auf vor Ort erzeugten Daten und Insights basieren. Unter den ersten Unternehmen, die verteilte Cloud-Edge-Topologien nutzen werden, sind voraussichtlich jene mit vielen Niederlassungen oder mit Einrichtungen in Kundennähe. Das kann etwa für den Einzelhandel gelten, für Finanzdienstleister oder auch Behörden.

Wie IDC vorhersagt, werden Unternehmen mehr und mehr darin konkurrieren, einen umgehenden Zugriff auf relevante Daten zu bekommen und so schneller zu entscheiden - am liebsten in Realtime. Edge-Daten müssen daher nicht nur in der lokalen Verarbeitung verfügbar sein, sondern auch in den zentralen Rechenzentren. Die Netzwerk-Connectivity wird in solchen verteilten IT-Welten viel wichtiger, insbesondere dort, wo eine große Bandbreite an verschiedenen Edge-Geräten und -Systemen zum Einsatz kommt.Die Auguren warnen, dass es schwieriger werde, eine gute Customer Experience am Edge zu garantieren als aus dem zentralen Data Center heraus, wo Hochverfügbarkeit selbstverständlich ist.

Sie interessieren sich für Edge Computing? Dann lesen Sie auch:

Anwender sollten auf einen Cloud-Service-Provider zurückgreifen, der ihre "Distributed-Cloud-Vision" teilt. Außerdem sollten sie Kompetenzen für eine verteilte Landschaft aufbauen, in der sie Edge-Systeme zuverlässig, kostengünstig und ohne große menschliche Interaktion betreiben können. Dazu werden sie IT-Lösungen der nächsten Generation brauchen.

IDC empfiehlt, robuste Anwendungen mit autonomen Funktionen und ersten Möglichkeiten der "Selbstheilung" zu wählen. Wenn die IT Services über eine Vielzahl von Standorten hinweg managt, sind Fernüberwachung und Automatisierung unerlässlich, um sicherzustellen, dass die Betriebskosten im Griff bleiben.

These 4: Bis 2022 werden neun von zehn Anwendungen auf der Basis von Microservices-Architekturen entstehen. Das wird die Fähigkeiten in Disziplinen wie Design, Debugging, Updates und Nutzung von Third-Party-Code massiv erhöhen.

IDC spricht von "hyperagilen Apps", die Cloud-Native entwickelt werden, hochmodular und kombinierbar sind und einem permanenten Update-Prozess unterworfen werden können. Sie lassen sich besonders schnell entwickeln und bereitstellen - in einer Geschwindigkeit, die letztendlich der Kunde vorgibt.

"Traditionelle Anwendungsarchitekturen, betriebliche Abläufe und Entwicklungsgeschwindigkeiten sind für die digitale Wirtschaft unbrauchbar", warnen die Markbeobachter. Es gebe schon große Unternehmen, die vollständig auf agile und DevOps-Methoden umgestellt hätten und die dafür verfügbaren Technologien und Tools nutzten. Damit könnten sie Innovationen 50 bis 100 Mal schneller umsetzen.

Die neue Welt der hyperagilen Apps darf laut IDC aber nicht von den Legacy-Anwendungen isoliert betrachtet werden. Nach und nach würden die Enterprise Apps von den hyperagilen Apps absorbiert. Die Modernisierung der Anwendungslandschaft in Richtung Cloud-Native-Architektur vollzieht sich in immer kürzeren Phasen. Weil die Produktangebote der Softwarehersteller reifer und die Skills der Systemintegratoren besser würden, beschleunige sich die Anwendungsmodernisierung entsprechend. Bis 2022 werden laut IDC mehr als ein Drittel aller Anwendungen "hyperagil" sein. Container und Microservices stellen den IT-Betrieb allerdings auch vor Herausforderungen. Es wird schwieriger die Systemabhängigkeiten in den Anwendungsumgebungen nachzuvollziehen.

IDC spricht auch von größeren Herausforderungen rund um Schwachstellen-Analyse und der Nachvollziehbarkeit von Datenflüssen und Services in hybriden IT-Landschaften. Anwender sollten sich daher mit neuen Monitoring- und Management-Systemen beschäftigen, die mit Microservices-basierten Anwendungen umgehen können. Und sie sollten eine Automatisierungsstrategie entwerfen und implementieren. Um Cloud-Native-Anwendungen bei geringem manuellen Aufwand ausrollen zu können, sei die Automatisierung der IT-Infrastruktur ein Schlüssel.

Auch sei es empfehlenswert, den Zusammenhalt zwischen Softwareentwicklung und Betrieb zu stärken und die steuernden Kennzahlen sorgfältig zu wählen. "Transformieren Sie DevOps im Einklang mit neuen Cloud-nativen Funktionen und Entwicklungsansätzen", so die Marktforscher. Es sei wichtig, mit den Fachbereichen zusammenzuarbeiten, um die Legacy- und Greenfield-Workloads zu priorisieren und sowohl die strategische Bedeutung als auch die technische Machbarkeit eines Umbaus zu ermitteln. Nicht jeder Workload sollte in einer Cloud-Native-Anwendung enden.

These 5: Bis 2024 wird weltweit die Zahl der Entwickler um bis zu 30 Prozent steigen, weil die Tools einfacher und mächtiger werden. Unternehmen müssen in der Lage sein, digitale Lösungen in hoher Frequenz zu entwickeln.

Dazu gilt es, den Pool der Entwickler zu vergrößern. IT-Abteilungen stoßen hier an ihre Grenzen: Die Liste der Profis, die sich auf Custom Scripting spezialisiert haben, ist meistens nicht allzu lang. Also wird eine neue Klasse von Entwicklern mit visuell geführten Entwicklungswerkzeugen, Low-Code- und No-Code-Plattformen sowie modellgetriebenen Werkzeugen digitale Lösungen erstellen und verfeinern.

Entwickler, die nicht codieren, sondern eher konfektionieren, werden sich laut IDC rasant vermehren. Diese neue Kategorie führe zu einer tiefgreifenden Transformation in der Demographie: Die Entwicklergemeinde werde sich bis 2024 um knapp ein Drittel vergrößern. Neben klassischen "Code-Ingenieuren" werden dann auch digital affine Stakeholder im Business, Mitarbeiter aus dem Daten-Management sowie IT-Operations-Fachleute programmieren.

Unternehmen brauchen solche digitalen Innovatoren, um die sich schnell ändernden Marktanforderungen entdecken und bedienen zu können. Die Zusammenarbeit von C- und Java-Professionals mit diesen Neueinsteigern wird eine Herausforderung. Die Newcomer werden Ungleichbehandlung in Form eines eingeschränkten Zugangs zu Daten und Unternehmensressourcen kaum akzeptieren. Daher wird es nötig, die entsprechenden Policies neu zu gestalten und in einem weiter gesteckten Rahmen den Zugang zu ermöglichen. Wenn irgendwann jeder ein Entwickler wird, dann braucht es intelligente automatisierte Zugangssysteme zu den Unternehmensdaten und -ressourcen im Self-Service.

Unternehmen sollten sich die Bedürfnisse der neuen Entwicklergeneration genau ansehen und dafür sorgen, dass sie den nötigen Zugang zu Unternehmensdaten, automatisiertem Deployment, Anwendungs-Monitoring und Security-Assets bekommt. Es gibt Sinn, proaktiv Governance-Regeln zu formulieren, damit Softwareentwicklung konsistent und in wiederholbaren Prozessen abläuft. Die Grundregeln für Softwareentwicklung müssen allen im Unternehmen klar und zugänglich sind.

Details zum Thema Low-Code-Entwicklung finden Sie hier:

Die neue Entwicklergeneration braucht zudem eine angemessene Führung, Training und die Unterstützung von Mentoren. Auch sollte sie frühzeitig mit der Corporate IT zusammengeführt werden, damit ein ausreichender Zugang zu den Systemen und Datenbanken gewährleistet ist. Zusammen mit der Personalabteilung sollten die IT-Verantwortlichen die Botschaft bekräftigen, dass diese neuen Entwickler mit den klassischen Software-Ingenieuren auf Augenhöhe agieren. Eine Zweiklassengesellschaft ist das Letzte, was Unternehmen hier gebrauchen können.

These 6: Zwischen 2018 und 2023 werden weltweit rund 500 Millionen neue Applikationen entstehen - so viele wie in den vergangenen 40 Jahren zusammen.

Dazu tragen neue Tools und Plattformen, mehr Entwickler, agile Methoden und die verstärkte Wiederverwendung von Code bei. Die App-Explosion ist auf zwei Trends zurückführen: dem genannten Shift in Richtung hyperagiler App-Technologien, -Architekturen und-Methoden sowie dem rasanten Anwachsen der Entwicklerpopulation durch Low-code- und No-Code-Umgebungen.

Ein dritter Trigger ist die Verfügbarkeit gewaltiger öffentlicher und privater Code-Bestände. Entwickler haben künftig zwei Optionen: neuen Code schreiben oder sich Programmbausteine beschaffen - von Snippets bis hin zu kompletten Services. Diese lassen sich dann in größere Applikationen integrieren. In den nächsten fünf Jahren ist zu erwarten. dass neue Anwendungen zunehmend durch das Sammeln und Zusammensetzen verfügbarer Bausteine entstehen.

Unternehmen sollten sich deshalb damit beschäftigen, wie sie externen Code professionell auf potenzielle Schwachstellen analysieren können. Dieser muss den Qualitäts- und Funktionsansprüchen genügen - eine Aufgabe für Compliance- und Testing-Bereiche. Außerdem sollte die interne IT ein Repository mit sauberen und hochwertigen Programmbausteinen und Services bereitstellen.

KI-fähige Analytic-Tools für DevOps werden helfen, die steigende Komplexität von Deployments in heterogenen Multi-Cloud-, On-premise- und Edge-Umgebungen in den Griff zu bekommen. Hilfe ist von der Flut an robusten Entwickler-Services durch die Cloud-Hyperscaler zu erwarten sowie den technischen Fortschritten in den Bereichen Machine Learning, Daten-Services, Analytics und IoT-Services.

Die Verfügbarkeit intelligenter DevOps-Technologien wird laut IDC den Schulungsaufwand senken, die Effizienz der Entwickler verbessern und die professionelle Zusammenarbeit von Dev und Ops optimieren. Da sich maschinelles Lernen und KI-Analytics rasant weiterentwickeln, werden sie in alle Phasen von DevOps-Prozessen sowie in das Management des Portfolios integriert.

IDC empfiehlt Unternehmen, agile DevOps-Ansätze im ganzen Unternehmen zum Standard zu machen. Sie müssten außerdem lernen, wie sich fertige Programmbausteine und Services in die eigenen Anwendungen sicher integrieren lassen. Eine Voraussetzung sei es, sich mit den Vor- und Nachteilen der verschiedenen Open-Source-Lizenzmodelle zu befassen und herauszufinden, was diese Lizenzen erlauben.

These 7: Bis 2022 wird ein Viertel der Public-Cloud-Workloads nicht mehr auf x86-Prozessoren laufen. Gleichzeitig werden mehr Unternehmen Geld für branchenspezifische als für horizontale Cloud-Angebote ausgeben. Es wird also sowohl eine Spezialisierung am oberen als auch am unteren Ende des Stacks geben, die durch die massive Expansion der Cloud getrieben ist.

Auf der Hardware-Ebene kommt es zu einer schnellen Verbreitung heterogener Architekturen, wofür Entwicklungen rund um Grafikprozessoren (GPUs), Field Programmable Gate Arrays (FPGAs) oder auch Quanten Computing verantwortlich sind. Insbesondere das Aufkommen von künstlicher Intelligenz und Machine Learning hat einen starken Einfluss auf die Prozessorlandschaft in den Rechenzentren gehabt. Lange Zeit war die Hardware dort homogen, x86-CPUs übernahmen die meisten, manchmal sogar alle Workloads.

Da jetzt aber KI neue Anforderungen an Parallelverarbeitung stellt, nimmt die Heterorgenität der Prozessoren zu. GPUs, FPGAs und spezialisierte Multi-Core-Chips für Parallelverarbeitung (Manycore-Prozessoren) beschleunigen das Training der KI-Modelle und die Interferenz-Workloads. Dieser Trend wird sich bis 2022 massiv verstärken, dann wird ein Viertel der Rechenpower von schnellen Spezialservern kommen.

Ein großes Segment dieser neuen Server wird auch Nicht-KI-Anwendungsfälle ausführen, die Massiv Paralleles Computing (MPC) erfordern. Für das KI-Segment der MPC gibt es indes ein stark wachsendes Interesse an der Verwendung von ASICs für die Bereiche Leistung und Effizienz. Dazu tragen Googles aktive Entwicklungen rund um die TensorFlow Processing Units (TPUs) und die zu erwartenden KI-Prozessor-Entwicklungen anderer Cloud-Player bei. Der Startup-Markt für KI-ASICs ist lebendig, Intel wird Ende 2019 ebenfalls KI-ASICs herausbringen. Sie können KI-Workloads beschleunigen und das Training von Modellen effizienter und ökonomischer machen. ASICs sind aber keine Alternative für GPUs oder FPGAs, die Kosten sind noch zu hoch.

Auf der Software- und Lösungsebene wird es eine Explosion vertikaler SaaS-Angebote geben. Schon jetzt steigt die Zahl der verfügbaren Use Cases sehr schnell. Laut IDC wählen schon heute Unternehmen vertikale SaaS-Lösungen doppelt so oft wie horizontale Anwendungen, um die Anforderungen ihres Unternehmens und ihrer Industrie perfekt abzubilden. Die Provider investieren in industriespezifisches Know-how, Daten und Tools, die sich bei horizontalen Anbietern nicht finden. Die Branchenlösungen sind unterm Strich kostengünstiger, passgenauer, flexibler und bedienerfreundlicher. Die Datenmodelle bieten einen Industriekontext und perfekt nutzbare Analytics für User.

These 8: Für eine wachsende Anzahl an Apps und Services wird die Benutzerschnittstelle KI-gesteuert sein und Sprach-, Gesten- oder andere Formen der Eingabe ermöglichen.

IDC glaubt, dass bis 2024 ein Drittel der heutigen Screen-basierten Apps abgelöst und durch KI-basierte Systeme ersetzt sein werden. "AI is the new UI", schreiben die Marktforscher. Es gehe darum, auch in Zukunft die Kundenaufmerksamkeit zu ergattern und die Produktivität der eigenen Mitarbeiter hochzuhalten.

Zum Video: Beyond 2019 - so wird die IT-Zukunft

Die große Akzeptanz von Consumer-Tools wie Google Assistant, Siri, Microsoft Cortana und Amazon Alexa belegt, dass der Trend zu intelligenten "Conversational Assistant Systems" intakt ist. Massive Fortschritte bei Techniken, die gesprochene Sprache verarbeiten können, sorgen demnach für eine steigende Akzeptanz von Virtual Digital Assistant und Chatbots. Tools wie Google Translate und Deepl übersetzen geschriebene Sprache immer besser.

Die Kombination von Spracherkennung mit Suche, Übersetzungen, Analytics und KI wird die Art und Weise, wie wir mit Computern kommunizieren, revolutionieren, meint IDC. So wie Menschen untereinander reden, werden sie in Zukunft auch mit Maschinen sprechen. Der Einstein Voice Assistant von Salesforce sei ein Beispiel dafür, wie solche Technologien über Marketing-, Vertriebs- und Serviceabteilungen hinweg eingeführt würden.

IDC weist in diesem Zusammenhang darauf hin, das sich die Demographie der Konsumenten und Knowledge Worker ändere. Vertreter der Generationen Y und Z vereinen einen immer größerer Teil der arbeitenden Bevölkerung auf sich. Für diese User ist die natürlichsprachige Bedienung von Endgeräten nicht neu, weshalb immer mehr Enterprise-Anwendungen Sprachschnittstellen erhalten und Chatbots selbstverständlich werden.

Die Lawine ist längst in Rollen geraten, Marketing- und Kundenservice-Bereiche kennen diese Technologien und fragen sie gezielt nach. Für IT-Organisationen heißt das, sie müssen beraten und Ressourcen bereitstellen können. Dabei geht es um Fragen der Sicherheit, der Interoperabilität mit anderen Enterprise-Anwendungen und um den Zugang zu Corporate-IT-Ressourcen.

IDC warnt allerdings vor der Komplexität von Sprachtechnologien, sie müssten den Unwägbarkeiten menschlicher Interaktion standhalten. Es handele sich nicht um traditionelle "Solid-State"-Technologien, die mit wenig kontinuierlicher Überwachung und Kontrolle betrieben werden können. Der Microsoft Tay-Bot, den Twitter-User kurz nach der Markteinführung 2017 darauf trainiert hatten, unflätiges, rassistisches Zeug zu veröffentlichen, ist ein heilsames Beispiel für die Risiken.

Unternehmen sollten einen Plan entwickeln, wann und wo sie sprachbasierte Systeme einsetzen wollen, und sie sollten sich die Tools und Anbieter ansehen. Ebenfalls sinnvoll ist es, sich mit den Möglichkeiten robotikgestützter Prozessautomatisierung zu beschäftigen.

Vor allem die IT-Organisationen sollten sich diesbezüglich auf dem Laufenden halten und einen vertrauenswürdigen Anbieter oder Channel Partner finden, mit dem sie erste Gehversuche machen können. Von Best Practices und den Fehlern anderer zu lernen, war immer schon eine gute Idee. Gemeinsam mit der Personalabteilung und den geeigneten Fachbereichen gilt es auch, über eine "Sprache des Business" nachzudenken. Tatsächlich ist die Sprache der Bots elementar wichtig für das Marken-Image. Sie sollte die Werte des Unternehmens und seine Kultur widerspiegeln.

Große Fortschritte prophezeit IDC auch der Prozessautomatisierung, basierend auf Robotic Process Automation (RPA). Viele Aufgaben, die Menschen im Zusammenhang mit der Bedienung von Anwendung wahrnehmen, werden demnach von der Maschine übernommen, andere ersatzlos wegfallen. Prozesse zwischen Anwendungswelten werden einfacher.

Details zum Thema Robotic Process Automation finden Sie hier:

RPA ist eine Softwareklasse, die geschaffen wurde, um manuelle, repetitive Aufgaben zu ersetzen oder wenigstens zu erleichtern. Viele Unternehmen haben RPA bereits für die Automatisierung von Teilen ihres IT-Betriebs entdeckt. Dass die Technik auch Automatisierungschancen für Geschäftsaufgaben bietet, spricht sich ebenfalls herum.

These 9: Bis 2022 werden 50 Prozent der Server-basierten Stamm- und Bewegungsdaten verschlüsselt sein. Über 50 Prozent der Sicherheits-Alerts werden mit KI-gestützter Automatisierung gemanagt. Und 150 Millionen Menschen werden Blockchain-basierte digitale Identitäten besitzen.

Im ständigen Tauziehen zwischen Angreifern und sich verteidigenden Unternehmen waren digitale Sicherheit und Vertrauen nie zu 100 Prozent gewährleistet. Durch eine Vielfalt an Next-Generation-Sicherheits- und Trust-Tools wird sich die Situation verbessern.

In den vergangenen Jahren arbeiteten Unternehmen mit diversen Verschlüsselungs-Tools. Dabei wurden unterschiedliche Werkzeuge für die jeweiligen Daten-Pools genutzt und unterm Strich nur wenige Daten überhaupt verschlüsselt. Jetzt gibt es einen Richtungswechsel hin zu "Pervasive Encryption": Verschlüsselung erfasst die gesamte Plattform einschließlich Datenbanken, Anwendungen, Netzwerkverkehr und Dateisysteme, Speichereinheiten, System-Logs, und APIs für die Kommunikation mit der Außenwelt jenseits der eigenen Plattform.

IDC sagt vorher, dass bis 2022 die Hälfte aller Server-Plattformen eine Art Pervasive Encryption auf Hardware und Betriebssystemen laufen hat. Die KI werde die Arbeit der Cybersicherheits-Teams dramatisch verändern und ihre Effizienz in der Abwehr von Attacken signifikant erhöhen. Das sei wichtig, denn in den nächsten fünf Jahren seien herkömmliche Cybersicherheits-Architekturen den sich rasant ausweitenden Angriffsflächen (hybride Cloud-Infrastrukturen, IoT, Mobile und DevOps-Umgebungen) nicht mehr gewachsen.

Heute sind den Marktforschern zufolge nur 30 Prozent des Threat- und des Vulnerability-Managements automatisiert. Diese Bereiche lägen weit hinter Disziplinen wie Identity- und Trust-Management zurück. In den nächsten drei bis vier Jahren werden Anbieter von Threat-Management-Lösungen den Level der Automatisierung deutlich erhöhen, indem sie Analytics, Machine Learning und andere Data Science-Modelle nutzen, um Menschen bei mindestens 50 Prozent der Threat-Management-Ereignisse außen vor zu lassen. Gleichzeitig werde das Monitoring der Angriffsflächen deutlich verbessert.

Die Auguren erwarten weiter, dass überprüfbare digitale Identitäten im großen Stil kommen werden. Eine überraschend große Anzahl von Menschen könne sich heute nicht digital ausweisen, so die Marktforscher. Mehr als 1,5 Milliarden Personen seien damit immer noch von der Teilnahme an der Wirtschaft des 21. Jahrhunderts ausgeschlossen. Sie können Finanz-, Gesundheits- oder Behörden-Services nicht nutzen. Auch in entwickelten Volkswirtschaften können digitale Ausweise meist nur für einen bestimmten Anwendungsfall verwendet werden.

Um dieses Problem anzugehen, nutzen manche Regierungen und nichtstaatliche Organisationen (NGOs) Blockchain-basierte Identitätsdienste, um den Bürgern eine Möglichkeit zu bieten, sich auszuweisen. Länder wie Estland, Singapur und Indien sind Beispiele dafür. Entscheidend dabei ist, dass eine Identität über mehrere Use Cases hinweg verwendet werden kann.

Blockchain-Technologien versprechen die sichere Identifikation im Netz, stehen aber noch ganz am Anfang. Die Anforderungen an Infrastruktur wie Speicher und Netzwerke ist gerade bei großen Projekten noch unerforscht. Auch die Basisprotokolle, die erforderlich sind, um Identity-Management-Programme im großen Stil zu betreiben und abzusichern, sind noch in der Entwicklung.

IDC moniert, dass es zu wenige Talente gebe, die das Blockchain-Thema voll verstanden hätten. Es ist eine Technologie in einem frühen Reifestadium, für die sich derzeit eine Reihe von Technikern interessiert, weniger Regulatoren oder Business Manager. Um Geschäftsmodelle zu kreieren, die sich mit Blockchain-basierten Identitätsprogrammen beschäftigen, wird aber mehr als eine Handvoll Techniker nötig sein.

These 10: Bis 2014 werden die vier großen Public-Cloud-Plattformen 80 Prozent der IaaS- und PaaS-Deployments hosten. Doch bis 2024 werden 90 Prozent der 1000 größten Unternehmen auf Multicloud- und Hybrid-Technologien setzen, um den Lock-in-Effekt abzufedern.

Wie schon in den vergangenen Jahren prognostiziert, konsolidiert sich die Marktmacht auf wenige Cloud-Megaplattformen weltweit. In mancher Hinsicht bringt das Vorteile: Die Innovationskraft des Marktes bündelt sich aus Sicht von Software-Entwicklern, Dienstleistern und anderer Teilnehmern an Ökosystemen um eine begrenzte Anzahl von Plattformen. Eine unproduktive Fragmentierung wird vermieden. Auf der anderen Seite gibt die starke Machtkonzentration den Kunden das Gefühl, keine Auswahl zu haben und von ein oder zwei dominanten Anbietern abhängig zu sein.

Tatsächlich werden trotz dieser Konzentration viele Unternehmen weiter ihre eigenen Multi-Cloud-Umgebungen pflegen. In einer kürzlich von IDC initiierten Umfrage zum Thema Infrastructure as a Service (IaaS) gaben fast 60 Prozent der Teilnehmer an, dass sie eine - weitgehend nicht integrierte - Multicloud-IaaS-Umgebung nutzten. Drei Viertel arbeiten mit einem Haupt- und einem oder mehreren Nebenanbietern zusammen. Ihr Argument für die Multicloud-Nutzung ist die bessere Unterstützung verschiedener Applikationen und Anwendungsfälle.

Für die nächsten vier bis fünf Jahre ist zu erwarten, dass die Lock-in-Effekte eher schwächer werden. Die Einführung integrierter Hybrid- und Multicloud-Tools und -Strategien macht's möglich. Das ganzheitliche Distributed-Cloud-Modell wird durch Container-Technologien wie Kubernetes und Container-Management-Plattformen massiv unterstützt.

Die Cloud-Megaplattform-Player werden diese Hybrid- und Multicloud-Funktionen unterstützen und die Integration der On-Premise- und Edge-Lösungen der Kunden ermöglichen. Sie werden beispielsweise Multicloud-Support für Kubernetes-Umgebungen anbieten. Das wird auf andere Bridging- und Integrations-Services ausgedehnt.

In den nächsten drei Jahren wird eine integrierte Hybrid- und Multicloud-Management-Strategie zu einer Schlüsselfähigkeit für Unternehmen. Wer keine gute Integrationsstrategie hat, muss mit wirtschaftlichen Nachteilen bei der Ressourcennutzung rechnen. Außerdem werden solche Betriebe nur einen limitierten Zugang zu den besten verfügbaren Technologieinnovationen haben. Sie werden mehr Zeit benötigen, um Probleme zu lösen, und auf einige wenige Anbieter angewiesen sein.

Unternehmen sollten also eine integrierte Hybrid- und Multicloud-Strategie erarbeiten, mit der sie die Vorteile der einzelnen Public-Cloud-Plattformen nutzen können. Sie sollten sich diesbezüglich vor allem mit Technologien beschäftigen, die offene Protokolle unterstützen. Sie sind die Garantie dafür, dass Multi-Cloud-Umgebungen in der Breite genutzt werden können.

Wichtig ist es, ein Verzeichnis der eingesetzten Management-Tools zu pflegen, um den Überblick zu behalten. Hybrid- und Multi-Cloud-Umgebungen sind komplex. Ohne Automatisierung, gutes Monitoring und Management sind sie kaum zu verwalten.