Für eine Vielzahl an Use Cases der digitalisierten Welt sind neue Processing- und Analysetechnologien gefragt. So spielt die Mustererkennung von Bildern, Personen oder Gegenständen zum Beispiel in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor eine immer größere Rolle.
Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme („Deep Learning“) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten und der Online Shopping-Experience. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0.
Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema und einen exponentiellen Innovationspfad.
Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige „Cognitive Systems“ Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen. Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine „Cognitive Company“, in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.
Autonomous IT und künstliche Intelligenz im Rechenzentrum
Die Innovationsdynamik im Kontext von Machine Learning und künstlicher Intelligenz macht auch vor dem Rechenzentrum und dem Management der IT-Infrastruktur nicht halt. Während in den letzten Jahren seitens der Unternehmen schon große Schritte in Richtung Automatisierung der IT-Infrastruktur gemacht wurden, steht nun ein echter Innovationssprung bevor.
Denn mittels Verfahren des Machine Learning und vor allem des Deep Learning können hunderte oder tausende unterschiedlicher Variablen und Messgrößen, die den Betrieb eines Rechenzentrums determinieren, automatisiert ausgewertet und Muster zur Optimierung mittels der neuronalen Netzwerke identifiziert werden. So lassen sich die komplexen Beziehungen zwischen den Server- und Storage-Komponenten, Netzwerktechnik, Cooling-Equipment und externen Faktoren, wie Außentemperatur, Luftfeuchtigkeit etc., nicht nur messen und steuern. Auf Basis eines selbstlernenden Systems beziehungsweise Algorithmus können die Systeme nun in Richtung eines Gleichgewichts ausgesteuert werden, das einerseits den Energieverbrauch (PuE) sowie andererseits die Auslastung der Systeme optimal ausbalanciert.
Zudem ergeben sich durch Hyperconverged Systems sowie Cloud Computing große Potenziale zur weiteren Automatisierung des Infrastruktur-Betriebs. So lassen sich auf den globalen Cloud-Plattformen Infrastrukturen (Server, Storage, Network und weiter Plattform-Dienste) mittlerweile nicht nur per Knopfdruck beziehungsweise API-Call provisionieren, sondern auch automatisiert nach vorgegebenen Regeln konfigurieren und skalieren.
Im Zeitalter des „Infrastructure-as-Code“ werden IT-Infrastrukturen über standardisierte APIs programmier- und weitgehend automatisierbar. Vor dem Hintergrund der immer komplexeren IT-Infrastrukturen, die im Kontext agiler und Microservices-basierter Architekturen entstehen, ist die Automatisierung der zugrundeliegenden IT-Infrastruktur und des IT-Betriebs eine absolute Notwendigkeit.
Viele der Cloud-Provider bieten mit ihren Angeboten des „Serverless Computing“ einen weiteren Schritt in diese Richtung, in dem der Infrastrukturbetrieb für bestimmte Event-driven Workloads komplett seitens des Providers übernommen sowie vollständig automatisiert und autonom skaliert wird. Der Kunde übergibt nur noch den Anwendungscode beziehungsweise die Business-Logik. Den Rest übernimmt die Cloud-Plattform selbständig.
Der Charakter der zukünftigen „Digital Infrastructure Platforms“ – egal ob On-Premise oder in der Cloud – lässt sich somit als regelbasiert, selbstlernend und selbstheilend beschreiben. Daher müssen sich CIOs und IT-Infrastruktur-Verantwortliche mit der Frage beschäftigen, wie sie sukzessive die Verantwortung für ihre Infrastrukturen in Richtung autonomer Management- und Monitoring-Systeme übergeben und wie dieser Transformationsprozess auf technologischer und organisatorischer Ebene zu gestalten ist. Auf jeden Fall werden neue Skills und Rollen im Rechenzentrum benötigt, um die Welten der heutigen IT-Infrastruktur und der künstlichen Intelligenz erfolgreich miteinander zu verbinden.
IoT und Software-Defined Products
Ob Zahnbürste, Kettensäge, Küchengerät oder Premium-Automobil. Die Produkte der Zukunft sind „Software-Defined“, sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den Software-basierten Funktionalitäten, Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung beziehungsweise einem „Software-Defined Product“. Hardware und Materialeigenschaften treten in den Hintergrund.
Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Produkt Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen. In einer Welt der Software-definierten, Sensor-basierten und vernetzten Produkte werden auch die Geschäfts- und Preismodelle „programmierbar“. Diese werden zukünftig serviceorientiert, kontextbasiert und personalisiert ausgestaltet und individuelle, nutzungsabhängige Abrechnungs- und Pricing-Mechanismen in Echtzeit ermöglichen.
Industry Clouds & Data Hubs
Traditionelle Industrie- und Technologiekonzerne arbeiten derzeit mit Hochdruck daran, ihre Organisationen und Geschäftsmodelle fit für das digitale Zeitalter zu machen. Der Fokus richtet sich hierbei vor allem auf die Themen IoT und Industrial Internet (Industrie 4.0) und die neuen datenbasierten Services und Geschäftsmodelle rund um Smart Cities, Connected Buildings, Predictive Maintenance und autonomer Verkehr. Und das aus einem guten Grund. Schließlich birgt die Vernetzung und Automatisierung von Fertigungsanlagen, Infrastrukturen, Verkehrssystemen und Logistikketten enorme Effizienzsteigerungen und Flexibilisierungsmöglichkeiten.
In Rahmen dieser Transformationen zeigt sich ein deutlicher Trend hin zu mehr Industrie- beziehungsweise branchenfokussierten Cloud-Umgebungen und Plattformen. Allen voran GE gilt hier mit seiner Predix PaaS-basierten IoT-Platform als Vorreiter im Markt. Aber auch andere Industriegrößen wie Bosch, die in 2017 ihre Bosch IoT-Cloud offiziell veröffentlichen werden, zeigen in welche Richtung sich der Cloud- und IoT-Markt bewegen wird.
Ähnliches ist von Branchenriesen aus anderen Industrien, zum Beispiel Volkswagen oder Ford (Automotive Clouds), zu erwarten. Die Industry Clouds der globalen Industriekonzerne bergen ein enormes Potenzial, da GE, Bosch & Co. in weit verzweigte und langjährig etablierte Partner- und Lieferantennetzwerken eingebettet sind. Die, für das digitale Geschäft, so wichtigen „Ökosysteme“ sind schon existent und müssen nur richtig aktiviert und entwickelt werden. Denn derzeit befinden sich viele der mittelständischen Zulieferer und Partner noch im „digitalen Dornröschenschlaf“.
„Industry Clouds“ werden zukünftig neben den horizontalen beziehungsweise generischen Cloud-Plattformen von AWS, Microsoft & Co. eine wichtige Säule der IoT-Lösungen und Prozesse sein und als „Data Hub“ agieren, auf denen branchenspezifische Datenbestände aggregiert, gemeinsam genutzt und kommerzialisiert werden. Vertrauen, branchenbezogene Standards und Sicherheit spielen hier eine gleichwertige Rolle neben Skalierbarkeit und Innovationsgeschwindigkeit.
Renaissance der Hardware – Von GPU bis Quantenrechnerei
Nachdem die erste Dekade des Cloud-Computing (von 2006-2016) ganz im Zeichen der Virtualisierung der Rechen- und Speicherleistung stand, zeichnet sich für die nächsten zehn Jahre eine Rückkehr der Hardware ab. Bislang bauten Unternehmen ihre Cloud-Umgebungen auf Basis virtueller Umgebungen (Server, Storage, Netzwerk) sowie höherwertigen Plattformdiensten (PaaS) auf.
Da aber die Packungsdichte auf den Schaltkreisen handelsüblicher Prozessoren in den kommenden zehn Jahren die Grenze von 5 – 10 Nanometern erreichen wird, stößt man beim Chip-Design an atomare - sprich physikalische Grenzen. Im Bereich von unter 5 Nanometern lassen sich elektrische Ladungen nicht mehr kontrollieren. Um dem Moore´schen Gesetz weiter Gültigkeit zu verleihen und auch weiterhin kosteneffiziente Fortschritte bei der Rechenleistung zu machen, müssen die Technologieanbieter neue Prozessor-Architekturen und Hardware-Konzepte entwickeln. Diese reichen von vertikal beziehungsweise mehrlagig strukturierten Chips bis hin zu ersten Generationen des Quantencomputing
CIOs sollten davon ausgehen, dass zukünftig wieder deutlich mehr unterschiedliche Prozessor- und Servertypen zu unterstützen und zu administrieren sind. Die Zeiten eines einheitlich auf X86-Basis konsolidierten Rechenzentrums neigen sich dem Ende zu. Hierfür sollte man sich strategisch ausrichten und entsprechende Skills aufbauen.
So werden die CIOs und IT-Infrastrukturentscheider schon in den nächsten Jahren mit ganz konkreten Anforderungen konfrontiert sein, die neue Hardware-Konzepte – auch im Cloud-Kontext – erfordern. Der produktive Einsatz von Machine Learning-Verfahren beispielsweise, erfordert meist immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung beziehungsweise Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren.
Hinzu kommt, dass in verschiedenen Anwendungfällen eine dedizierte Hardware gegenüber virtuellen Maschinen immer noch ihre Vorteile haben kann (Performance, Kosteneffizienz). So stellt IBM/Softlayer schon seit Jahren auch „Bare-Metal“-Server innerhalb von 2-4 Stunden weltweit über seine Cloud-Plattform bereit. Diese sogenannten „Hardware-Clouds“ werden in den nächsten Jahren einen deutlichen Zuspruch erfahren und werden derzeit von den Cloud-Anbietern mit Hochdruck weiterentwickelt.
Microsoft geht derzeit noch einen Schritt weiter und bietet Administratoren und Entwicklern auf Basis programmierbarer Chips, sogenannter FPGAs (Field Programmable Gate Array), deutlich mehr Freiheiten und die Möglichkeit, ihre Anwendungen auf Ebene der Mikroprozessoren zu entwickeln und abzustimmen.
Ebenso halten im Kontext von IoT-Szenarien und Edge Computing neue Hardware- und Prozessor-Plattformen in den Unternehmen Einzug, die es seitens der IT zu unterstützen gilt (ARM, Arduino etc.). Der Betrieb einer Flotte von mehreren zehntausend vernetzten IoT-Geräten stellt dabei infrastruktur- sowie sicherheitstechnisch vollkommen neue Herausforderungen.
Digitale Assistenten und Bots
Durch die Innovationssprünge im Bereich der künstlichen Intelligenz und insbesondere der Spracherkennung und -verarbeitung, eröffnen sich in Bezug auf die Entwicklung digitaler Assistenzsysteme vollkommen neue Möglichkeiten. So werden die digitalen Assistenten und Bots in den kommenden Jahren massenmarkttauglich, da diese in Smartphones standardmäßig integriert sind und so Milliarden von Nutzern zur Verfügung stehen. Dies ist für deren Weiterentwicklung elementar, denn für die weitere Optimierung der Algorithmen zur Spracherkennung braucht es vor allem Trainingsdaten von möglichst vielen Nutzern.
Das disruptive Potenzial von digitalen Assistenten liegt darin, dass diese nicht nur ein sprachbasiertes User Interface bieten, das die Ein- / Ausgabe via Webanwendung oder mobiler App überflüssig macht. Sie bieten vor allem die Möglichkeit zur automatisierten Ausführung von konkreten Aufgaben. So lassen sich Terminkoordination, eCommerce-Transaktionen, Support-Anfragen oder die Bedienung der eigenen Smart Home-Lösung bequem über einen digitalen Assistenten per Sprach- oder Chat-Befehl erledigen. Dies spart Zeit und schafft ein enormes Potenzial zur Automatisierung der zugrundeliegenden Prozesse – vorausgesetzt, diese sind bereits standardisiert und lassen sich per API anbinden.
Durch die Verknüpfung unterschiedlicher externer Dienste via API und die Möglichkeit zur freien Programmierung entsprechender Bot-Routinen und Events, entstehen derzeit hoch kreative und mächtige Ökosysteme. Auch trägt eine neue Generation von Bot-bezogener Hardware zur weiteren Verbreitung der Technologien bei, da diese nun in jedem Wohnzimmer, Küche oder Büro präsent und „always-on“ geschaltet sind. Die Hemmschwelle, das eigene Smartphone zu zücken, um den Assistenten zu aktivieren, entfällt zunehmend und macht die digitalen Assistenten zum alltäglichen Begleiter im privaten wie beruflichen Kontext.
Von Smart Cities bis zum digitalen Gesundheitswesen
Der digitale Mehrwert vernetzter Produkte kann sich nur voll entfalten, sofern diese in ein größeres Ökosystem eingebettet sind. Nur wenn die öffentliche sowie private Infrastruktur in Form von Kommunikationsnetzen, Verkehrsleitsystemen, öffentlichem Nahverkehr, öffentlichen Gebäuden oder medizinischer Versorgung entsprechend vernetzt ist und Standards schafft, können innovative digitale Produkte und Dienste angedockt und für den Anwender transparent gemacht und integriert bereitgestellt werden.
Die nächste Stufe der digitalen Transformation können die Unternehmen nur erklimmen, sofern Staat und Unternehmen gemeinsam eine möglichst einheitliche, auf Standards basierende digitale Infrastruktur schaffen. Diese kann Innovationsanreize setzen, indem Entwicklungs- und Integrationskosten reduziert, Daten in Form von „Open Data“ allen zur Verfügung stehen und einheitliche, rechtskonforme Nutzungs- und Kommerzialisierungsmechanismen für Partner und Firmen geschaffen werden. So entstehen beispielsweise neue Apps im Gesundheitswesen, der Bildung und dem Nahverkehr, die dann auch skalieren. Denn nur wenn sich die staatlichen Infrastrukturen der Digitalisierung öffnen, lassen sich Märkte für die Innovationspartner profitabel erschließen. Diese Aufgabe können Startups und IT-Unternehmen nicht alleine bewerkstelligen.
Mixed Reality - Virtual & Holographic Computing
In 2017 werden Virtual- und Augmented Reality-Technologien den Durchbruch im Unternehmensumfeld schaffen, da nun einerseits die technologische Reife der Hardware gegeben ist und andererseits genügend Anwendungen im Unternehmensumfeld existieren. Zudem bilden sich rund um die Plattformen herum digitale Ökosysteme von Partnerunternehmen, die branchenbezogene Lösungen und virtuelle Modelle entwickeln.
Im Gesundheitswesen ergeben sich viele Einsatzmöglichkeiten, von der Behandlung von Angststörungen bis Rehabilitation im Kontext von Gehirnschäden. Im Journalismus können die Technologien einen realistischen Einblick und ein Miterleben von Nachrichten ermöglichen („Immersion Journalism“). Das realistische Rekonstruieren von Tatorten und kriminellen Abläufen im Rahmen von Strafverfahren zählt ebenso zu den möglichen Use Cases wie der Einsatz von Augmented Reality bei der Schaffung eines neuen Einkaufserlebnisses.
In der Industrie spielen vor allem der Einsatz von VR in vernetzten IoT- und Wartungsszenarien eine Rolle, um beispielsweise Servicetechnikern die Installation, Wartung und Instandhaltung von Maschinen und Anlagen zu erleichtern. So können relevante Produktinformationen, defekte Teile und Lieferbestände direkt vor das Auge des Technikers gebracht werden, ohne, dass er sich von seinem Arbeitsplatz entfernen muss. Auch im Bereich des Corporate Training werden VR-Technologien vollkommen neue und kosteneffiziente Möglichkeiten schaffen, um Mitarbeiter in der Bedienung komplexer Maschinen und Systeme zu schulen.
Blockchain
Seit im Jahr 2009 mit Bitcoin eine der derzeit populärsten Kryptowährungen auf Blockchain-Basis vorgestellt wurde, haben sich die Technologie und ihre Anwendungsmöglichkeiten sehr dynamisch weiterentwickelt und ausgeweitet. So existieren mittlerweile nicht nur über 600 verschiedene Kryptowährungen, die die Blockchain zur Speicherung von Transaktionen und Übertragung von Währungseinheiten nutzen, sondern eine Vielzahl von spannenden Use Cases, wie zum Beispiel der Zugang zu physischen Gegenständen durch Management von Schlüsseln für Mietautos, Schließfächer, Wohnungen oder Hotels. Oder die nicht veränderbare Dokumentation von Daten für Dritte, wie beispielsweise Handelspapiere, GPS-Daten, Genomdaten, Krankenakten oder Produktionsdaten sowie der Nachweis von Urheber- oder Markenrechten. Auch schon realisiert werden finanzielle Instrumente wie Handelspapiere, Anleihen und Derivate sowie der Abschluss und die Abwicklung von Treuhandverträge.
Zum Video: Die Top-10 Technologietrends für 2017
Die Blockchain-Technologie ist als eine Art von verteiltem Grundbuch oder Register (engl. Ledger) zu verstehen, in dem Transaktionen sequentiell in Blöcke gruppiert, miteinander verkettet und verschlüsselt werden. Sie schafft somit einen „Trust-Layer“, der es verschiedenen nicht bekannten Akteuren ermöglicht, ohne Intermediäre (Börsen, Banken, Notare etc.) Transaktionen und Verträge („Smart Contracts“) abzuschließen. Hierin besteht ein disruptives Potenzial und die Möglichkeit in vielen Branchen die Transaktionskosten deutlich abzusenken. Aus der Perspektive von Crisp Research sind vor allem die Finanzindustrie, Supply Chains, das Gesundheitswesen und IoT-Anwendungen von der Innovationskraft der Blockchain betroffen.
Distributed Security
Sicherheit der digitalen Prozesse, der Daten sowie der Firmenkommunikation wird für immer mehr Unternehmen zur Top-Priorität. Dabei gilt es, sich auf neue und vor allem mehr Angriffsvektoren einzustellen. Neben klassischer Wirtschaftsspionage, die auf das Intellectual Property abzielt, müssen Unternehmen sich verstärkt auf Angriffe durch organisierte Kriminalität sowie im Einzelfall auf staatsgelenkte Cyberangriffe einstellen. So wird aktuell auch in Deutschland eine Vielzahl von Unternehmen mittels gezielter DDoS-Attacken erpresst. Zudem gilt es für CIOs und CISOs, sich darauf einzustellen, dass IT-Sicherheit und Datenschutz im mobilen und Cloud-Zeitalter nicht mehr nach den klassischen Verteidigungsstrategien funktionieren kann. Wenn tausende Mitarbeiter weltweit unterwegs und in hunderten von Unternehmenslokationen verteilt und über das Internet und Mobilfunknetze angebunden sind, ist eine IT-Sicherheitsstrategie mit globaler Reichweite gefordert.
Mit einem steigenden Vernetzungsgrad der eigenen Produkte im Kontext der Digitalisierung und IoT-Szenarien korreliert auch ein höherer Verletzungsgrad der Unternehmen. Gerade vernetzte, mobile Geräte (IoT) stellen ein hohes Sicherheitsrisiko und einen der neuen Angriffsvektoren dar. Hier gilt es besonders hohe Maßstäbe hinsichtlich der Absicherung von Steuerungsfunktionen und Daten anzulegen.
Auch müssen die Unternehmen und ihre Sicherheitsverantwortlichen sich auf die Novellierung der Europäischen Datenschutzverordnung einstellen, die im Jahr 2018 in Kraft tritt (GDPR- General Data Protection Regulation). Diese erfordert von den Unternehmen die Fähigkeit, jederzeit Transparenz und Handlungsmacht über alle kunden- und personenrelevanten Daten zu haben und beispielsweise nachweisen zu können, dass bestimmte Datensätze konzernweit und über Dienstleistergrenzen hinweg gelöscht oder geändert wurden. Eine Aufgabe, welcher die Unternehmen nur mit einer weiteren Automatisierung ihrer IT-Infrastruktur und ihres Datenmanagement Herr werden können.