Technologietrends 2017

Die Top-10 Technologietrends für 2017

03.02.2017
Von 
Dr. Carlo Velten schreibt als Experte zu den Themen Cloud-Platforms und -Developers, Enterprise Cloud Management und Digital Business. Dr. Carlo Velten ist CEO des IT-Research- und Beratungsunternehmens Crisp Research AG. Seit über 15 Jahren berät Carlo Velten als IT-Analyst namhafte Technologieunternehmen in Marketing- und Strategiefragen.

IoT und Software-Defined Products

Ob Zahnbürste, Kettensäge, Küchengerät oder Premium-Automobil. Die Produkte der Zukunft sind „Software-Defined“, sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den Software-basierten Funktionalitäten, Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung beziehungsweise einem „Software-Defined Product“. Hardware und Materialeigenschaften treten in den Hintergrund.
Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Produkt Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen. In einer Welt der Software-definierten, Sensor-basierten und vernetzten Produkte werden auch die Geschäfts- und Preismodelle „programmierbar“. Diese werden zukünftig serviceorientiert, kontextbasiert und personalisiert ausgestaltet und individuelle, nutzungsabhängige Abrechnungs- und Pricing-Mechanismen in Echtzeit ermöglichen.

Industry Clouds & Data Hubs

Traditionelle Industrie- und Technologiekonzerne arbeiten derzeit mit Hochdruck daran, ihre Organisationen und Geschäftsmodelle fit für das digitale Zeitalter zu machen. Der Fokus richtet sich hierbei vor allem auf die Themen IoT und Industrial Internet (Industrie 4.0) und die neuen datenbasierten Services und Geschäftsmodelle rund um Smart Cities, Connected Buildings, Predictive Maintenance und autonomer Verkehr. Und das aus einem guten Grund. Schließlich birgt die Vernetzung und Automatisierung von Fertigungsanlagen, Infrastrukturen, Verkehrssystemen und Logistikketten enorme Effizienzsteigerungen und Flexibilisierungsmöglichkeiten.

In Rahmen dieser Transformationen zeigt sich ein deutlicher Trend hin zu mehr Industrie- beziehungsweise branchenfokussierten Cloud-Umgebungen und Plattformen. Allen voran GE gilt hier mit seiner Predix PaaS-basierten IoT-Platform als Vorreiter im Markt. Aber auch andere Industriegrößen wie Bosch, die in 2017 ihre Bosch IoT-Cloud offiziell veröffentlichen werden, zeigen in welche Richtung sich der Cloud- und IoT-Markt bewegen wird.

Ähnliches ist von Branchenriesen aus anderen Industrien, zum Beispiel Volkswagen oder Ford (Automotive Clouds), zu erwarten. Die Industry Clouds der globalen Industriekonzerne bergen ein enormes Potenzial, da GE, Bosch & Co. in weit verzweigte und langjährig etablierte Partner- und Lieferantennetzwerken eingebettet sind. Die, für das digitale Geschäft, so wichtigen „Ökosysteme“ sind schon existent und müssen nur richtig aktiviert und entwickelt werden. Denn derzeit befinden sich viele der mittelständischen Zulieferer und Partner noch im „digitalen Dornröschenschlaf“.

„Industry Clouds“ werden zukünftig neben den horizontalen beziehungsweise generischen Cloud-Plattformen von AWS, Microsoft & Co. eine wichtige Säule der IoT-Lösungen und Prozesse sein und als „Data Hub“ agieren, auf denen branchenspezifische Datenbestände aggregiert, gemeinsam genutzt und kommerzialisiert werden. Vertrauen, branchenbezogene Standards und Sicherheit spielen hier eine gleichwertige Rolle neben Skalierbarkeit und Innovationsgeschwindigkeit.

Renaissance der Hardware – Von GPU bis Quantenrechnerei

Nachdem die erste Dekade des Cloud-Computing (von 2006-2016) ganz im Zeichen der Virtualisierung der Rechen- und Speicherleistung stand, zeichnet sich für die nächsten zehn Jahre eine Rückkehr der Hardware ab. Bislang bauten Unternehmen ihre Cloud-Umgebungen auf Basis virtueller Umgebungen (Server, Storage, Netzwerk) sowie höherwertigen Plattformdiensten (PaaS) auf.

Da aber die Packungsdichte auf den Schaltkreisen handelsüblicher Prozessoren in den kommenden zehn Jahren die Grenze von 5 – 10 Nanometern erreichen wird, stößt man beim Chip-Design an atomare - sprich physikalische Grenzen. Im Bereich von unter 5 Nanometern lassen sich elektrische Ladungen nicht mehr kontrollieren. Um dem Moore´schen Gesetz weiter Gültigkeit zu verleihen und auch weiterhin kosteneffiziente Fortschritte bei der Rechenleistung zu machen, müssen die Technologieanbieter neue Prozessor-Architekturen und Hardware-Konzepte entwickeln. Diese reichen von vertikal beziehungsweise mehrlagig strukturierten Chips bis hin zu ersten Generationen des Quantencomputing
CIOs sollten davon ausgehen, dass zukünftig wieder deutlich mehr unterschiedliche Prozessor- und Servertypen zu unterstützen und zu administrieren sind. Die Zeiten eines einheitlich auf X86-Basis konsolidierten Rechenzentrums neigen sich dem Ende zu. Hierfür sollte man sich strategisch ausrichten und entsprechende Skills aufbauen.

So werden die CIOs und IT-Infrastrukturentscheider schon in den nächsten Jahren mit ganz konkreten Anforderungen konfrontiert sein, die neue Hardware-Konzepte – auch im Cloud-Kontext – erfordern. Der produktive Einsatz von Machine Learning-Verfahren beispielsweise, erfordert meist immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung beziehungsweise Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren.

Hinzu kommt, dass in verschiedenen Anwendungfällen eine dedizierte Hardware gegenüber virtuellen Maschinen immer noch ihre Vorteile haben kann (Performance, Kosteneffizienz). So stellt IBM/Softlayer schon seit Jahren auch „Bare-Metal“-Server innerhalb von 2-4 Stunden weltweit über seine Cloud-Plattform bereit. Diese sogenannten „Hardware-Clouds“ werden in den nächsten Jahren einen deutlichen Zuspruch erfahren und werden derzeit von den Cloud-Anbietern mit Hochdruck weiterentwickelt.
Microsoft geht derzeit noch einen Schritt weiter und bietet Administratoren und Entwicklern auf Basis programmierbarer Chips, sogenannter FPGAs (Field Programmable Gate Array), deutlich mehr Freiheiten und die Möglichkeit, ihre Anwendungen auf Ebene der Mikroprozessoren zu entwickeln und abzustimmen.

Ebenso halten im Kontext von IoT-Szenarien und Edge Computing neue Hardware- und Prozessor-Plattformen in den Unternehmen Einzug, die es seitens der IT zu unterstützen gilt (ARM, Arduino etc.). Der Betrieb einer Flotte von mehreren zehntausend vernetzten IoT-Geräten stellt dabei infrastruktur- sowie sicherheitstechnisch vollkommen neue Herausforderungen.