Distributed Computing, SDN, IoT und mehr

Was 2016 in der IT wichtig wird

29.01.2016
Von 
Steffen Rieger schreibt als Experte zu den Themen IT-Servicemanagement, Systemmanagement, Cloud und Storage. Seit über 15 Jahren im Infrastruktur- und Servicemanagementbereich tätig leitet er momentan den Bereich Infrastructure & Operations beim Beratungshaus it-novum und betreut dort die IT-Lösungen von Konzerngruppen und Mittelständlern. Steffen Rieger engagiert sich stark für offene IT-Lösungen und hat aus der Erfahrung mit proprietären Produkten die beiden Projekte openITCOCKPIT (System-Monitoring) und openATTIC (Storage Management) gegründet.
2016 wird das Jahr der Cloud: Distributed Computing, softwarekonfigurierbare Netzwerke und bessere SDS-Performances geben dem Internet of Things neuen Schwung.

1. Cloud-Betriebssysteme und Container

Wer virtuelle Systeme auf Basis von OpenStack oder anderen Lösungen für das Infrastruktur-Management betreibt, nutzt die Funktionen von Linux-Distributionen wie Ubuntu, SUSE, Red Hat & Co. Diese Systeme sind aber nicht für den Einsatz in der Cloud konzipiert worden. Aus diesem Grund haben minimalistische Cloud-Betriebssysteme wie CoreOS an Popularität gewonnen. CoreOS versteht sich als Werkzeugsammlung, um den Betrieb von Containern in einem großen Verbund zu verwalten.

Anfänglich setzte CoreOS auf Docker als Container-Format. Inzwischen haben sich die Gründer aber aus Sicherheitsgründen und wegen des Umfangs, den die Container-Plattform angenommen hat, von Docker losgesagt. Sie entwickeln nun ihre eigene Implementierung namens Rocket. Die gleiche Richtung schlägt auch Ubuntu ein. Canonical setzt ebenfalls auf sein eigenes Containerprodukt LXD. Dabei handelt es sich um einen Aufsatz für die virtuelle Umgebung LXC (Linux Containers) und erlaubt damit den verteilten Betrieb von LXC-Containern in einer OpenStack-Installation. Da derzeit die meisten OpenStack-Clouds unter Ubuntu laufen, ist für ihre Betreiber LXD das optimale Container-Format.

Fazit: Monolithisches Applikationsdesign fällt langsam aus der Zeit. Die Architektur der Zukunft erfordert mehr Agilität und Flexibilität. Sie orientiert sich an Services und funktioniert nach dem Software-Defined-Ansatz. Die technologischen Grundlagen bilden Cloud-Betriebssysteme und Container. Anwender sollten sich nicht frühzeitig auf populäre Container wie Docker festlegen, weil hier das letzte Wort noch nicht gesprochen ist. Dadurch dass sich die Hersteller von (Cloud-)Betriebssystemen immer stärker ihrer eigenen Container-Software zuwenden, werden ihre Lösungen für Anwender 2016 deutlich interessanter werden.

2. Fog Computing für die Ära des Internet of Things

Fog Computing oder Distributed Computing (geografisch verteilt über heterogene Plattformen) ist ein neues Technologiemodell, das Cloud Computing um Network Edge (auf Geräteebene Router und Switches und auf Netzebene 3G) erweitert. Ähnlich wie die Cloud bietet ein Fog Daten-, Rechen-, Storage- und Application Services. Der Unterschied: ein Fog konzentriert Daten, Prozesse und Applikationen in Devices, unterstützt geografische Verteilung und Mobilfunk. Konzentriert meint, dass die Daten lokal in Smart Devices verarbeitet anstatt zur Verarbeitung in die Cloud gesandt werden. Services werden auf Network Appliance gehostet oder direkt auf Geräten wie Set-Top-Boxen oder Access Points.

In einer Fog-Computing-Umgebung würde ein großer Teil der Verarbeitung also direkt zum Beispiel in einem Router stattfinden anstatt die Daten zu übertragen. Cloud und Fog Computing konkurrieren nicht miteinander, sondern Fog Computing ist ein Ansatz für den Umgang mit den Anforderungen der ständig steigenden Anzahl an Internet-verbundenen Geräten. Damit ist Fog eine Erweiterung der Cloud im Zeitalter des Internet of Things (IoT). IoT erfordert nämlich eine neue Schichtenarchitektur, die Edge Computing unterstützt. Einige IoT-Cloud- Provider setzen Fog Computing um, indem sie eigene Clients auf Netzwerk Appliances installieren.

Fazit: Fog Computing ist besser gerüstet für die zukünftigen Anforderungen als Cloud Computing. Es wird deshalb auch 2016 eine immer entscheidendere Rolle im Internet of Things spielen. Während das theoretische Konzept schon sehr weit ist, müssen für den Praxiseinsatz noch offene Fragen wie Sicherheit, Vertraulichkeit und Zuverlässigkeit geklärt werden. Das Fog-Thema wird aber wachsen, da es hilft, die neuen Network-Paradigmen mit schnellerer Datenverarbeitung und weniger Verzögerungen bei der Übertragung zu erfüllen. Trotzdem wird Cloud Computing mit seinen High-end Computing-Anforderungen seine Daseinsberechtigung für Unternehmen nicht verlieren.

3. Neue Intel-Prozessoren: Performance-Schub für Software-Defined Storage

Bei den Prozessoren für Cloud- und Storage-Server will Intel dem Konkurrenten ARM nicht das Feld überlassen: Ab 2016 sollen neue Xeon-D-Prozessen den weit verbreiteten ARM-SoCs-Produkten Paroli bieten. Intels Storage-CPUs sind besonders interessant für SDS-Software (Software-Defined-Storage) wie zum Beispiel Ceph oder openATTIC. Bei Ceph hat der OSD-Prozess der Festplatte Auswirkungen auf die CPU-Auslastung, da er I/O zwischen Netzwerk und HDD produziert. Wenn Aufgaben wie "Erasure Coding" oder On-Disk-Verschlüsselung ausgeführt werden, steigt die CPU-Auslastung stark an.

Den Markt aufmischen dürfte Intels Open Source-Initiative. Intel greift mit zwei Open Source-Kits den Entwicklern von Software für Storage- und Netzwerksysteme unter die Arme: Die Intelligent Storage Acceleration Library beschleunigt Speicher-Aufgaben, wodurch Prozessoren wie der Xeon D-1500 eine besonders hohe Performance liefern sollen können. Zusätzlich bietet Intel ein Storage Performance Development Kit an, um das entwickeln von High-Performance- und skalierbaren Storage-Anwendungen zu verbessern. Beide Pakete stehen unter einer Open-Source-Lizenz, damit „Softwarearchitekten und Entwickler ihre Storage-Lösungen optimieren“ können.

Fazit: SDS setzt auf Standardhardware. Wenn Intel mit seinen Storage-Prozessoren explizit SDS-Applikationen unterstützt, dann wird die Hardware für diese Lösungen immer leistungsfähiger und dank Intels Marktdurchdringung auch preiswerter. Zudem fördert Intel mit seinen Open Source Developer Tools die Storage-Software-Entwicklung auf Intel-Basis. Die Luft für proprietäre und hochpreisige Hardware-Storage Hersteller dürfte damit 2016 dünner werden.

4. Hybrid Cloud verzögert sich oder: Cloud-Centric Design wird eine Notwendigkeit

Hybrid Clouds sind für Unternehmen vor allem deshalb attraktiv, weil die Anwendungsausführung so weit wie möglich in der IT des Unternehmens selbst erfolgt. Nur zu hohen Lastzeiten wird die Abarbeitung in eine öffentliche Cloud ausgelagert. Mit der richtigen Software bieten Hybrid Clouds damit Unternehmen die Möglichkeit, ihre Rechenzentren zu verkleinern, Kosten zu senken und die Energieeffizienz zu verbessern.

Was sich für viele CIOs in der Theorie nach einer idealen Lösung anhört, hat in der Praxis leider einige Ecken und Kanten. Das hauptsächliche Problem besteht darin, dass die meisten Anwendungen noch nicht auf eine derartige Auslagerung ausgelegt sind. Unternehmen können nur dann in vollem Umfang vom Konzept der Hybrid Clouds profitieren, wenn ihre Software auch Cloud-Architekturen unterstützt. Das ist aber in den meisten Anwenderfirmen nicht der Fall. Laut Gartner werden in den nächsten Jahren mehr als 60 Prozent der Cloud-Projekte darin bestehen, in bestehenden Anwendungen Cloud-Unterstützung zu implementieren.

Fazit: Um das Potenzial eines Cloud-Modells voll ausnutzen zu können, müssen Anwendungen mit den besonderen Eigenschaften, Limitierungen und Chancen des Cloud-Modells im Hinterkopf neu konzipiert werden. Unternehmen sind 2016 gut beraten, wenn sie ihren Fokus nicht länger auf die Migration der Enterprise Workloads richten, sondern mehr in die Schaffung von Cloud-optimierten Applikationen (Cloud-Centric Design) investieren. Erst dann können sie das Leistungsvermögen der Cloud ausschöpfen.

5. Virtuelle und softwarekonfigurierbare Netzwerke

Daten und Anwendungen wandern zunehmend in die Cloud. Notwendig ist daher ein stabiles Netzwerk, das diese Datenflut sicher zur Verfügung stellt. Virtuelle Netzwerke sind der fehlende Baustein, damit Unternehmen Virtualisierung vollständig nutzen können. Das aktuelle Netzwerkdesign ist für feste Muster, vorhersehbare Bandbreite und gut definierte Endpunkte optimiert. Für die Anforderungen in der Vergangenheit reicht das aus, aber heute müssen viele Server, Services, Data Stores und Clouds, inklusive Mobilgeräten unterstützt werden - und zwar weltweit verteilt und mit schwankenden Datenvolumina. Software-Defined Networking (SDN) hilft, diese neuen Anforderungen und ihre Komplexität in den Griff zu bekommen. Dazu kommen unter anderem Workload-Monitoring, programmierbare Weiterleitungen und automatische Switch-Konfigurationen zum Einsatz.

Fazit: Softwarekonfigurierbare beziehungsweise virtuelle Netzwerke werden die Unternehmensnetze revolutionieren. Infrastrukturen, bei denen die Funktionsebenen eines Netzwerks in virtuelle Services ausgelagert werden, bilden die grundlegende Basis für moderne Technologien wie Software-Defined Datacenter (SDDC), Cloud Computing, Virtualisierung oder Big Data.