IT-Infrastrukturen im Umbruch

Server und Virtualisierung 2017 - die wichtigsten Trends

Bernhard Haluschak ist als Redakteur bei der IDG Business Media GmbH tätig. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.
Server-Virtualisierung hat sich in den Unternehmen etabliert. Doch neue Technologien zwingen IT-Verantwortliche über den Tellerrand hinaus zu schauen. Welche Trends im Bereich Server und Virtualisierung auf IT-Fachleute im Jahr 2017 zukommen, erläutern namhafte Server-Experten.

Die Virtualisierung von Server-Systemen gehört in den IT-Abteilungen von Unternehmen zum Alltag. Doch neue Entwicklungen in diesem Bereich stellen die Verantwortlichen der Unternehmens-IT vor neue Aufgaben.

Längst werden durch den Einsatz von virtualisierten Systemen nicht nur veraltete Server durch neue, performante Geräte ersetzt, sondern dedizierte virtuelle IT-Umgebungen aufgebaut, die energieeffizient arbeiten und hochskalierbar sind. Durch die hohe Leistungsdichte und die Vielzahl an verschiedenen Prozessen in einem System spielt die Ausfallsicherheit der Hardware dabei eine zentrale Rolle.

FAQ Hyper Converged Infrastructure

Doch die Server-Virtualisierung darf nicht isoliert betrachtet werden, sondern einheitlich unter Einbeziehung der Storage- und Netzwerk-Virtualisierung inklusive des Managements solcher Strukturen. Im Hinblick auf die genannten Themen erläutern die Experten der wichtigsten Server-Hersteller, wie sich die Virtualisierungstechnologie künftig entwickelt. Die Fragestellung lautet: Auf welche allgemeinen Trends im Bereich Server, Virtualisierung und auch Data Center müssen sich Unternehmen 2017 einstellen?

  • Uwe Müller, Head of Sales & PreSales Datacenter; Cisco

  • Lars Göbel, Leiter Vertrieb & IT-Services; DARZ GmbH

  • Peter Dümig, Sr. Server Product Manager; Dell EMC

  • Udo Würtz, Chief Evangelist Data Center Business EMEIA, Fujitsu

  • Stefan Weber, Strategic Sales Consultant HPE Server; Hewlett Packard Enterprise

  • Ingolf Wittmann, Technical Director, CTO & Leader of HPC Europe; IBM Deutschland GmbH

  • Paul Höcherl, Produkt Manager DACH für System X; Lenovo

  • Dr. David Höflmayr, CEO und Benjamin Bayer, Product Manager Virtualization; Thomas-Krenn AG

Trends bei der Server-Virtualisierung

Uwe Müller, Cisco: "Im kommenden Jahr werden von Intel und AMD neue Prozessoren auf den Markt kommen, die einen weiteren Wettlauf um die optimale Performance-Nutzung auslösen. Anbieter von Infrastrukturen animiert diese Entwicklung, neue Produkte bereitzustellen, welche die Virtualisierung bestehender Systeme weiter vorantreiben. Die Software-Anbieter nutzen diese Entwicklung, um Applikationen mit höherer Performance zu erzeugen und am Markt zu positionieren. Hierzu zählt auch eine neue Generation, die permanentes Abspeichern von Daten im Memory erlaubt und damit neue Wechselwirkungen ermöglicht. Das Verhältnis zwischen Flash und Memory wird dadurch neu geordnet."

Lars Göbel, DARZ GmbH: "IT-Verantwortliche werden sich verstärkt damit auseinandersetzen, die eigene IT-Infrastruktur flexibler und agiler zu gestalten. Bestehende Komplexität zwischen parallel agierenden IT-Lösungen ist für Unternehmen zunehmend ineffizient - ein Silo-Denken von IT-Lösungen antiquiert. Unternehmen setzen daher auf cloudbasierte Hybrid-Lösungen, die Anforderungen an moderne IT-Infrastrukturen erfüllen können; dafür benötigt das Unternehmen eine Plattform, die dies erst ermöglicht."

"Im Zusammenhang mit Hybrid-Cloud-Lösungen gewinnt auch die Container-Technologie an Bedeutung, Stichwort Docker. Entwicklungspakete, die zur Erstellung neuer Anwendungen notwendig sind, können durch diese Technologie vereinfacht bereitgestellt und ressourcenunabhängig entwickelt werden. Dadurch erhöht sich die Virtualisierung auch bei der Softwareentwicklung sowie die Zusammenarbeit zwischen Entwickler- und ausführender IT-Ebene. Das Entscheidende dabei: Auch hier ist der Plattform-Gedanke die Grundlage der Entwicklung, weil verschiedene Bereiche der IT nicht mehr nur durch Colocation, Private oder Public Cloud-Lösungen betrieben werden. Stattdessen werden virtuelle Maschinen mit physikalischen Servern und Container durch hybride IT-Infrastrukturen vereint."

Peter Dümig, Dell: "Die Trend-Themen für das kommende Jahr im Bereich Rechenzentrum sind weiterhin Converged- oder Hyper-Converged-Infrastructure-Lösungen. Das Cloud-Platform- oder das Hybrid-Cloud-System von Dell EMC vereinfachen zum Beispiel den Einstieg in hybride Cloud-Lösungen für Unternehmen, wodurch sie ihre Effizienz steigern und gleichzeitig den Verwaltungsaufwand reduzieren können. Die Kunden erwarten Lösungen, bei denen die Transition in neue Modelle sanft und ohne administrative Schwierigkeiten erfolgt."

"Auch der Trend Software-Defined wird sich noch einmal verstärken. Die Akzeptanz solcher Lösungen steigt - ebenso das Interesse, da sich Kunden mehr Flexibilität für das Rechenzentrum wünschen. Bei der Implementierung stehen wir aber wegen vermeintlicher technischer oder organisatorischer Hürden noch ziemlich am Anfang. Vorinstallierte und validierte Lösungen wie die Dell EMC XC-Serie oder auch VxRack und VxRail erleichtern Kunden den Einstieg in diese Welt, da sie das Risiko minimieren, die Inbetriebnahme deutlich vereinfachen und auch potentielle Support-Themen adressieren."

Udo Würtz, Fujitsu: "Für IT-Verantwortliche in Rechenzentren wird das Software Defined Data Center weiter an Bedeutung zunehmen. Bereitstellung, Betrieb, Wartung und Erweiterbarkeit von IT-Ressourcen erfolgen zukünftig softwaregestützt. Das hilft Unternehmen aller Größenordnungen, die IT-Sicherheit signifikant zu erhöhen und Kosten und Betriebsaufwände insgesamt zu minimieren. Außerdem wird sich so die Silo-Struktur im Rechenzentrum stärker auflösen; stattdessen werden IT-Teams noch enger zusammenarbeiten. Das verbessert den Service und damit auch die Kundenzufriedenheit. Durch Software Defined Data Center geraten Blade-Systeme an die Grenzen ihrer Möglichkeiten und werden daher an Bedeutung verlieren. Nachteile wie hohe Kosten beim Austausch auf höhere Bandbreiten oder proprietäre Hardware sind der Grund, warum sich Unternehmen stattdessen immer öfter für Modulare Server entscheiden werden."

"Wer sich mit der Umsetzung einer Private Cloud für sein Unternehmen beschäftigt, kommt an OpenStack nicht vorbei. Immer öfter werden Landschaften OpenStack-basiert geplant, mindestens jedoch diskutiert und der Einsatz evaluiert. Wenn die Anwendungen passen, sollte diese Option unbedingt in Betracht gezogen werden."

"Nichts ist schlimmer als Erfolg, der auf unvorbereitete IT trifft. Hier können Containerized Applications schaffen. Ob Skalierung, hybride Ansätze oder einfach der Bedarf, etwas Neues auszuprobieren: Anwendungen wie Docker sollten unbedingt in Betracht gezogen werden."

Stefan Weber, Hewlett Packard Enterprise: "Das Thema Software Defined Everything und in dem Zusammenhang Composable Infrastructure wird ein wichtiges Thema in 2017 sein. Mit der Verfügbarkeit entsprechender Plattformen - HPE Synergy beispielsweise - werden Unternehmen in die Lage versetzt, dynamische Anforderungen bei gewohnter Stabilität zu realisieren. Im Hinblick auf Virtualisierung gewinnen neben den klassischen virtuellen Maschinen Container-Technologien (beispielsweise Docker) an Bedeutung. Um neben den architektonischen Vorteilen auch Kostenvorteile zu erzielen, ist dabei vor allem eine Integration ins Infrastrukturmanagement notwendig, wie es HPE beispielsweise mit Oneview umsetzt."

"Offene Standards und Schnittstellen werden des Weiteren beim Aufbau von IoT-Ökosystemen eine immer größere Rolle spielen. Compute- Leistungen werden teilweise aus dem Rechenzentrum auf die Geräte verlagert, Stichwort Intelligent Edge. Hier kommt es darauf an, dass die vernetzten Geräte nahtlos mit den Datacenter-Infrastrukturen interagieren. Darüber hinaus wird der Bedarf an hybriden Modellen durch ein verändertes Konsumverhalten und sich schnell wandelnde Geschäftsanforderungen zunehmen. Damit Kunden sich das Optimum für ihre IT-Anforderungen zusammenstellen können, sind neben den technischen Voraussetzungen, wie offene Schnittstellen, engere Partnerschaften zwischen dem Infrastrukturlieferanten sowie Softwareherstellern und (Cloud-)Serviceprovidern notwendig. IT-Verantwortliche sollten daher in 2017 ein verstärktes Augenmerk auf das Ökosystem ihrer IT-Partner legen."

Ingolf Wittmann, IBM: "Server- und Storage-Virtualisierung hat sich am Markt durchgesetzt und speziell im Storage-Umfeld auch das Thema "Software Defined". Die Netzwerktechnologie hat hier ein Stückweit einen Nachholbedarf. Auf bahnbrechende Neuerungen müssen sich hier Kunden nicht einstellen, aber das Thema Software Defined speziell auf Datacenter-Ebene mittelfristig auf der Agenda haben."

"Firmen und Betreiber von Rechenzentren müssen sich eher mit der Problematik auseinandersetzen: Habe ich die Fähigkeiten und Skills, um die neuen oder brennenden Themen Cloud, Analytics, Security, Mobile in meinem Unternehmen erfolgreich einzuführen und zu betreiben?"

"Cloud und Mobile sind eine nicht zu trennende Verbindung. Die sichere Private Cloud, abgeschottet nach draußen, lässt sich in den meisten Fällen nicht realisieren, sondern die Anbindung an Partner oder Kundenclouds ist die Regel. Egal ob es reine Anwendungen sind oder spezifische Containerlösungen á la Docker. Dafür müssen entsprechende Security Konzepte entwickelt, aber auch implementiert werden. Unternehmensdaten und Anwendungen bestehen in der Zukunft aus unterschiedlichen Modulen von unterschiedlichen Anbietern, welche dann entsprechend kombiniert werden. IBM Bluemix ist hier ein gutes Beispiel z.B. für den Analytics Bereich: Unternehmeseigene "legacy" Daten und Anwendungen wie ein SAP werden mit Echzeitdaten z.B. aus Facebook oder Twitter aus Bluemix kombiniert, um marktspezifische Produkt(weiter)entwicklung zu betreiben."

"Auf der anderen Seite kommt High Performance Analytics in der Produktforschung und -entwicklung zum Einsatz, um schneller Produkte mit spezifischen Eigenschaften auf den Markt zu bringen. Basistechnologien sind hier Deeplearning bzw. Machinelearning mit Anleihen aus der künstlichen Intelligenz, um weg vom Try & Improve mit langen Versuchsreihen zu kommen. Mit diesen Methoden lassen sich die Entwicklungzeiten und der Materialeinsatz in der Produktentwicklung deutlich verringern. Da häufig dieses Spezialwissen für den Aufbau und Betrieb von solchen Umgebungen in vielen Unternehmen nicht vorhanden ist, sind mittlerweile auch erste Cloudangebote im Markt verfügbar."

"Ein weiterer Trend ist Produkte als Service anzubieten, also z.B. die Flugturbine nicht mehr zu kaufen sondern den Hersteller per Flugstunde zu bezahlen. Um solche Konzepte erfolgreich in den Markt einzuführen, muss auch die IT des Unternehmens entsprechende Fähigkeiten und Kapazitäten insbesondere bezüglich des Internet of Things (IoT) besitzen. Der Service bzw. das Produkt kommuniziert permanent mit den Daten und Analytics Systemen, wodurch immense Datenmengen erzeugt werden. Ein Windrad etwa mit 1000 Sensoren erzeugt pro Minute 60000 Datensätze. Nun macht es keinen Sinn über teilweise dünne Datenleitungen diese Informationen permanent zu streamen, sondern hier kommt das sogenannte Edge Computing zum Einsatz, bei dem bereits vor Ort die Daten aggregiert und dann komprimiert an das zentrale Analytics System geschickt werden. So können z.B. Ausfälle frühzeitig erkannt oder dem Kunden entsprechende Betriebsabrechnungen erstellt werden."

Paul Höcherl, Lenovo: "Auf IT-Verantwortliche kommen 2017 einige Herausforderungen zu. Zum einen wird Bewegung in den Bereich Cloud kommen und das gilt für Private Cloud, Private Cloud als auch Hybrid-Lösungen. Ferner konnten wir eine Etablierung des Thema Hyperconverged Computing feststellen, so dass es hier zu wachsender Nachfrage kommen wird. Nicht zuletzt steht 2017 die Überarbeitung eines großen Teiles an Servertechnologie an, da Intel die nächste Generation an Prozessoren für Server plant."

Dr. David Hoeflmayr, CEO, und Benjamin Bayer, Product Manager, der Thomas-Krenn.AG: "Im Rechenzentrum bringen die verlangte Packungsdichte der Server und immer stromhungrigere Prozessoren herkömmliche Kühlkonzepte an ihre Grenzen. Speziell in Deutschland kommen die hohen Stromkosten hinzu. Wir erwarten deshalb, dass Flüssigkühlkonzepte aus dem High Performance Computing langsam in das Mainstream-Rechenzentrum wandern. Das ist jedoch ein längerer Prozess, der 2017 wohl langsam Fahrt aufnehmen wird."

"Bei der Virtualisierung geht es 2017 vor allem darum, weiter Overhead zu reduzieren. Zum einen durch Container-Virtualisierung, in erster Linie mit Docker. Egal ob VMware, Microsoft oder diverse Linux-Distributionen, alle bieten mittlerweile eine einfache Integration von Docker in Ihre Systeme."

 

Pressesprecher

Computerwoche im Höhenflug. Ich lese das CW kaum mehr, aber heute dachte ich, ich versuche es noch mal. Bekomme ich wieder nur Brochure- und Marketingpalaber zu lesen. Gibt es noch Journalisten bei dem Blatt oder sind da nur noch Pressesprecher angestellt?

comments powered by Disqus