Storage, Netzwerk und Komplettlösungen

Die wichtigsten Trends bei der Server-Virtualisierung

03.11.2014
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.
Zwar hat sich Server-Virtualisierung in den Unternehmen etabliert, doch die Technologie bietet noch eine Menge an Entwicklungspotenzial. Welche wichtigen Trends in 2014 / 2015 IT-Verantwortliche nicht verpassen sollten, erläutern die Server-Experten von Dell, Fujitsu, HP und IBM.

Laut der aktuellen Studie von IDC "EMEA Quarterly Server Virtualization Tracker" zufolge ist aktuell Cloud Computing mit 59 Prozent das Top-Thema bei den Unternehmen. Auf Platz zwei folgen mit 48 Prozent mobile Anwendungen, und Big Data belegt mit 37 Prozent den dritten Platz.

Allerdings prognostizieren die Markforscher IDC und Gartner nur ein leichtes Marktwachstum im Serverumfeld. Treibende Technologien sind dabei ebenfalls Cloud Computing und Big Data.

Server_Fotolia_Dreaming_Andy_51334330_Subscription_XXL_HPT
Server_Fotolia_Dreaming_Andy_51334330_Subscription_XXL_HPT
Foto: Dreaming Andy, Fotolia.com

Die knappen Budgets in den IT-Abteilungen und die steigenden Kosten für Energie zwingen die IT-Verantwortlichen, ihre Serverinfrastruktur zu konsolidieren. Darüber hinaus müssen Aspekte wie Cloud-Services, Big Data und Virtualisierung berücksichtigt werden. Doch in erster Linie ist das Ziel, veraltete Systeme durch moderne, leistungsfähige Server zu ersetzen. Diese sollen energieeffizient arbeiten, eine hohe skalierbare Performance aufweisen und eine hohe Verfügbarkeit besitzen.

Der Wandel im Bereich Serverhardware wird hauptsächlich durch den Einsatz von Virtualisierungs- und Cloud-Technologien begünstigt. Dieser Trend erfordert aber, dass die Anforderungen an das Management und den Service einer solchen IT-Infrastruktur in die Planung beziehungsweise Kostenstruktur der Rundumerneuerung einbezogen werden.

Wie sich der Serverbereich in Zukunft mit Blick auf die genannten Themen entwickelt, erläutern folgende Experten:

  • Peter Dümig, Enterprise Solutions Marketing Manager; Dell

  • Stefan Lautenschläger, Head of Pre-Sales Strategic Infrastructure Solutions Central Europe; Fujitsu

  • Johannes Horneck, Business Development Manager Datacentre Solutions; Hewlett-Packard

  • Thomas Harrer, Client Technical Architect / Chairman TEC Central Region; IBM Deutschland GmbH

Wichtige Tipps, worauf Sie beim Kauf eines Servers achten müssen, erhalten Sie in unseren Beiträgen Kaufberatung: der richtige Blade-Server, Kaufberatung: der richtige Rack-Server und Kaufberatung: der richtige Tower-Server.

Serverlandschaft im Wandel

Auf welche allgemeinen Trends im Bereich Server-Virtualisierung müssen sich kleine und mittelständische Unternehmen im Jahr 2014/15 einstellen?

Peter Dümig, Dell: "Bei der Server-Virtualisierung sind im Moment keine eigenen Technologietreiber erkennbar. Wir nutzen aber die allgemeinen Trends am Markt, die auch in diesem Bereich immer wichtiger werden, besonders auch für kleine und mittelständische Unternehmen. Zu diesen Trends zählt etwa lokaler Speicher bei der Virtualisierung: er ist eine preiswerte Alternative zum zentralen Storage, wie ihn VMware Virtual SAN oder Microsoft Storage Spaces zur Verfügung stellen. Ein weiteres Stichwort lautet Offload von IOs. Dazu kommt das weitere Vorantreiben der Virtualisierung in Richtung LAN."

Stefan Lautenschläger, Fujitsu: "Auch wenn wir heute von einem hohen Virtualisierungsgrad sprechen, stellen wir immer wieder fest, dass die Durchdringung vor allem in dem von Ihnen angesprochenen Kundenkreis noch nicht so stark umgesetzt ist, wie vermutet. Das liegt vor allem an der Komplexität beim Übergang von physikalischen in virtualisierte Umgebungen. Eine große Herausforderung ist das Thema "zentraler Storage". Viele dieser Kunden scheuen vor den planerischen und finanziellen Risiken einer Storage- und SAN-Umgebung zurück, auch wenn sie den Nutzen der Virtualisierung erkannt haben.

Die IT-Hersteller haben darauf reagiert und bieten für dieses Marktsegment Bundles und Referenzarchitekturen an. Diese nehmen den Kunden einen wesentlichen Teil der Risiken ab. Neue Technologien wie Storage-Virtualisierungs-Funktionen im Betriebssystem und Hypervisor reduzieren die Komplexität von Virtualisierungs-Plattformen massiv. Dabei nutzen Betriebssystem und Hypervisor lokale SSDs und Festplatten in den einzelnen Servern, um nicht nur Compute-Leistung zur Verfügung zu stellen, sondern auch gemeinsam nutzbaren Storage.

Wenn bereits Virtualisierungstechnologien genutzt werden, stehen oft die Hardwareeinsparungen und Konsolidierungsmöglichkeiten im Fokus. Gleichzeitig wächst die Zahl der virtuellen Maschinen auf den Hosts durch die wachsende Leistungsfähigkeit der Server immer weiter. Die meisten geschäftskritischen Anwendungen laufen oft auf wenigen Hosts und Störungen können so leicht den gesamten Betrieb beeinflussen. Darum werden Hochverfügbarkeit und Konzepte zum Site Failover für das Data Center immer wichtiger. Um mit der bestehenden IT-Mannschaft diese zunehmenden Anforderungen abzudecken, können die KMU auf Referenzarchitekturen und Tools aufsetzen, die DC Management und Automation unterstützen ohne den Aufbau zusätzlicher Ressourcen."

Johannes Horneck, HP: "In den letzten Jahren konnten Unternehmen mithilfe von Server-Virtualisierung IT-Kosten senken und ihre Flexibilität steigern. Da sie nicht mehr von physischen Servern abhängig waren, konnten sie ihre Rechenzentren deutlich entlasten. Gleichzeitig reagierten die Fachbereiche auf die reduzierten Kosten mit einem ungeahnten Hunger nach neuen Anwendungen, was zu einem enormen Anstieg der virtuellen Maschinen führte und die Kosten explodieren ließ. Die Synchronisation der zahlreichen unterschiedlichen Komponenten bedeutete viel Aufwand. Die Flexibilisierung wurde zunehmend durch proprietäre Komponenten im Netzwerkbereich gehemmt. Aufgrund dessen wird künftig Server-Virtualisierung allein nicht mehr ausreichen. Der Trend geht immer weiter in Richtung vorkonfektionierte Komplettlösungen für den optimierten Betrieb, die auf einer konvergenten Infrastruktur basieren.

IDC prognostiziert für das Jahr 2014 eine Verdoppelung der Anzahl virtueller Maschinen. Dies stellt eine enorme Herausforderung für IT-Abteilungen dar: Sie müssen die hohen Erwartungen an Virtualisierungsprojekte erfüllen, die Geschäftsbereiche unterstützen und jederzeit lieferbereit sein, ohne dabei den geplanten Kostenrahmen zu sprengen. Diese Erwartungshaltung hat sich insbesondere durch die Konzepte externer Cloud-Anbieter etabliert. Für den deutschen Mittelstand kommen solche Cloud-Lösungen allerdings in der Regel nicht infrage, da die eigenen Daten am liebsten nur hauseigenen Lösungen anvertraut werden.

Damit IT-Abteilungen diesen hohen Anforderungen gerecht werden, müssen Planungs- und Umsetzungsphasen sowie die Inbetriebnahme von Systemen verkürzt werden. Hier leisten Referenzarchitekturen eine bedingte Hilfestellung. Einen deutlichen Schritt weiter gehen Komplettlösungen, die alle benötigen Komponenten enthalten: Sie lassen sich nicht nur schnell konfigurieren, sondern auch wirklich zügig in Betrieb nehmen. Schwierig wird es, wenn die Komplettlösung aus den Portfolios unterschiedlicher Hersteller besteht. In diesem Fall ist die Abstimmung der Komponenten deutlich aufwendiger, denn die IT-Abteilung ist dann einerseits von dem Zeitplan jedes einzelnen Herstellers und andererseits von der Entwicklung der strategischen Beziehungen verschiedener Unternehmen in den nächsten Jahren abhängig. Dies kann einerseits zu Schwierigkeiten in der Synchronisation und über die gesamte Laufzeit zu erheblichen Friktionen führen.

Außerdem neigen viele IT-Verantwortliche dazu, Adaptionen mit Fokus auf Einzelkomponenten vorzunehmen, was nicht zwangsläufig zu Vorteilen führt, denn das Zusammenspiel der Komponenten ist viel wichtiger als die individuell angepasste Einzelkomponente. Wesentlich ist jedoch, dass auch bei Komplettlösungen jede einzelne Komponente über offene Standards verfügt, sodass kein "Vendor-Lock-in" entsteht."

Thomas Harrer, IBM: "Der am stärksten wachsende Teil der IT sind die sogenannten Systems of Engagements - das sind Anwendungen, die über das Web oder über mobile Geräte in der Regel über soziale Funktionen Kunden, Partner, Mitarbeiter zusammenbringen und deren Zusammenarbeit unterstützen. Das können auch Spiele sein, Big Data oder Analytische Anwendungen oder Systeme, die das Internet of Things unterstützen. Diese Systems of Engagements werden immer häufiger in Clouds implementiert - entweder als private Cloud im den Rechenzentren der Unternehmen, die diese Systeme einsetzen oder als Public Cloud von Hosting-Anbietern. In beiden Fällen spielt die Servervirtualisierung eine immer wichtiger werdende Rolle, denn diese Cloud-Strukturen sind meist virtualisiert. Der wichtigste Trend in diesem Bereich ist der steigende Einsatz offener Standards für die Virtualisierung und das Management von virtualisierten Umgebungen. Hier spielt Linux, KVM und OpenStack eine zunehmende Rolle.

Daneben bleiben die sogenannten Systems of Records bestehen. Das sind die Kernanwendungen von Unternehmen, auf denen die Finanztransaktionen durchgeführt werden oder auf denen kritische Kernprozesse eines Unternehmens abgebildet sind. Für diese Systeme spielen weiterhin proprietäre Lösungen eine Rolle besonders in Anwendungsszenarien mit besonders hohen Anforderungen an Performance, Skalierbarkeit oder Sicherheit." (hal)