Cloud Services, Virtualisierung, Servermanagement

Server - Die neuen Trends und Technologien 2011

27.02.2011
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.

Quo vadis, Servervirtualisierung?

In den vergangenen Jahren ist die Rechenleistung explosionsartig gestiegen. Um diese Rechner-Performance effektiv zu nutzen, ist aktuell die Virtualisierungstechnologie das Mittel der Wahl. Neben der besseren Auslastung der Systeme sinkt auch die Leistungsaufnahme in Bezug auf die Rechen-Performance, was dazu beiträgt, die Betriebskosten der IT zu senken. Wir wollen wissen, wie die Virtualisierungstechnologie den ,Server’ in Bezug auf die Hardware- und Softwareausstattung 2011 verändert.

Rolf Kersten, Oracle: "Wie bereits angedeutet, geht der Trend hin zu Clustern aus Systemen, die je nach Applikationen mit unterschiedlich ausgestatteten Serverknoten (Anzahl CPUs, Hauptspeicher) arbeiten. Wichtig ist ein schneller Interconnect wie zum Beispiel Infiniband der Server untereinander. Aber auch ein schneller Zugang zum Storage, trotz einer Vielzahl paralleler Zugriffe der virtualisierten Systeme, ist wichtig. Hier verkürzt der intelligente Einsatz von Flash-Speicher die Wartezeit auf Transaktionen, und Technologien wie Infiniband sorgen für mehr Datendurchsatz."

Hans-Jürgen Rehm, IBM: "Virtualisierung auf x86 wird weiter an Funktionalität wachsen und sich dem ausgereiften Virtualisierungsgrad der Mainframes - die das seit 40 Jahren können - stückweise annähern."

Peter Dümig, Dell: "Auch hier dürfte sich der bereits vorhandene Trend weiter fortsetzen: Gefragt sind mehr Memory- und mehr I/O-Bandbreite. Das zeigt sich zum Beispiel schon an der steigenden Verbreitung von 10 Gigabit Ethernet (10 GbE) im Netzwerkbereich."

Jörg Mecke, PC-Ware: "Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management."
Jörg Mecke, PC-Ware: "Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management."
Foto: PC Ware

Jörg Mecke, PC-Ware: "Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management. Mit Freeware ist es jetzt nicht mehr getan, da die Umgebungen immer noch wichtiger werden und immer noch seltener ausfallen dürfen."

Michael Homborg, Fujitsu: "In Fujitsus Fall sieht das so aus, dass wir 2011 auch bei den Primergy-Mono-Sockel-Servern verstärkt Virtualisierung anbieten werden."

Markus Herber, HP: "Die Virtualisierung der Server gehört längst zur Routine: Dabei geht es nicht mehr nur um die Konsolidierung von mehreren Rechnern auf einem. Schrittweise übernehmen die Virtualisierungssysteme auch weitere Funktionen wie die Skalierung von Anwendungen oder die Verteilung der Last. Die Anforderung an die Server ist es nun, diese neuen Aufgaben zu unterstützen, beispielsweise wenn Applikationen auf einen Host transportiert werden, an dem die passende Menge an Rechenleistung und Arbeitsspeicher zur Verfügung steht: Starre I/O-Schnittstellen zwischen Speicher und Anwendern haben schnelle Reaktionen bisher verhindert. Neue Technologien ermöglichen eine virtuelle Verknüpfung von Server und Speicher - das reduziert den Zeit- und Kostenaufwand für das manuelle Patchen von Verbindungen. HP bietet dafür beispielsweise die Technologie HP VirtualConnect. Das integrierte Bandbreitenmanagement ermöglicht es dabei, die maximale Kapazität pro Port von 10 GBit in 100-MBit-Schritten passgenau in mehrere Anteile aufzuteilen und diese auch während des Betriebs anzupassen. Damit erhält jeder Server oder Dienst genau die Menge an Bandbreite zugewiesen, die er für die Durchführung seiner Arbeit benötigt. Außerdem ermöglicht die Technologie eine Aufteilung des Kommunikations-Interface auf bis zu vier Kanäle. Ein VirtualConnect-FlexFabric-Modul in Kombination mit einem FlexFabric-Adapter stellt neben drei Ethernet-Anschlüssen jetzt auch einen variablen Anschluss zur Verfügung, der sowohl für Ethernet als auch als Speicheranbindung genutzt werden kann. Bei den neuesten Blade-Servern integriert HP den FlexFabric-Adapter direkt auf der Hauptplatine.