Cloud Services, Virtualisierung, Servermanagement

Server - Die neuen Trends und Technologien 2011

27.02.2011 von Bernhard Haluschak
Im Jahr 2010 prägten die Schlagworte Cloud Computing, Virtualisierung und Energieeffizienz den Serverbereich. Mit welchen Themen müssen sich die Administratoren und IT-Verantwortlichen im Jahr 2011 auseinandersetzen? Serverexperten von Dell, Fujitsu, HP, IBM und PC-Ware geben Auskunft.

Das Jahr 2010 stand im Serverumfeld unter dem Motto "Cloud Computing". Dazu gesellten sich die themenverwandten Bereiche wie Cloud Services, Virtualisierung, Konsolidierung und Energieeffizienz. Der Hype um Cloud Computing wurde zusätzlich durch die Nachwirkungen der Wirtschaftskrise und den damit verbundenen Kostendruck begünstigt.

Eine Cloud-Computing-Infrastruktur setzt sich aus Anwendungen und Daten zusammen, die sich nicht lokal auf einem System befinden, sondern in einer Cloud. Diese besteht aus verteilten Systemen, auf denen die benötigten Anwendungen oder sogar Betriebssysteme laufen und die über das Internet bezogen werden können. Der Vorteil dieser Technologie: Die Dienste (Cloud Services) können in Echtzeit bezogen werden, und nur die Nutzungsdauer wird berechnet. Aufwendige kostenintensive Hardware wird nicht benötigt. Dieser Trend wird sich nach Meinung unserer Serverexperten weiter fortsetzen.

In puncto Serverhardware wird es - begünstig durch den zunehmenden Einsatz von Virtualisierungstechnologien - zu einer Leistungsverdichtung kommen. Dementsprechend müssen die Anforderungen an die Ausfallsicherheit und das Management der Systeme ausgelegt sein - hier besteht teilweise noch Nachholbedarf.

Bildergalerie: Experten Server Trends 2011
Peter Dümig, Dell
„Der bisherige Trend wird sich fortsetzen, das heißt: Es besteht eine höhere Nachfrage nach Rack- und Blade-Systemen als nach Tower-Servern. Abhängig von der weiteren Verbreitung von Cloud Services wird sich dieser Trend noch beschleunigen, denn die typischen Cloud-Anbieter setzen eher auf optimierte Cloud-Rack-Server."
Rolf Kersten, Oracle
„Zunehmend werden auf Applikationen hin optimierte Systeme im Trend liegen. Diese Systeme sind aus einem Cluster von Server, Interconnect und Storage aufgebaut. Sie stellen standardmäßig den Applikationen virtualisierte Ablaufumgebungen zur Verfügung und werden zentral und einheitlich verwaltet.“
Jörg, Mecke, PC Ware
„Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management.“
Hans Jürgen Rehm, IBM
„Anschaffungskosten, Betriebskosten, Energieeffizienz – weil alle diese Faktoren unmittelbar auf das Betriebsbudget und die Betriebsbedingungen im Rechenzentrum durchschlagen. Die klassischen Faktoren Leistung, Verfügbarkeit, Sicherheit, Skalierbarkeit bilden dabei die Grundlage für die Auswahl einer Plattform.“
Markus,Herber, HP
„Mit den vielfältigen Cloud-Angeboten rücken auch die Themen Sicherheit und Compliance verstärkt ins Bewusstsein: In vielen kleinen und mittleren Unternehmen gibt es hierfür noch keine einheitlichen und umfassenden Konzepte, wie dies – auch auf Serverebene – umsetzbar ist. Weiterhin werden die Standardisierung der IT-Landschaft und die vereinfachte, zentralisierte IT-Administration im Jahr 2011 ein Trend bleiben.“
Michael Homborg, Fujitsu
"Die Cloud treibt Innovationen an jeder Stelle im Rechenzentrum voran. Alles muss auf den Prüfstand."

Wie sich der Serverbereich im Jahr 2011 unter anderem in Bezug auf diese Themen entwickelt, erläutern folgende Experten:

Ausführliche technische Informationen und Leistungsdaten zur aktuellen Intel-Server-Plattform bietet der Artikel Die schnellsten Prozessoren im Benchmark-Vergleich. Worauf Sie beim Kauf eines Servers achten müssen, erfahren Sie in den Beiträgen: Kaufberatung: der richtige Blade-Server, Kaufberatung: der richtige Rack-Server und Kaufberatung: der richtige Tower-Server.

Tower-, Rack- und Blade-Server

Laut den Marktforschern von IDC wuchs der Markt für Serversysteme im Einstiegs- und Midrange-Bereich mit bis zu 20 Prozent Steigerungsrate überdurchschnittlich gut. Auch der Markt für Blade-Systeme soll sich in den nächsten vier Jahren "prächtig" entwickeln, so die IDC-Analysten. Dabei werden Blade-Systeme auch für mittelständische Firmen als Alternative zu den klassischen Rack- oder Tower-Servern immer attraktiver. Wir haben die Experten gefragt, wie sie die langfristige Entwicklung beziehungsweise Veränderung der Serverlandschaft in Bezug auf Tower-, Rack- und Blade-Server sehen.

Rolf Kersten, Oracle: "Durch den Trend zu Konsolidierung, Virtualisierung und Cloud Computing erwarten wir auch weiterhin die Migration weg von dezentralen Tower-Servern hin zu zentral verwalteten Grids in Form von Rack- und Blade-Servern."

Hans-Jürgen Rehm, IBM: "Zunächst wird die Bedeutung der x86-Plattform in der Breite weiter wachsen, denn die Systeme werden leistungsstärker und zuverlässiger. Auch das Thema Virtualisierung spielt dabei eine große Rolle. Im High-End-Bereich behalten Mainframes und Power-Systeme aufgrund ihrer spezifischen Vorteile ihre Bedeutung bei. Der Anteil der Rack- und Blade-basierten Systeme - aus Formfaktorensicht - wird gegenüber Tower-Servern ebenfalls weiter steigen."

Peter Dümig, Dell: "Der bisherige Trend wird sich fortsetzen, das heißt: Es besteht eine höhere Nachfrage nach Rack- und Blade-Systemen als nach Tower-Servern. Abhängig von der weiteren Verbreitung von Cloud Services wird sich dieser Trend noch beschleunigen, denn die typischen Cloud-Anbieter setzen eher auf optimierte Cloud-Rack-Server."
Foto: Dell

Peter Dümig, Dell: "Der bisherige Trend wird sich fortsetzen, das heißt: Es besteht eine höhere Nachfrage nach Rack- und Blade-Systemen als nach Tower-Servern. Abhängig von der weiteren Verbreitung von Cloud Services wird sich dieser Trend noch beschleunigen, denn die typischen Cloud-Anbieter setzen eher auf optimierte Cloud-Rack-Server. Sie werden deshalb dann die vielen kleinen Tower-Systeme ersetzen, die häufig noch bei KMUs im Einsatz sind."

Jörg Mecke, PC-Ware: "Die Tower-Geräte sind schon heute nur noch im Small-Business-Umfeld zu finden, da werden sie auch unverändert bleiben. Interessanter wird die Marktverteilung zwischen Rack- und Blade-Systemen: Es wird sich zeigen müssen, ob Rack-Server mit mehr als 1 TByte Hauptspeicher von den Kunden akzeptiert und eingesetzt werden. Letztendlich könnten diese Geräte noch effizienter sein als Blade-Server, weil sich die Leistung noch mehr verdichten lässt. Aktuell haben viele Kunden allerdings noch Vorbehalte bezüglich der Stabilität und Ausfallsicherheit der leistungsstarken Rack-Server."

Michael Homborg, Fujitsu: "Die Virtualisierung führt natürlich dazu, dass der Anteil der Rack-basierten Systeme im Rechenzentrum kontinuierlich zunimmt. Vor allem aber der Blade-Bereich verzeichnet ein enormes Wachstum. Das hängt hauptsächlich damit zusammen, dass Blade-Systeme mithilfe spezieller Umrüst-Kits zunehmend in klassischen Tower-Szenarien eingesetzt werden. Im Markt wächst dadurch die Nachfrage nach kleineren, dafür aber vollintegrierten Blade-Systemen wie dem Fujitsu Primergy BX400. Mit solch einem All-in-One-System kann selbst eine Besenkammer mit genau derselben modernen Technik ausgerüstet werden wie ein Rechenzentrum."

Markus Herber, HP: "Langfristig sehe ich eine Verschiebung der Marktanteile in Richtung Blade-Server: Zwar erholt sich zunächst der Servermarkt in allen drei Bereichen - also sowohl bei Tower- als auch bei Rack- und Blade-Servern -, doch langfristig sind vor allem Blade-Server ein Wachstumstreiber. Insbesondere der Mittelstand setzt nun auf eine einheitliche Blade-Architektur. Hierfür bietet beispielsweise HP ein breites Portfolio, das von der x86-Architektur bis hin zu hochverfügbaren Systemen auf Itanium-Basis reicht. Damit können Unternehmen alle Anwendungen zusammen in einer einheitlichen Blade-Architektur betreiben und mit einer Managementkonsole steuern. Solche Anwendungsszenarien werden das Blade-Wachstum weiter vorantreiben."

Fokus Cloud Computing

Cloud Computing ist im vergangenen Jahr zum Hype-Thema mutiert. Dabei werden IT-Services in eine Cloud verlagert, sodass teure IT-Infrastrukturkosten entfallen. In diesem Zusammenhang wollten wir von den Experten wissen, welche nachhaltigen Einflüsse beziehungsweise Auswirkungen Cloud Computing auf die aktuelle Serverlandschaft 2011 haben wird.

Rolf Kersten, Oracle: "Anforderungen des Cloud Computing wie Selbstbedienung, Ressourcenbereitstellung nach Bedarf und Ressourcenabrechnung nach Nutzung sind nur durch zentral bereitgestellte und verwaltete Server-Cluster zu erfüllen. Ob diese Server-Cluster aus einer Vielzahl kleiner Serversysteme, weniger großen oder einer Mischung aus beiden aufgebaut sind, hängt von den Applikationsanforderungen ab. Hauptsache ist, dass sich alle Systeme einheitlich betreiben und verwalten lassen. Oracle zum Beispiel offeriert verschiedene Versionen seiner für Datenbanken und Middleware optimierten Maschinen in unterschiedlichen Größen."

Michael Homborg, Fujitsu: "Die Cloud treibt Innovationen an jeder Stelle im Rechenzentrum voran. Alles muss auf den Prüfstand."
Foto: Fujitsu

Hans-Jürgen Rehm, IBM: "Cloud Computing ist ein IT-Bereitstellungsmodell, das zu einem erhöhten Bedarf an Hardware bei Service Providern führen wird. Auch bei den Anwendern ist zu erwerten, dass der Anteil des Servicebezugs aus der Cloud gegenüber dem Eigenbetrieb zunimmt."

Peter Dümig, Dell: "Wie bereits erwähnt, wird es eine Verschiebung hin zu Rack-Systemen geben."

Jörg Mecke, PC-Ware: "Cloud-Computing ist auf die Hardware bezogen ja nur die Ausweitung der Virtualisierungstätigkeit. Durch einen verstärkten Einsatz von Hosted-Virtualized-Desktops kommt es zu mehr Leistung im Rechenzentrum, und gleichzeitig werden weiterhin Altserver virtualisiert. Es ergibt sich damit ein Gesamtbild mit mehr moderner, leistungsfähiger Hardware."

Michael Homborg, Fujitsu: "Die Cloud treibt Innovationen an jeder Stelle im Rechenzentrum voran. Alles muss auf den Prüfstand: die CPUs, die Speicher, die Festplatten, die Controller, die Kühlung, das Netzwerk, die Betriebssysteme. Fujitsu hat genau aus diesem Grund die vierte Primergy-Serie - die Cloud-eXtension (CX)-Serie - aus der Taufe gehoben. Unsere Ingenieure haben einen Weg gefunden, den Warmgang zu eliminieren, um so die höchste Dichte an CPUs und Speicher-DIMMS pro Kubikmeter zu realisieren. Branchenweit ist das eine der kostengünstigsten Gesamtlösungen für Cloud-Rechenzentren."

Markus Herber, HP: "Cloud Computing heißt, dass IT-Services praktisch unmittelbar bereitgestellt, abbestellt und hinsichtlich Volumen und Service-Level-Agreements verändert werden können - ohne zeitraubende Projekte, Abstimmungen zwischen IT-Silos oder Vertragsverhandlungen mit externen Anbietern. Um das zu erreichen, braucht es automatisierte Prozesse über alle IT-Domänen hinweg, denn ein IT-Service - etwa E-Mail - besteht in der Regel nicht nur aus Serverleistung, sondern umfasst beispielsweise auch Speicher, Backup, Netzwerk und Applikationen. Cloud Computing bedeutet also zunächst einmal, dass diese gesamte Infrastruktur extrem anpassbar sein muss. Für die Serverlandschaft heißt das wiederum, dass die flexible Lastverteilung auf verschiedene Hosts mittels Virtualisierung nicht für Cloud Computing ausreicht. Um nur ein Beispiel zu nennen: Was nützt die flexibelste Serverlandschaft, wenn das Patchen oder Konfigurieren der Verbindungen zum SAN-Speicher oder zu den Ethernet-Netzen langwierige Abstimmungen zwischen Server-, SAN- und Ethernet-Verantwortlichen erfordert? Cloud Computing setzt mit anderen Worten eine konvergente Infrastruktur voraus - also eine Infrastruktur mit automatisierten, silo-übergreifenden Prozessen. Technische Voraussetzungen dafür sind beispielsweise die Verwendung von Standardkomponenten für Windows- und Unix-Systeme, die I/O- und Speicher-Virtualisierung, eine einheitliche Managementsoftware für alle IT-Domänen im Rechenzentrum und der Einsatz von Lösungen für Run Book Automation. Konvergenz muss also auf allen Ebenen hergestellt werden. Letztlich hat das auch Konsequenzen für das Berufsbild des Serveradministrators: Sein Aufgabenfeld wird sich künftig weit über sein angestammtes Gebiet hinausentwickeln, weil er bei allen Aktionen die vor- und nachgelagerten Systeme im Blick haben muss."

Quo vadis, Servervirtualisierung?

In den vergangenen Jahren ist die Rechenleistung explosionsartig gestiegen. Um diese Rechner-Performance effektiv zu nutzen, ist aktuell die Virtualisierungstechnologie das Mittel der Wahl. Neben der besseren Auslastung der Systeme sinkt auch die Leistungsaufnahme in Bezug auf die Rechen-Performance, was dazu beiträgt, die Betriebskosten der IT zu senken. Wir wollen wissen, wie die Virtualisierungstechnologie den ,Server’ in Bezug auf die Hardware- und Softwareausstattung 2011 verändert.

Rolf Kersten, Oracle: "Wie bereits angedeutet, geht der Trend hin zu Clustern aus Systemen, die je nach Applikationen mit unterschiedlich ausgestatteten Serverknoten (Anzahl CPUs, Hauptspeicher) arbeiten. Wichtig ist ein schneller Interconnect wie zum Beispiel Infiniband der Server untereinander. Aber auch ein schneller Zugang zum Storage, trotz einer Vielzahl paralleler Zugriffe der virtualisierten Systeme, ist wichtig. Hier verkürzt der intelligente Einsatz von Flash-Speicher die Wartezeit auf Transaktionen, und Technologien wie Infiniband sorgen für mehr Datendurchsatz."

Hans-Jürgen Rehm, IBM: "Virtualisierung auf x86 wird weiter an Funktionalität wachsen und sich dem ausgereiften Virtualisierungsgrad der Mainframes - die das seit 40 Jahren können - stückweise annähern."

Peter Dümig, Dell: "Auch hier dürfte sich der bereits vorhandene Trend weiter fortsetzen: Gefragt sind mehr Memory- und mehr I/O-Bandbreite. Das zeigt sich zum Beispiel schon an der steigenden Verbreitung von 10 Gigabit Ethernet (10 GbE) im Netzwerkbereich."

Jörg Mecke, PC-Ware: "Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management."
Foto: PC Ware

Jörg Mecke, PC-Ware: "Zunächst einmal verändert der Server die Virtualisierung: Durch die Anhäufung von Kernen pro Sockel können immer mehr virtuelle Instanzen gefahren werden. Die Verdichtung auf weniger Server führt allerdings auch zu einem erhöhten Bedarf an professionellem Management. Mit Freeware ist es jetzt nicht mehr getan, da die Umgebungen immer noch wichtiger werden und immer noch seltener ausfallen dürfen."

Michael Homborg, Fujitsu: "In Fujitsus Fall sieht das so aus, dass wir 2011 auch bei den Primergy-Mono-Sockel-Servern verstärkt Virtualisierung anbieten werden."

Markus Herber, HP: "Die Virtualisierung der Server gehört längst zur Routine: Dabei geht es nicht mehr nur um die Konsolidierung von mehreren Rechnern auf einem. Schrittweise übernehmen die Virtualisierungssysteme auch weitere Funktionen wie die Skalierung von Anwendungen oder die Verteilung der Last. Die Anforderung an die Server ist es nun, diese neuen Aufgaben zu unterstützen, beispielsweise wenn Applikationen auf einen Host transportiert werden, an dem die passende Menge an Rechenleistung und Arbeitsspeicher zur Verfügung steht: Starre I/O-Schnittstellen zwischen Speicher und Anwendern haben schnelle Reaktionen bisher verhindert. Neue Technologien ermöglichen eine virtuelle Verknüpfung von Server und Speicher - das reduziert den Zeit- und Kostenaufwand für das manuelle Patchen von Verbindungen. HP bietet dafür beispielsweise die Technologie HP VirtualConnect. Das integrierte Bandbreitenmanagement ermöglicht es dabei, die maximale Kapazität pro Port von 10 GBit in 100-MBit-Schritten passgenau in mehrere Anteile aufzuteilen und diese auch während des Betriebs anzupassen. Damit erhält jeder Server oder Dienst genau die Menge an Bandbreite zugewiesen, die er für die Durchführung seiner Arbeit benötigt. Außerdem ermöglicht die Technologie eine Aufteilung des Kommunikations-Interface auf bis zu vier Kanäle. Ein VirtualConnect-FlexFabric-Modul in Kombination mit einem FlexFabric-Adapter stellt neben drei Ethernet-Anschlüssen jetzt auch einen variablen Anschluss zur Verfügung, der sowohl für Ethernet als auch als Speicheranbindung genutzt werden kann. Bei den neuesten Blade-Servern integriert HP den FlexFabric-Adapter direkt auf der Hauptplatine.

Die wichtigsten Kriterien beim Serverkauf

Wenn es um Serverprozessoren geht, gehören die CPU-Hersteller AMD und Intel zur ersten Wahl. Doch neben den CPUs spielen auch Parameter wie Hauptspeicherkapazität, Management und RAS-Features eine wichtige Rolle. Von unseren Experten wollten wir wissen, was die wichtigsten drei Hauptkriterien eines Kunden beim Kauf eines aktuellen Servers sind und warum.

Rolf Kersten, Oracle: "Oracle erwartet, dass Kunden zunehmend nicht mehr nur Server kaufen, sondern auf Applikationen hin optimierte Systeme. Diese Systeme sind aus einem Cluster von Server, Interconnect und Storage aufgebaut. Sie stellen standardmäßig den Applikationen virtualisierte Ablaufumgebungen zur Verfügung und werden zentral und einheitlich verwaltet. Nur so lassen sich die drei Hauptanforderungen Performance, Sicherheit und Flexibilität erfüllen."

Hans-Jürgen Rehm, IBM: "Anschaffungskosten, Betriebskosten, Energieeffizienz - weil alle diese Faktoren unmittelbar auf das Betriebsbudget und die Betriebsbedingungen im Rechenzentrum durchschlagen. Die klassischen Faktoren Leistung, Verfügbarkeit, Sicherheit, Skalierbarkeit bilden dabei die Grundlage für die Auswahl einer Plattform."
Foto: IBM

Hans-Jürgen Rehm, IBM: "Anschaffungskosten, Betriebskosten, Energieeffizienz - weil alle diese Faktoren unmittelbar auf das Betriebsbudget und die Betriebsbedingungen im Rechenzentrum durchschlagen. Die klassischen Faktoren Leistung, Verfügbarkeit, Sicherheit und Skalierbarkeit bilden dabei die Grundlage für die Auswahl einer Plattform."

Peter Dümig, Dell: "Formfaktor, Leistung und Handling sind hier die entscheidenden Kriterien. Beim Formfaktor geht es in Richtung Racks, die platzsparend und kompakt sind sowie ein leichteres Handling bieten. Der Leistung kommt im Umfeld von Virtualisierung und von Anwendungen, die eine zunehmend höhere Performance erfordern, eine immer größere Bedeutung zu. Im Hinblick auf das Handling sind heute Systemmanagement-Tools für eine zentrale Verwaltung von Servern, Netzwerk- und Storage-Komponenten gefragt, da die meisten Unternehmen immer weniger Zeit und Personal für administrative Aufgaben haben."

Jörg Mecke, PC-Ware: "Investitionsschutz: Der Server sollte auf jeden Fall auf der Hardware-Kompatibilitätsliste der namhaften Hypervisor-Lieferanten stehen. Das sichert eine potenzielle Neunutzung. Vollständige Redundanz und Hot-Plug-Fähigkeit: Alle Teile sollten im laufenden Betrieb tauschbar sein, um Wartungsfester zu reduzieren beziehungsweise zu eliminieren. Energieeffizienz: Green IT wird zwar nicht mehr in den Vordergrund gestellt, aber die Energiekosten könnten die nächsten Jahre weiter steigen, und letztendlich bezahlt man im Rechenzentrum alles mit Faktor drei: Strom, Kühlung und USV."

Michael Homborg, Fujitsu: "Da ist zunächst die Qualität, weil immer mehr virtuelle Maschinen auf den wenigen verbleibenden Systemen laufen und diese Systeme nicht ausfallen dürfen. An nächster Stelle die Skalierbarkeit, weil sich so die Betriebssystemlizenzen besser bezahlt machen und auch die Leistungsfähigkeit moderner Technologie überhaupt zutage treten kann.

Und nicht zuletzt guter Service, weil man sich sicher sein muss, dass schnell jemand hilft, wenn nichts mehr geht. Und derjenige sollte dann natürlich auch Deutsch sprechen können."

Markus Herber, HP: "Viele Unternehmen gehen weiterhin klassisch vor und betrachten zunächst die drei Kriterien Leistungsfähigkeit, Kompatibilität und Anschaffungskosten. Doch das ist viel zu kurz gedacht: Die Anschaffungskosten stellen nur einen Bruchteil der Gesamtkosten dar. Viel wichtiger als die reine Kostenbetrachtung ist die Frage, ob ein neuer Server in die IT-Strategie des Unternehmens passt. Das fängt beispielsweise beim Formfaktor an, umfasst aber auch die Service-Level-Agreements, die ein Unternehmen erfüllen muss. Erst wenn die Anforderungen eines Unternehmens unvoreingenommen definiert und priorisiert wurden, kann die jeweils richtige IT-Gesamtlösung einschließlich Server ausgewählt werden. Dabei kann herauskommen, dass ein Unternehmen gar keine eigenen Server vorhalten muss, sondern die IT-Ressourcen effizienter und besser über Cloud-Dienste beziehen sollte."

Ausblick auf den Servermarkt 2011

Auch 2011 wird es im Serverbereich hoch hergehen. Welche allgemeinen Trends - Cloud und Virtualisierung eingeschlossen - sind für den Servermarkt in 2011 zu erwarten, darüber geben unsere Serverexperten Auskunft.

Rolf Kersten, Oracle: "Zunehmend werden auf Applikationen hin optimierte Systeme im Trend liegen. Diese Systeme sind aus einem Cluster von Server, Interconnect und Storage aufgebaut. Sie stellen standardmäßig den Applikationen virtualisierte Ablaufumgebungen zur Verfügung und werden zentral und einheitlich verwaltet."
Foto: Oracle

Rolf Kersten, Oracle: "Zunehmend werden auf Applikationen hin optimierte Systeme im Trend liegen. Diese Systeme sind aus einem Cluster von Server, Interconnect und Storage aufgebaut. Sie stellen standardmäßig den Applikationen virtualisierte Ablaufumgebungen zur Verfügung und werden zentral und einheitlich verwaltet. So können sie als Basis für "Private Cloud"-Betriebsmodelle dienen."

Hans-Jürgen Rehm, IBM: "Weitere Trends für das Jahr 2011 sind Standardisierung, verstärkte Konsolidierung und Virtualisierung, um auch eigenbetriebene IT Cloud-fähig zu machen. Bleibende Faktoren sind auch die Themen Sicherheit, Wirtschaftlichkeit und Verfügbarkeit."

Peter Dümig, Dell: "Wir gehen davon aus, dass es 2011 noch keine gravierenden Veränderungen geben wird. Cloud wird erst langsam Fahrt aufnehmen und somit noch nicht wesentlich den Markt verändern. Der Trend zur Virtualisierung geht natürlich weiter, aber auch hier gibt es keine dramatischen Änderungen. Spannend wird es eher ab dem Jahr 2012, wenn Cloud Services richtig starten."

Jörg Mecke, PC-Ware: "Als wichtigen Trend sehe ich das Thema Management der Server. Viele Hersteller haben noch ihre eigene, proprietäre Managementlösung. Im Sinne der Senkung von Komplexität - gerade im Mittelstand - wäre die Verwendung von Snap-ins in übliche Lösungen wie den Microsoft System Center Operations Manager sehr hilfreich."

Michael Homborg, Fujitsu: "Über die genannten Themen hinaus sind das ganz klar FibreChannel over Ethernet (FCoE), Hosted Virtual Desktops und Blade-Server. Mit FCoE können wir auf 10 Gbit Ethernet als dem universellen Transportmittel für alle Daten im Rechenzentrum wechseln, und es verringert sich dadurch die Anzahl der Netzwerk-Ports und -Kabel um den Faktor zwei bis fünf. Das führt zu einer grundlegenden Innovation der Verkabelungsinfrastruktur. Dabei sind die Preis-Leistungs-Vorteile von neuen kupferbasierten Twinax-, kombiniert mit neuen OM3/OM4-Glasfaser-Verkabelungen sehr attraktiv für die Infrastruktur-Verantwortlichen."

Markus Herber, HP: "Mit den vielfältigen Cloud-Angeboten rücken auch die Themen Sicherheit und Compliance verstärkt ins Bewusstsein: In vielen kleinen und mittleren Unternehmen gibt es hierfür noch keine einheitlichen und umfassenden Konzepte, wie dies - auch auf Serverebene - umsetzbar ist. Weiterhin werden die Standardisierung der IT-Landschaft und die vereinfachte, zentralisierte IT-Administration im Jahr 2011 ein Trend bleiben."
Foto: HP

Markus Herber, HP: "Mit den vielfältigen Cloud-Angeboten rücken auch die Themen Sicherheit und Compliance verstärkt ins Bewusstsein: In vielen kleinen und mittleren Unternehmen gibt es hierfür noch keine einheitlichen und umfassenden Konzepte, wie dies - auch auf Serverebene - umsetzbar ist. Weiterhin werden die Standardisierung der IT-Landschaft und die vereinfachte, zentralisierte IT-Administration im Jahr 2011 ein Trend bleiben, um Kosten weiter senken und die Effizienz steigern zu können." (hal)

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel.