Kosten, Management, Know-how

Die Grenzen der Virtualisierung

16.04.2011
Von 


Joachim Hackmann ist Principal Consultant bei PAC – a teknowlogy Group company in München. Vorher war er viele Jahre lang als leitender Redakteur und Chefreporter bei der COMPUTERWOCHE tätig.
Weniger Kosten, leichtere Verwaltung - die Server-Virtualsierung weckt viele Hoffnungen, doch nicht alle sind berechtigt.

Seit rund fünf Jahren arbeiten Unternehmen weltweit daran, ihre physikalischen Server in eine virtuelle Umgebung zu migrieren. Die anfängliche Skepsis ist einer breiten Akzeptanz gewichen, nicht nur auf Seiten der IT-Experten, auch bei den IT-Nutzern. Mehr als die Hälfte aller Firmen betreibt nach Zählung der Marktforscher von IDC heute Applikationen auf virtuellen Maschinen. Bis 2014 sollen 70 Prozent aller Server-Workloads in virtuellen Umgebungen abgearbeitet werden.

Die Grenzen der Virtualisierung
Die Grenzen der Virtualisierung
Foto: Imageteam _Fotolia

Seit den Anfangstagen dieser Technik haben sich viele ungelöste Fragen geklärt, so dass auch die Nutzer aus den Fachabteilungen nicht mehr auf dedizierte physikalische Ressourcen für jede ihrer Fachanwendungen bestehen. Doch insbesondere in Unternehmen mit großen Virtualisierungs-Landschaften haben überzogene Erwartungen und falsche Annahmen Einzug gehalten, die das Verhältnis zwischen IT- und anderen Geschäftsbereichen trüben können.

Heterogene Installationen

Vielerorts gibt es die Sorgen, dass mit der Virtualisierung die Homogenität in der IT untergraben wird. Eine aktuelle IDC-Erhebung unter CIOs und IT-Managern stützt diese Annahme nicht. Sie zeigt deutlich, dass Firmen, die weite Teile ihrer Infrastruktur virtualisiert haben, in der Regel, nur selten mehr als einen Hypervisor-Lieferanten wählen. "Rund 70 Prozent der Befragten wollen an einer einzigen Hypervisor-Lösung festhalten", betont Gary Chen, Research Manager bei IDC. "Nur 15 Prozent können sich vorstellen, in den kommenden zwei Jahren mehr als einen Hypervisor-Typ zu installieren."

Allerdings sind die IDC-Daten nicht unumstritten. Dan Olds, Principal der Gabriel Consulting Group, hat andere Erfahrungen gemacht. Er wirft IDC vor, die falschen Leute befragt zu haben, denn CIOs und IT-Leiter entscheiden zwar über Anschaffungen, wüssten aber häufig nicht im Detail, was in den Rechenzentren tatsächlich installiert werde. "Über alle Firmengrößen hinweg haben 71 Prozent der Befragten mehr als einen Virtualisierungs-Typen im Einsatz", zitiert Olds aus seiner Umfrage unter Data-Center-Leitern. "Citrix und Hyper-V sind günstig und einfach anzuschaffen, in den Rechenzentren wird Vieles ausprobiert. Virtualisierung ist ebenso wie Linux eine Technik der IT-Basis. Solchen Verfahren werden oft ohne Wissen der CIOs in den Data Center genutzt."

Die Downtime-Falle – Wie Sie Ausfallzeiten minimieren und die Wartung besser planen

IT-Verantwortliche wissen: Wenn ihr System ausfällt, wird es teuer – mit Folgekosten bis zu siebenstelliger Höhe! Nur: Upgrades oder Erweiterungspakete, System-Umzüge oder –konsolidierung, Unicode-Konvertierungen, Datenbank-Migration und Mandantentransfers u.ä. umfangreichere Wartungsarbeiten erfordern immer wieder die Downtime des IT-Systems:

• Wie lässt sich gerade die technische Downtime minimieren?
• Lassen sich Upgrades besser inkrementell oder im „Big-Bang“ einspielen?
• Was bietet der Minimized Downtime Service von SAP für mein Unternehmen?
• Welche Planungsschritte müssen eingehalten werden, um das Zeitfenster der Downtime so klein wie möglich zu halten

Sehen Sie hierzu den COMPUTERWOCHE Webcast an.