Die Risiken der Server-Virtualisierung

Vorsicht Virtualisierung!

07.04.2014 | von Andrej Radonic
Server-Virtualisierung kann Unternehmen viele Vorteile bringen. Doch es gibt Kosten- und Betriebsrisiken, die IT-Verantwortliche kennen sollten.
Foto: Fotolia.com, pixeltrap

Server-Virtualisierung gilt Vielen als Universalwaffe gegen ausufernde IT-Kosten und komplexe Serverstrukturen. Die Schattenseiten der Technik und ihres Einsatzes werden jedoch oftmals übergangen. Denn virtualisierte Infrastrukturen bringen ihre eigenen Schwierigkeiten mit sich - von Security-Problemen über hohe Anforderungen an Ausfallsicherheit und Desaster Recovery bis hin zu diffizilen Lizenzierungsthemen. Die Nutzenpotenziale wie Kostenersparnis und flexibilisierten IT-Einsatz kann nur erreichen, wer die Risiken kennt und die typischen Fallen vermeidet.

Falle 1: Alter Wein in neuen Schläuchen

Am Anfang steht die Erkenntnis, dass viele der Gesetzmäßigkeiten für physische Rechner und Server, welche jeweils für eine einzelne Applikation zuständig waren, in virtualisierten Umgebungen nicht mehr zutreffen. Viele der Tools, Organisationsvorgaben und Denkweisen der vorvirtualisierten Zeit sind mit modernen Umgebungen nicht mehr kompatibel. Die Technik allein - also der Hypervisor -kann keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen. Auf eine kurze Formel gebracht: virtuell ist nicht physisch.

Ein Hypervisor macht noch keine moderne IT-Umgebung

Während die Abkoppelung der Server von der Hardware erhebliche Vereinfachungen und mehr Flexibilität mit sich bringt, steigen die Anforderungen an intelligentes Management und Automatisierung der neuen Umgebung:

VM-Schwemme: Die Leichtigkeit, mit der Server in virtuelle Maschinen (VMs) verlagert werden, führt am Ende oft zu mehr Aufwand bei der Administration, weil plötzlich mehr (virtuelle) Server vorhanden sind als vorher und somit die schiere Masse der Systeme verwaltet werden muss. Damit verbundene Probleme: fehlender Überblick - zum Teil können virtuelle Maschinen nur am Dateinamen oder einigen wenigen Metainformationen identifiziert werden -, übermäßiger Verbrauch von Speicherplatz, Update- und Pflegebedarf. Organisatorische Maßnahmen und Policies sollten von Anfang an greifen, um dies zu verhindern. Zudem sollten Organisationen geeignete Tools für das Management virtueller Umgebungen evaluieren, um technische Unterstützung in Anspruch zu nehmen.

Neue Tools und Prozesse: Neue Möglichkeiten wie flexible Provisionierung, das Bereithalten von Images oder die Migration von VMs von einem Rechner zum anderen erfordern entsprechende Werkzeuge und neue Policies, mit denen die Kontrolle über das Gesamtsystem gewährleistet werden kann. Ohne Standardisierung von Prozessen und Umgebungen geht nichts.

Ausfallrisiko: Die Abhängigkeit von einigen wenigen Servern macht verletzlich. Virtualisierte Umgebungen fassen viele Server auf wenig Hardware zusammen. Dies impliziert, dass viele Server ausfallen, wenn ein Rechner ausfällt. Deshalb sind hohe Anforderungen an die Ausstattung und die Mechanismen für Hochverfügbarkeit herzustellen. Als Grundlage benötigen IT-Organisationen dafür Shared Storage in Form eines SANs (Storage Area Network), meist auf Basis von Fibre Channel oder iSCSI-Techniken. Das Speichernetz muss ebenfalls hochverfügbar ausgelegt sein.