IT-Landschaften

Virtualisierung braucht viel Verwaltung

14.01.2008
Von Andreas Knaus
Die Vorteile virtualisierter IT-Landschaften werden mit höheren Anforderungen an ihre Administration erkauft. Standards und moderne Management-Methoden lösen das Problem.

Die Bandbreite der zur Virtualisierung eingesetzten Lösungen und Techniken ist sehr groß. Von der Anwendungs- über die Server- bis hin zur Speichervirtualisierung sind viele Spielarten in unterschiedlichen Ausprägungen und Kombinationen im Einsatz. Allen gemeinsam ist, dass eine Abstraktionsschicht eingeführt wird, die Infrastrukturkomponenten und Ressourcen wie Applikation, physikalischer Server und Storage von ihrer Nutzung entkoppelt.

Neue Abstraktionsschicht

Diese zusätzliche Abstraktionsschicht führt natürlich auch zu mehr Komplexität beim Management der Infrastruktur. So ist etwa die eindeutige Zuordnung von IT-Services und Applikationen zu bestimmten Systemen nicht mehr ohne weiteres möglich. Der in vielen IT-Betrieben ohnehin kaum vorhandene Überblick über die IT-Architektur wird weiter erschwert. Darüber hinaus können sich kleine Veränderungen an der Konfiguration von Basiselementen durch die Vervielfältigung über die virtuellen Umgebungen verheerend auswirken. So wird trotz aller Vorteile die Virtualisierung schnell zum Damokles-Schwert. Das Management virtueller Umgebungen muss die drohenden Gefahren abwenden, denn es kommt vor allem auf Compliance, Verfügbarkeit und Agilität an.

Auswirkungen auf Compliance

Zur Sicherung der Compliance sind interne und externe Normen und Verträge einzuhalten. So dürfen nicht mehr Lizenzen genutzt werden als gekauft wurden. Bei einer Applikationsvirtualisierung sind entsprechende Mechanismen zu installieren. Auch die Möglichkeit, über Virtualisierung die Performance bei Bedarf über zusätzlich nutzbare Kapazitäten wie zum Beispiel Prozessoren zu erhöhen, hat je nach Lizenzmodell Auswirkungen auf die Compliance. Ähnlich kann das unbedachte Verschieben eines virtuellen Systems weg von der abgesicherten Umgebung zu erheblichen Sicherheitslücken führen.

Die erhöhte Verfügbarkeit wird üblicherweise als der große Vorteil genannt, den die Virtualisierung bringt. Ausgefallene Betriebssysteme lassen sich durch ihr vorher erstelltes Spiegelbild schnell wiederherstellen, so dass Ausfallzeiten verringert werden können. Allerdings besteht auch die Gefahr, dass gemeinsam benutzte Ressourcen zum Single-Point-of-Failure werden und nicht nur ein einzelnes System betreffen, sondern zum Ausfall vieler Services führen.

Wie schon die Verfügbarkeit ist auch die durch Virtualisierung gewonnene Agilität Janus-köpfig. Die flexible Nutzung der Komponenten und Systeme führt schnell zu einer unübersichtlichen Konstellation, so dass Auswirkungen und Ursachen schwer oder gar nicht zu analysieren sind. So werden Veränderungen an der Systemlandschaft zur Glückssache und Fehlerbeseitigungen mühsam und langwierig.

Um diese Herausforderungen zu meistern und trotzdem von den Vorteilen einer Virtualisierung profitieren zu können, sind klassische IT-Service-Management-Tugenden nach wie vor anwendbar. Neben einem durchdachten Architekturmodell, das die Komponenten der Virtualisierung kennt, beschreibt und nutzt, werden Prozesse benötigt, die die Veränderungen an der Infrastruktur überwachen und dokumentieren. So erhält man trotz der hohen Komplexität und Abstraktion der Infrastruktur eine stets transparente und damit handhabbare Umgebung.

Erweitertes Architekturmodell

Für dieses Architekturmodell werden in einem ersten Schritt die Anforderungen und Vorgaben analysiert. Dazu sind die funktionalen und nichtfunktionalen Anforderungen zu berücksichtigen, die sich aus dem Service- und Leistungsgegenstand, dem Compliance- und Security-Gedanken und den Vorgaben zu Agilität und Verfügbarkeit ergeben. Zusammen mit der strategisch-taktischen Plattformwahl ergeben sich daraus die Komponenten, die im Sinn der Virtualisierung eingesetzt werden. Mit Hilfe dieser Komponenten wird das bestehende Architekturmodell erweitert und so um einen Freiheitsgrad bereichert. In diesem Schritt müssen die Vorgaben des System-Managements dahingehend ergänzt werden, dass damit auch die neuen virtuellen Komponenten gepflegt werden können.

Monitoring

Um optimalen Support zu gewährleisten, ist in der Regel das Monitoring-Konzept zu überarbeiten, da in den neuen aggregierten Umgebungen andere Anforderungen an die physikalischen Systemkomponenten gestellt werden, als es bei der direkten Nutzung dieser Elemente der Fall war. Mindestens muss hier die Virtualisierungsschicht selbst überwacht werden. Diese Forderung setzt sich direkt im Event-Management fort, das nun neue Korrelations-, Filter- und Weiterleitungsregeln benötigt. Nur so kann man später gewährleisten, dass sich Störungen frühzeitig erkennen und zuordnen lassen.

Für das Incident-Management ist es wichtig, bei Störungen neben der wahrscheinlichen Ursache auch die Auswirkungen auf die gelieferten Services feststellen zu können. Diese Informationen erlauben es, in der sinnvollsten Reihenfolge zu arbeiten. Aufgrund der über die Virtualisierung eingeführten Abstraktionsschicht wird eine Aussage über Auslöser und Auswirkung einer Störung beziehungsweise die Dringlichkeit der Abhilfe erschwert. Fällt beispielsweise ein Server oder eine Virtualisierungssoftware aus, so sind alle dort betriebenen virtuellen Ressourcen und die damit verbundenen Dienste betroffen. Zumindest für das Impact-Management wird also eine eindeutige Zuordnung unbedingt benötigt. Dementsprechend muss das Monitoring- und Event-Management-Konzept auch über die zur Abstraktion eingeführte Virtualisierungsschicht hinweg ausgebaut werden. Die hier verwendeten Monitore und Event-Konsolen unterscheiden sich technisch nicht von den in herkömmlichen Umgebungen eingesetzten Verfahren.

Configuration-Management

Das um Virtualisierungskomponenten erweiterte Architekturmodell muss dann natürlich auch im Konfigurations-Management, sprich der CMDB (Configuration Management Database), berücksichtigt werden. Das Konfigurations-Management hat die Aufgabe, ein logisches Abbild der eingesetzten Infrastruktur zur Verfügung zu stellen, und muss dementsprechend auch die Abstraktionsschicht der Virtualisierung berücksichtigen. Für einen effizienten IT-Betrieb werden diese Informationen gebraucht. Aufgrund der hohen Flexibilität und auch der damit verbundenen Dynamik virtueller Systeme steht das Konfigurations-Management hier vor großen Aufgaben. Das Unterfangen wird durch die gewünschte Transparenz der Virtualisierungsschicht und die damit verbundene Unsichtbarkeit ihrer Elemente für Discovery-Lösungen noch erschwert.

Allerdings lässt sich diese Herausforderung durch eine konsequente Anwendung der im Architekturmodell definierten Komponenten inklusive parametrisierter Vorgaben zur Integration in das Systems-Management meistern. Mit so genannten Base Lines werden einfach handhabbare und durch wenige Konfigurationsparameter anpassbare Komponenten verwaltet. Die so standardisierten Virtualisierungselemente erleichtern den Change- und Release-Prozess sehr, die notwendige Kontrolle der Infrastruktur wird mit geringem Aufwand erreicht und geht nicht zu Lasten der Agilität.

Change-Management

Die definierten Standardkomponenten der Virtualisierungsumgebung unterliegen jedoch ihrerseits einem eigenen Change-Verfahren. Alle Änderungen an diesen Basiselementen müssen im Bezug auf das Architekturmodell und dessen Umsetzung geprüft und freigegeben werden. Neben dem Change-Management-Prozess, der über die physikalische Infrastruktur wacht, ist auch ein Change-Prozess notwendig, der die Virtualisierungs-Templates weiterentwickelt. Anforderungen können also zur Anwendung bestehender Vorlagen, aber auch zur Entwicklung neuer Versionen oder Varianten bewährter Versionen führen. So wird gewährleistet, dass die Artenvielfalt der Virtualisierungskomponenten nicht überhandnimmt. Zwar lassen sich auch bei vielen unterschiedlichen virtuellen Systemen Infrastrukturressourcen einsparen, doch der Wartungs- und Pflegeaufwand ist dann aufgrund der Heterogenität der Systeme trotzdem sehr hoch. Auch hier führt der Weg über die Standardisierung zu einer erhöhten Effizienz.

(ue)

Fazit

Virtuelle Infrastrukturen stellen hohe Ansprüche an die Architektur und das Service-Management. Hier muss das Rad jedoch nicht neu erfunden werden. Bekannte Tugenden aus dem Architektur- und Service-Management helfen auch bei der Verwaltung virtueller Umgebungen weiter. Allerdings wird durch die zusätzliche Schicht zur Virtualisierung und die dynamische Anwendung der einzelnen Komponenten die Infrastruktur noch komplexer. Um hier den Verwaltungsaufwand in Grenzen zu halten und somit nicht die Vorteile, die durch die Virtualisierung entstehen, zunichtezumachen, ist konsequent auf Standardisierung zu setzen.

Schritte zur verwaltbaren virtualisierten Infrastruktur

1. Architekturmodell um Virtualisierung erweitern - Definition von:

Service- und Leistungsanforderung, Compliance- und Security-Vorgaben, Agilitätszielen undVerfügbarkeitsbedarf.

2. Basiskomponenten zur Virtualisierung beschreiben (Base Lines):

Virtualisierungsbausteine identifizieren,Versions- und Release-Management für Virtualisierungskomponenten einrichten, Virtualisierungsbausteine im Konfigurations-Management aufnehmen,Anpassung an das Monitoring, Event- und Impact-Management vornehmen.

3. Funktionen des System-Managements auf Virtualisierungskomponenten anwenden.

4. Abstimmung mit und Anpassung von bestehenden Service- und Supportprozessen:

Internes Kontrollsystem, Security-Management, Lizenz-Management, Identity-Management, Change-, Configuration- und Release-Management.

5. Konfigurations-Management dynamisieren:

Registration dynamischer virtueller Elemente, dynamische Anpassung im Event- und Impact-Management.

6. Change- und Release-Management für Virtualisierungskomponenten einrichten:

Bewertungskriterien für Veränderungen,Implementierungsvorgaben,Test- und Freigabeprozesse.

7. Review und Audit.