Server-Virtualisierung

Ressourcen dynamisch und sicher zuweisen

26.08.2008 von Hadi Stiel
Server, ob als Verarbeitungsinstanzen oder als Schaltzentrale zu den Speichermedien, stehen im Mittelpunkt des Geschehens. Sie müssen mit ihrer Ressourcenzuordnung mit den zunehmend durchgehenden und onlinefähigen Geschäftsprozessen Schritt halten.

Die Tage separat agierender Server als Instanz für eine bestimmte Applikation sind innerhalb eines hoch dynamischen Umfelds gezählt. Wenn sich die einzelnen Geschäftsprozesse aus mehreren Applikation zusammensetzen, müssen die Grenzen zwischen den Servern fallen. Ihre Verarbeitungskapazitäten müssen aus einem Server-Pool heraus bereitgestellt werden, um den Verfügbarkeits- und Performance-Anforderungen weitgehend automatisierter Geschäftsprozessketten folgen zu können.

Neben der Effektivität spricht die Effizienz, also Wirtschaftlichkeit dafür, die Verarbeitungsressourcen, aber auch Input/Output- und Netzwerkverbindungskapazitäten, dynamisch aus einem Server-Pool heraus zuzuweisen. Die Grundvoraussetzung für beides, eine höhere Effektivität wie eine höhere Effizienz der Ressourcenzuweisung: Die bestehenden sowie neu anzuschaffenden Server für Verarbeitungs- und Datenaufgaben müssen virtualisiert werden. Nur auf diese Weise können alle eingesetzten Rechner zu einem logischen Verbund formiert werden, aus dem heraus sämtliche Ressourcen nach Bedarf gezielt und dynamisch zugeordnet werden können.

Feinabstimmung

Doch aller Anfang ist schwer. Das beginnt mit der Auswahl der geeigneten Virtualisierungsmethoden für die Server, um die Konstellation aus Hypervisor und virtuellen Maschinen (VM) als jeweils eigenständige Teilsysteme abzubilden, die wiederum auf physischen Systemen laufen. Nicht jede Virtualisierungs-Software ist für jedes Betriebssystem respektive jede Betriebssystemversion verfügbar. Außerdem ist nicht jedes der bestehenden Server-Betriebssysteme auf den Einsatz der einen oder anderen Server-Virtualisierungs-Software wie VMware, Virtual Box, Microsoft Hyper-V oder XEN vorbereitet. Dort, wo die Virtualisierungsfähigkeit fehlt, muss generell in einen neuen Server investiert werden. Dort, wo die Virtualisierung innerhalb einer bestimmten Betriebssystem-Umgebung Probleme aufwirft, kann ein Plattformwechsel fällig werden.

Außerdem bedarf es für die richtige Dimensionierung des virtualisierten Server-Pools einer eingehenden Analyse. In diese Recherche müssen die Antworten auf folgende Fragen einfließen:

Hochverfügbarkeit und Performance

Ein Kapitel für sich ist die Hochverfügbarkeit und ungebremste Performance innerhalb des virtualisierten Server-Pools. Wenn mehrere virtuelle Systeme, involviert an mehreren Geschäftsvorfällen, auf einem physischen System installiert sind, steht und fällt die gesamte Ablaufkette mit der Verfügbarkeit der physischen Maschine, also dem klassischen Server. Sie sollten demzufolge durch physische Redundanz abgesichert werden.

Die Kombination aus Fail-over/Fall-back und Pattenspiegelung ist dafür nur ein Beispiel. Redundante I/O-Einheiten und Netzwerkanschlüsse sind andere. Mit der zusätzlichen Zusammenführung von Funktionen und Ressourcen über die Virtualisierungsschicht muss auch die Ablauffähigkeit der logischen Einheiten, der virtuellen Maschinen, sichergestellt werden. Dafür müssen alternative logische Pfade vorgesehen werden, die bei Ausfall nahtlos übernehmen. Nur so wird die logische Verbindungs- und Ausführungsschicht jederzeit verlässlich funktionieren.

Natürlich müssen auch diese Pfade für eine höhere Verbindungssicherheit bei der Kapazitätsplanung innerhalb des zu virtualisierten Server-Verbunds berücksichtigt werden. Ihre Kapazitäten dürfen nicht für eine optimierte Auslastung im virtuellen Verbund verplant werden. So geht eine übertriebene Auslastung zwangsläufig auf Kosten der Verfügbarkeit und Performance der Ressourcenzuweisung.

Angriffssicherheit

Daneben stellt die zusätzliche Virtualisierungsschicht zwischen den Servern die Planer vor die Anforderung, Angriffe auch auf dieser Ebene abzuwehren. Die Virtuellen Maschinen sind ebenso attackierbar wie jedes Betriebssystem. Dazu kommt der darüber angesiedelte Hypervisor als zusätzliche Achillesferse für Angriffe von Innen und Außen.

An jeder Stelle, über der der Hypervisor greift, kann auch der Angreifer virtuelle Systeme attackieren. Umgekehrt kann ein Angreifer, sofern es ihm gelingt, in ein virtualisiertes System einzudringen, darüber die Koordinative Hypervisor attackieren. Das gilt für das Einschleusen von Malware jeder Art gleichermaßen wie für nicht autorisierte Zugriffe. Eine zusätzliche Gefahr stellen Denial-of-Service (DOS)-Attacken dar. Sie werden durch das Prinzip einer gerechten Ressourcenverteilung zwischen den virtuellen Systemen und dem physischen System über die Virtualisierungsschicht gefördert.

Es hilft nichts: Die Projektverantwortlichen sollten zusätzlich alle logischen Angriffspunkte sowie die potenziellen Folgen und Risiken, die darüber für das Geschäft lauern, analysieren. Nur dann können sie auch auf dieser Schicht, einschließlich der Applikationen, ein tragfähiges Sicherheitskonzept herausbilden und etablieren. Für diese Analyse hat sich eine Trennung der funktionalen Seite (Betriebssystemebene) von der inhaltlichen Seite (Applikationsebene) bewährt.

Das einzige, was virtuelle Systeme angriffssicher kapselt, ist Hardware, beispielsweise Intel-VT. Natürlich sollte auch das Hypervisor-System als Host verlässlich gehärtet werden. Werden gerade auf dem Hypervisor nicht benötigte Dienste automatisch abgeschaltet, können zwischenzeitlich über diese Dienste keine Angreifer vordringen. Und: Um nicht zuviel zu riskieren, sollten Sicherheits-Server besser bei der Virtualisierung außen vor bleiben. Auch wenn das auf Kosten einer dynamischen und wirtschaftlichen Zuweisung ihrer Ressourcen geht.

Fazit

Für die Zusatzmaßnahmen, um die Ressourcenzuweisung gleich doppelt abzusichern (hohe Verfügbarkeit und hohe Angriffssicherheit), kann das Unternehmen auf den erheblichen Wirtschaftlichkeitseffekt der Server-Virtualisierung bauen. Hohe Kosteneinsparungen winken in drei Feldern: Stromverbrauch, Administration und Service. Das heißt umgekehrt: Für eine verlässliche Amortisierungsrechnung müssen auch die Aufwendungen für Verfügbarkeit, Performance und IT-Sicherheit einbezogen werden. Die dynamische Zuweisung von Server-Kapazitäten allein aus dem Blickwinkel der Wirtschaftlichkeit zu tätigender Investitionen zu betrachten, hilft den Unternehmen jedoch nicht weiter. Eine Optimierung ihrer Geschäftsprozesse ist ohne eine automatisierte und dynamische Zuweisung von Server- sowie mittels Server von Speicher-Ressourcen nicht möglich.