Praxisbericht

Wie Dells Equallogic-Speicher und XenServer zusammenarbeiten

10.06.2009
Von 
Andrej Radonic ist Experte für Virtualisierung, Cloud-Technologien und Open Source Anwendungen. Der Fachbuchautor ist Vorstand der interSales AG und entwickelt für mittelständische Unternehmen anspruchsvolle E-Commerce Lösungen.

Leistungsfähige Netzanbindung

Die Netzwerkverbindung zwischen den XenServern und ihrem SAN-Storage ist die zentrale Schlagader, ohne die nichts geht. Konsequenterweise sollte sie redundant ausgelegt werden. Beide Systemwelten helfen dabei: XenServer als auch Dell-SAN beherrschen Multipathing beziehungsweise Multipath IO.

Auf der Basis eines Active/Active NIC Bondings kann XenServer im Falle des Ausfalles eines Netzwerk-Links einen automatischen Failover durchführen, so dass immer mindestens eine funktionierende Netzwerkanbindung vorhanden ist.

Idealerweise wird ein separates Subnetz je Netzwerkpfad kreiert, so dass XenServer alle Pfade nutzen kann. Der Hypervisor bekommt nämlich vom Dell-SAN-System immer die Cluster-IP statt die IPs der verfügbaren Targets mitgeteilt. Der EqualLogic-Server verteilt die NICs selbst. Auch wenn man ein iSCSI-Discovery ausführt, gibt er grundsätzlich für jede LUN als Target nur die Gruppen-IP zurück. Der XenServer erfragt jedoch je IP beziehungsweise Target die Pfade, folglich sieht der XenServer immer nur einen Pfad.

Das Dell-System beherrscht neben dem Failover zusätzlich auch ein Load-Balancing, so dass bei hohem Aufkommen der Traffic automatisch auf die Netzwerkpfade und NICs aufgeteilt wird.

Performance

Gerade bei I/O-intensiven Anwendungen wie Datenbanken, Mail-Servern oder stark genutzten interaktiven Applikationen kommt es auf den Datendurchsatz an. Da dabei alle Daten über das Netz gehen, muss diesem Faktor entsprechende Aufmerksamkeit geschenkt werden.

Im Grunde bringt das Duo aus XenServer und Dell Equallogic hierfür gute Voraussetzungen mit: XenServer beherrscht hierfür Bonding (auch "Trunking"), das SAN kann ebenfalls den Datenstrom über die mindestens dreifach ausgelegten Netzwerkadapter bündeln.

In der Praxis liefert das Gespann eine gute Performance beim Schreiben und Lesen, die für die meisten Anwendungen und VMs genügen wird. Bei starker Beanspruchung ist jedoch eine weitere Optimierung angeraten, wobei dann überprüft werden sollte, ob die Kombination dafür ausreicht.

In unserem Test wurde auf der XenServer-Seite ein Bonding der zwei im Server vorhandenen NICs im Storage-Subnetz eingerichtet. Bei einem Schreibtest auf die "Xen Virtual Disk" zweier VMs, die auf einem Rechner liefen, waren rund 60 bis 70 MB/s je VM erreichbar.

Bei echtem Bonding sollte jedoch über die zwei vorhandenen Netzwerk-Links eine höhere Performance erreichbar sein. Citrix erklärt die geringeren Werte damit, dass XenServer Source Load Balancing (Bonding Mode 7) nutzt. Dabei wird der Traffic verschiedener VMs auf verschiedene NICs verteilt (daher auch der Name), im Idealfall steht jeder VM eine eigene NIC zur Verfügung. Dies funktioniert für den Storage-Traffic nicht, da der XenServer ("Domain 0") selbst eine VM darstellt.

Wenn in einer VM maximale Performance benötigt wird, empfiehlt sich, entweder den iSCSI-Initiator in der VM statt im Host/XenServer einrichten oder unter Umgehung der Hersteller-Vorgaben den Bond-Modus 0 oder 3 im Host/XenServer ("Domain 0") einzustellen.