IRF, TRILL und SPB

Netz-Infrastruktur im RZ – traditioneller Ansatz und moderne Alternativen

26.10.2015
Von 
 Chief Technologist bei HP Networking
Klassische dreistufige Netzwerktopologien sind starr, ineffizient und für Anforderungen wie Cloud Computing, Virtualisierung oder SOA (Service-orientierte Architektur) schlecht geeignet. Doch es gibt Alternativen.
Die Anforderungen an das Netzwerk im Rechenzentrum haben sich grundlegend gewandelt.
Die Anforderungen an das Netzwerk im Rechenzentrum haben sich grundlegend gewandelt.
Foto: IBM

Die Art und Weise, wie Unternehmen IT-Ressourcen bereitstellen und wie Anwender diese nutzen, hat sich grundlegend gewandelt. Während früher starre, monolithische Rechensilos und hierarchische Server-Client-Beziehungen typisch waren, haben Trends aus dem Endkundenbereich wie Self-Service und das App-Prinzip längst auch in Unternehmensanwendungen Einzug gehalten.

Die zunehmende Virtualisierung der Server, Service-orientierte Architekturen (SOA) und auf Microservices oder Webservices basierende verteilte Softwarekonzepte haben zu einer anderen Verteilung der Kommunikationsströme geführt. Während früher der Datenaustausch von "Nord nach Süd" erfolgte, also von den zentralen Servern im Rechenzentrum zu Endgeräten im LAN, steht heute die Kommunikation zwischen - oft virtuellen - Servern in "Ost-West"-Richtung im Vordergrund.

Klassische dreistufige Netzwerktopologien sind für diese Verlagerung nur schlecht geeignet, da jedes Paket vom Quell-Server über die Edge-Ebene und die Aggregationsschicht in den Core und vor dort wieder über Aggregations- und Edge-Layer zurück zum Zielserver geleitet werden muss. Ein derart umständliches und ineffizientes Routing verlängert nicht nur die Reaktionszeiten, sondern sorgt durch seine Komplexität auch für einen hohen Wartungsaufwand und eine große Fehleranfälligkeit. Es macht Netzwerke unbeweglich und langsam und verhindert eine schnelle Bereitstellung von Services.

Der klassische Netzwerkaufbau im Rechenzentrum

Trotz dieser Nachteile sind auch heute noch viele Netzwerke im Rechenzentrum dreistufig aufgebaut. Grund dafür ist häufig, dass sich diese Topologie nicht so einfach ersetzen lässt, es gibt Sachzwänge wie Brandabschnitte oder die vorhandene Verkabelung.

Bei diesem Implementierungsmodell geht der erste Hop von einem Rackmount- oder Blade-Server meist zu redundanten Switches im Rack beziehungsweise Blade-Switches im Blade Enclosure. Diese Anbindung wird als "Top of Rack" (ToR) bezeichnet. Die Verkabelung erfolgt in der Regel über ebenfalls redundant ausgelegte 1- oder 10-Gigabit-Ethernet-Verbindungen.

Die erzielbare Portdichte ist abhängig vom jeweiligen Transceiver-Modul. So kann ein ToR-Switch auf einer Höheneinheit 48 Ports mit SFP+-Modulen (Small Form-Factor Pluggable plus) oder 32 Ports mit QSFP-Modulen (Quad Small Form Factor Pluggable) haben. Der blockierungsfreie Datendurchsatz von ToR-Switches kann ein Terabit pro Sekunde (Tbit/s) und höher sein.

Im nächsten Schritt fließt der Datenverkehr in eine Aggregations-Ebene. Häufig stehen die Aggregations-Switches am Ende einer Rack-Reihe, weshalb diese Stufe auch als "End of Row" (EoR) bezeichnet wird. EoR-Switches müsse natürlich deutlich performanter sein als ToR-Switches.

Von der Aggregationsschicht gelangt der Netzwerkverkehr in traditionellen Rechenzentren zur Core-Ebene. Core-Switches sind die leistungsfähigsten Netzwerkgeräte im Rechenzentrum mit der höchsten Portdichte, der geringsten Latenz und dem größten Durchsatz.