Ethernet-Architektur für das Data Center

19.04.2012
Viel Speicher, schnelle Leitungen, leistungsfähige Server: Die Möglichkeiten zur Performance-Steigerung in Rechenzentren sind oft ausgereizt. Wird eine neue Komponentengeneration den geänderten Ansprüchen gerecht?

Durch Cloud Computing und Virtualisierung stehen im Ethernet auf allen Ebenen große Veränderungen an. Das zeigt sich nicht zuletzt daran, dass selbst die klassischen Netzwerkebenen Access, Distribution und Core auf dem Prüfstand stehen. In Fachkreisen gelten sie nicht mehr als zentrale Architekturkomponenten.

Die Grenzen verschmelzen immer mehr, insbesondere zwischen Distribution und Core. Gerade bei kleineren und mittleren Unternehmen ist eine solche Trennung der Bereiche ohnehin nicht mehr erforderlich, so die Meinung vieler Experten. Allerdings ist eine komplette Abkehr von der klassischen Aufteilung noch nicht in Sicht.

Mehr Intelligenz im Netz

Unverkennbar aber ist ein klarer Trend im Netzwerkbereich in Richtung mehr Intelligenz für Router und Switches. Tiefgreifende Änderungen werden von Brancheninsidern auch im Bereich Storage-Anbindung erwartet. Gerade der Trend zu einer komplett IP-basierten Rechenzentrumsinfrastruktur macht es erforderlich, hier mit ganz neuer Technik zu operieren. Damit werden Komponenten wie Router und Switches zunehmend zum kritischen Faktor, der sich entscheidend auf die Gesamt-Performance auswirkt.

Technologien wie Data Center Bridging (DCB) sollen in Zukunft ein Ethernet ohne Paketverluste bieten. Fiber Channel over Ethernet wird besonders für die Migration bestehender Installationen eine gewichtige Rolle bei der Anbindung von Storage Area Networks (SANs) über die Pakettechnik spielen.

Andere Unternehmen setzen wiederum auf das iSCSI-Verfahren, das die Nutzung des SCSI-Protokolls über TCP ermöglicht. Eine geringe Verzögerung und eine verlustfreie Übertragung sind dabei die Hauptkriterien, denen die entscheidende Bedeutung zukommt. Um diese Ziele zu erreichen, bedarf es intelligenter Switches, die über Flow-Control-Funktionen den Datenstrom glätten und dafür sorgen, dass Paketverluste vermieden werden.

Neue Netzpfade

Ein weiteres Gebiet, auf dem sich ein Paradigmenwechsel abzeichnet, bilden Technologien zur Vermeidung redundanter Netzwerkpfade. Auch hier wird derzeit gleich mit einer Reihe vielversprechender Ansätze um die Dominanz im Data Center gekämpft. Transparently Interconnecting Lots of Links (Trill) und Shortest Path Bridging (SPB) sind zwar per se vielversprechende Verfahren. Noch allerdings sind einsatzbereite Lösungen in weiter Ferne.

Mit Ethernet Protected Switching Ring (EPSR) stehen für kleine und mittelständische Unternehmen interessante Alternativen bereit, die schon heute in Produkte implementiert sind. Zusätzlich bieten Funktionen wie Virtual Chassis Stacking (VC Stacking), kombiniert mit Link-Aggregation, eine einfache Möglichkeit, redundante Wege aufzubauen. Dabei sind alle Verbindungen aktiv, und keine Ressource im Netz bleibt ungenutzt. Solche Lösungen bieten eine einfache Administration bei niedrigen Betriebskosten. Darüber hinaus müssen Unternehmen nicht erst auf die Verabschiedung eines endgültigen Trill- oder SPB-Protokolls warten.

Fazit

Die Ethernet-Welt ist im Wandel. Neue Technologien schaffen die für viele IT-Entwicklungen nötige Flexibilität, sorgen jedoch durch noch nicht verabschiedete Standards und unklare Pläne für Verwirrung. Unternehmen sind deshalb gut beraten, auf Netzwerklösungen zu setzen, die eine weitgehende Flexibilität ermöglichen. Mit einer Architektur wie EPSR und VC Stacking sind gerade kleine und mittelständische Unternehmen auf der sicheren Seite. (hi)

Dietmar Spehr ist freier Journalist in München.