Skalierbarkeit und einfacher Betrieb für das Ethernet

02.10.2007 von Burkhard Germer
Damit Ethernet der Anwendung im WAN gerecht werden kann, sind Skalierbarkeit, Zuverlässigkeit, Service-Management, standardisierte Dienste und QoS die Voraussetzung.

Seit vielen Jahren ist Ethernet das dominierende Netzprotokoll im LAN (Local Area Network). Durch die Einfachheit dieses Protokolls ist der Betrieb unkompliziert und kostengünstig. Im WAN-Bereich (Wide Area Network) jedoch gibt es eine Vielzahl von Standards wie Frame Relay und ATM. Da diese wesentlich komplizierter sind und weniger Bandbreite bieten, suchen Unternehmen nach Alternativen. Sie möchten ihre Standorte einfach per Ethernet verbinden, um die Komplexität der traditionellen WAN-Technologien zu vermeiden und die Standorte mit hoher Bandbreite kostengünstig anzubinden. Damit können Multimedia-Applikationen und Storage-Dienste besser unterstützt und die Server-Konsolidierung weiter vorangetrieben werden. Marktforscher sagen deshalb für die nächsten Jahre eine starke Verbreitung von Ethernet-Diensten voraus. Laut Infonetics Research sollen die weltweiten Umsätze mit Ethernet-Diensten bis zum Jahre 2009 auf 22,5 Milliarden Dollar pro Jahr steigen.

Angesichts dieser Nachfrage müssen Service-Provider ihre Metro-Netze und regionalen Netze umbauen, um die nächste Servicegeneration wirtschaftlich und profitabel anbieten zu können. Sie haben erkannt, dass sie mit Ethernet Kosten einsparen und den Service verbessern und außerdem eine konvergente Netzinfrastruktur für eine Reihe von Diensten anbieten können. Dazu zählen zum einen Breitband-Triple-Play (breitbandige Service-Aggregation, etwa Rücktransport des Verkehrs von DSLAM-Standorten, als Basis für Multicast- und Broadcast-Video) und zum anderen Wireless Backhaul (Bündelung von Datenverkehr aus Mobilfunknetzen) und Ethernet Connectivity Services.

Starke Nachfrage nach Metro-Ethernet-Systemen

Ein Beleg für die Investitionen der Netzbetreiber in diese Dienste ist die starke Nachfrage nach Metro-Ethernet-Systemen. Sie führte im Jahr 2004 zu einem Jahresumsatz von 2,6 Milliarden Dollar, der laut Schätzungen von Infonetics Research bis 2009 auf 15,1 Milliarden Dollar jährlich steigen soll.

Die Unternehmenskunden erwarten bei Ethernet-Diensten Kostenvorteile, aber trotzdem das gleiche Leistungsniveau wie bei Mietleitungen auf Basis von Frame Relay und ATM. Damit Ethernet auch die von Analysten prognostizierte Durchdringung erreichen kann, muss es sich zum Carrier-Ethernet weiterentwickeln und die gleichen Eigenschaften bieten wie die gegenwärtigen WAN-Technologien:

Diese Kriterien wurden in das Metro Ethernet Forum (MEF) Carrier Ethernet Certification Program eingearbeitet. Das MEF ist ein Branchengremium aus Anbietern und Service-Providern zur Förderung von Carrier Ethernet Services weltweit. Es testet Produkte für EPL (Ethernet Private Line), EVPL (Ethernet Virtual Private Line) und E-LAN-Services auf Einhaltung der technischen Spezifikationen.

Für die Ausrüster stellen sich dabei eine Reihe von Herausforderungen, um die übliche Funktionalität in Carrier Ethernet zu integrieren. In folgenden werden die verschiedenen Technologien verglichen.

Provider Backbone Bridges - eine hierarchische Betrachtung des Ethernet

Eine der ursprünglichen Ansätze von Ethernet ist der Einsatz einer flachen Netzadressierungsstruktur. Jeder User erhält einen gleichberechtigten Zugang zum Netz mit einer minimalen Implementierung von Hubs, Bridges und Switches. Das funktioniert gut im LAN. Um jedoch Dienste über Ethernet anbieten zu können, benötigen Provider eine Möglichkeit, das Netz in private Netze für jeden Kunden zu unterteilen.

Das ist im Prinzip nichts Neues. Um Datenverkehr für verschiedene Unternehmensabteilungen im LAN zu unterstützen und voneinander abzugrenzen, richten Unternehmen virtuelle LANs (VLANs) ein. Jedes VLAN wird durch ein Q-Tag (ein 12-Bit-Feld im Adresskopf des Pakets, definiert durch IEEE 802.1Q) gekennzeichnet. Es legt die logische Unterteilung des Netzes fest. Diese Technik ist ein Beispiel einer Hierarchie, die in eine ansonsten flache Netzstruktur eingeführt wurde, um das Management zu erleichtern und die Leistung zu verbessern.

Eine Carrier-Ethernet-Infrastruktur erfordert die Erweiterung dieser Hierarchie, um Kunden auch über ausgedehnte Netze sichere VLANs zur Verfügung zu stellen. Innerhalb dieser getrennten Serviceinstanzen kann der Kunde weitere VLANs für Abteilungen oder User-Gruppen einrichten. Eine solche dreistufige Hierarchie erlaubt separate Domains für den Service-Provider, die Kunden und individuelle Abteilungen.

Es gibt zwei sich entwickelnde Standards, die diesen hierarchischen Ansatz zu unterstützen. Der erste, IEEE 802.1ad Provider Bridges (auch bekannt als Q-in-Q oder VLAN-Stacking), erweitert das ursprüngliche Konzept der VLANs. IEEE 802.1ad fügt einfach ein neues Q-Tag hinzu, welches es dem Service-Provider gestattet, seine eigenen Tags zu verwalten, um die individuellen Kundennetze zu identifizieren, während das erste (ursprüngliche) Q-Tag genutzt wird, um VLANs innerhalb des Kundennetzes festzulegen. Obwohl IEEE 802.1ad eine dreistufige Hierarchie unterstützt, kann der Service Provider nur 4094 Kunden-VLANs einrichten. Das stößt bei großen Metro-Netzen oder regionalen Netzen schnell an Grenzen.

Dieses Defizit soll der zweite Standard beheben, bekannt als IEEE 802.1ah Provider Backbone Bridges, der dem Kunden-MAC-Header ein Service-Provider-MAC-Header voranstellt. Statt ein zusätzliches Q-Tag einzusetzen, wird ein 24-Bit-Service-Tag im Service-Provider-MAC-Header benutzt, der die Unterstützung von bis zu 16 Millionen Service-Instanzen ermöglicht und so die Skalierbarkeitsprobleme vollständig beseitigt. Der IEEE 802.1ad Standard wurde 2006 veröffentlicht, IEEE 802.1ah steht 2007 zur Veröffentlichung an.

Evolution der Ethernet-Hierarchie

Bei IEEE 802.1ah werden die Domain des Service-Providers von den Domains der Endkunden über das gesamte Netz klar getrennt. In der Service-Provider-Domain ist nur der MAC-Header des Service-Providers relevant, der MAC-Header des Kunden ist nicht sichtbar. Hierdurch wird eine strikte Abgrenzung zwischen Kunden und Service-Provider eingeführt und so eine wirklich hierarchische Betrachtungsweise im Netz ermöglicht. Ergänzend zur Bewältigung des Skalierbarkeitsproblems hat IEEE 802.1ah außerdem die folgenden Vorteile:

Provider Backbone Transport – verbindungsorientiertes Ethernet

Die Entstehung von IEEE 802.1ah und die strikte Hierarchie, die dieser Standard erzwingt, haben dazu beigetragen, Ethernet Carrier-fähig zu machen. Obwohl er - isoliert betrachtet - nicht alle Ethernet-Kriterien für Betreibernetze erfüllt, kann der Service-Provider nun diese Probleme innerhalb seiner eigenen Netzdomäne lösen, weil eine klare Trennung von Kunden- und Provider-Netz eingeführt wurde.

Viele der Probleme, die mit Ethernet im WAN zusammenhängen, sind eine Folge seines verbindungslosen Verhaltens. Um zu verstehen, warum dies ein Problem ist, muss man die Funktionsweise von Ethernet betrachten.

Die primäre Funktion eines Ethernet-Switches ist es, Daten zu ihrem gewünschten Ziel im Netz weiterzuleiten – eine recht einfache Aufgabe, wenn der Switch weiß, wo sich eine bestimmte Adresse im Netz befindet. Wenn der Switch jedoch Daten erhält, die für ein ihm unbekanntes Ziel gedacht sind, hat er nur die eine Möglichkeit, die Daten an alle ausgehenden Ports zu kopieren. Dieser Prozess ist als "flooding" (Überflutung/Überschwemmung) bekannt. Vielleicht wird das gewünschte Ziel über einen der Ports erreicht und eine Bestätigung zurückgeschickt. Sie wird dann von jedem Switch benutzt, um sich zu merken, welcher spezifische Port dem Ziel entspricht. Dies ist ein "Lernprozess". Im Prinzip ist Ethernet ein Broadcast-Medium, das "lernt", um Bandbreite durch die Beobachtung des Verkehrs zu reduzieren.

Dieser Ansatz funktioniert gut in kleinen Netzen. Mit dem Wachsen der Netze und höherer Komplexität – beispielsweise in WANs – erzeugen die Flooding- und Lernprozesse Überlast im Netz und können Sicherheitsprobleme aufwerfen. Darüber hinaus ist der Lernprozess nur dort zuverlässig, wo es einen, und wirklich nur einen Pfad zu einem gewünschten Ziel gibt. Um die Möglichkeit mehrerer Pfade auszuschalten, wird das Spanning-Tree-Protokoll eingesetzt, um Switch-Ports selektiv zu deaktivieren. Dadurch werden ein oder mehrere der redundanten physikalischen Pfade blockiert, aber es bleiben auch teure Netzkapazitäten ungenutzt. Das Spanning-Tree-Protokoll kann zwar beim Ausfall einer Route auch eine neue Route zwischen zwei Knoten im Netz finden, und bietet so einen simplen Schutzmechanismus. Solange Spanning Tree jedoch den besten alternativen Pfad berechnet, ist der Service im gesamten Netz unterbrochen.

Das Problem mit dem Spanning-Tree-Protokoll ist, dass es nicht für den Einsatz in wirklich großen Netzen konzipiert ist. Es wurde für die Baumtopologie geschaffen, die normalerweise im LAN existiert, nicht für die komplexe vermaschte Topologie, wie sie im WAN vorliegt. Das Protokoll verschlimmert auch das Problem, indem es eben jene Verbindungen abschaltet, die genutzt werden könnten, um die am meisten belasteten Verbindungen von Verkehr zu entlasten. Es ist schwierig, die Netzleistung zu prognostizieren und einen garantierten QoS zu bieten, wenn das Netz den gesamten Weg der Daten kontrolliert.

Die oben beschriebenen Probleme stammen von jenem verbindungslosen Verhalten des Ethernets. Jedoch ist die Ethernet-Hardware durch einfaches Ausschalten einiger Ethernet-Funkionalitäten in der Lage, ein verbindungsorientiertes Weiterleiten zu bewerkstelligen. Dies wird durch den Einsatz einer sich gerade entwickelnden Technologie erreicht, die Provider Backbone Transport (PBT) genannt wird.

PBT vereinfacht das konventionelle Ethernet durch die eindeutige Konfigurierung von Switchen, ohne Flooding- und Lern-Techniken anzuwenden. Das behebt auch die mit Spanning Tree verbundenen Einschränkungen und Probleme. Der Switch verhält sich immer noch weitgehend wie beim traditionellen Ethernet, das heißt, er leitet Daten an ein vorbestimmtes Ziel weiter. Aber die Weiterleitungsinformationen werden nicht mehr durch den Switch gelernt, sondern direkt von der Management-Ebene zur Verfügung gestellt. Daraus resultiert ein vorgegebener und vorbestimmter Pfad durch das Netz sowie ein stets vorhersehbares Netzverhalten.

PBT bietet dem Service-Provider eine Reihe von Vorteilen:

Dadurch, dass PBT lediglich geringfügig gegenüber dem normalen Ethernet modifiziert ist, kann diese Technologie ganz einfach in vorhandener Ethernet-Hardware implementiert werden. Folglich besteht auch keinerlei Notwendigkeit, komplexe und teure Netz-Overlay-Technologien wie bei MPLS einzuführen. Der daraus resultierende Hierarchieabbau im Netz verringert nicht nur Anfangsinvestitionen, sondern sorgt auch für laufende Einsparungen, da die Betriebskosten ebenfalls entsprechend reduziert werden.

Die IEEE begann im November 2006 mit der Arbeit am PBT-Standard unter dem Namen PBB-TE (Provider Backbone Bridges – Traffic Engineering), ein endgültig genehmigter Entwurf wird für 2008 erwartet.

Ethernet OAM

Eine weitere wichtige Anforderung an Carrier-Ethernet ist die Bereitstellung der Grundlagen für ein Netz- und Service-Management auf Betreiberseite. Solche OAM-Funktionalität ist in traditionellen Netzen gut definiert. Aber Standard-Ethernet verfügt nicht über OAM-Funktionalitäten, wie sie von Netzbetreibern benötigt wird. Dazu zählt zum Beispiel eine automatische Netzüberwachung, damit der Betreiber über Unterbrechungen informiert wird. OAM-Protokolle müssen Informationen liefern, mit denen ein Fehler innerhalb des Netzs verfolgt und die betroffenen Services ermittelt werden können. Auf diese Weise können schneller Gegenmaßnahmen eingeleitet und die Einhaltung der SLAs gegenüber dem Kunden nachgewiesen werden. Ein OAM muss außerdem die Erhebung von Abrechnungsdaten ermöglichen und die Netzauslastung für die Kapazitätsplanung ermitteln können.

Diese Anforderungen an das Netz- und Service-Management behandeln eine Reihe von Carrier-Ethernet-Standards:

IEEE 802.1ag befindet sich in der abschließenden Überprüfung und soll 2007 Standard werden, während die ITU ihre Arbeiten am ITU-T Y.1731 formal im Mai 2006 beendet hat. Die vollständige Implementierung dieser Standards wird eine umfassende OAM-Lösung bieten, um Carrier-Ethernet-Netze auf Betreiberseite effektiv managen zu können. Außerdem stellen sie für paket-basierende Netze die Bewertungsmaßstäbe zur Verfügung, die in TDM-Netzen heute Standard sind. (mb)