Licht und Schatten im Kabelschacht

Pro und Contra Highspeed Ethernet

23.02.2012
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 

Herausforderung Infrastruktur

Foto: Ilja Masik, Fotolia.de

So sehen denn auch die meisten Hersteller bei einer HSE-Migration die größte Herausforderung in der Kabelinfrastruktur. Und die erfordert meist eine Neuverkabelung, was Migrationsprojekte verteuert. Angesichts der hohen Kosten empfehlen alle Experten eine genaue Bedarfsanalyse: Wo ist mit welcher PortDichte zu rechnen? Welche Entfernungen sind zu überbrücken? Sollen Single- oder Multimode-Fasern verlegt werden? Und unter Aspekten des Investitionsschutzes lautet die entscheidende Frage: Ist die jetzt verlegte Infrastruktur in zwei bis drei Jahren auch für eine Migration auf 100 GbE geeignet? Wer dies bereits heute bei einer Erneuerung der Verkabelung einplant, spart später Zeit und Kosten.

Switches gut planen

Zukunftssicher investieren sollte der IT-Entscheider auch bei der Anschaffung neuer Switches. Dabei sollte er besonderes Augenmerk auf die interne Architektur des Geräts legen, damit es später den HSE-Anforderungen gewachsen ist: Gibt es eine direkte Verbindung vom Prozessor zu Input und Output, reicht die Kapazität der Backplane? Sind CPU und Input-Output-Card im Verhältnis zur Port-Dichte leistungsfähig genug?

Welche Datenmenge kann der Switch in der Praxis wirklich transportieren? Reicht die Forwarding-Leistung auch bei kleinen Frames aus? Sind grundlegende Monitoring-Funktionen bereits im Switch integriert, und genügen sie den HSE-Ansprüchen? Kriterien, auf die nicht nur beim Kauf neuer aktueller Switches zu achten ist. Auch bei bereits vorhandenen Switches sollten sich die Fragen positiv beantworten lassen, sonst gibt ein Upgrade mit 40- oder 100-GbE-Modulen keinen Sinn.

Vorsicht bei der Port-Dichte

Angesichts der hohen Kosten für die HSE-Technik erscheint es verlockend, gleich Switches mit einer hohen Port-Dichte anzuschaffen, um den finanziellen Aufwand pro Port zu senken. Das kann sich allerdings schnell als kostspieliger Trugschluss entpuppen. In den meisten Fällen wird es nicht gelingen den Switch so nahe an den Server zu bringen, dass die Port-Anzahl optimal genutzt wird. Das gilt vor allem, wenn man bedenkt, dass Kupferkabel nur für Entfernungen von sieben bis acht Metern spezifiziert sind.

In der Regel reicht das lediglich für die Vernetzung innerhalb des Racks. Für größere Entfernungen sind wiederum Glasfaser und die damit verbundenen teuren optischen Transceiver erforderlich. Auf einen anderen Punkt, der in Szenarien mit alter und neuer Technik zu berücksichtigen ist, macht Avaya-Techniker Herden aufmerksam: "Wenn der Datenverkehr von 40 GbE auf geringere Geschwindigkeiten gedrosselt werden muss, sollten ausreichend Buffer vorhanden sein, um einen Overflow und Packet Loss zu verhindern".

Angesichts der zahlreichen Unwägbarkeiten ist eventuell der Ratschlag von Charles Ferland, Vice President System Networking bei IBM, zielführend: im Rack weiterhin 10-Gigabit-Ethernet auf Kupferbasis fahren und in einem ersten Schriit nur die Verbindungen zwischen den Racks auf 40-Gigabit-Ethernet migrieren.

Neue Protokolle

Bei der Migration auf Highspeed Ethernet bleibe alles beim Alten, ist oft zu lesen. Nichts müsse an der Netzkonfiguration geändert werden. Radio Eriwan würde hierauf antworten: Im Prinzip ja, aber... So gelten einige klassische Ethernet-Verfahren im Highspeed-Zeitalter als überholt - oder wie es ein Experte drastisch formulierte: Der Rapid Spanning Tree ist tot. Die Data-Center-Netze der Zukunft, so der allgemeine Konsens, müssen wesentlich flacher angelegt werden, um verlust- und blockierungsfreie kurze Verbindungen zwischen den Netzressourcen zu garantieren. Hierzu werden zwei unterschiedliche Architekturdogmen propagiert: Trill und SPB. Beide Verfahren sollen ein Multipath Routing im Data Center erlauben, um beispielsweise die Wanderung von virtuellen Maschinen zu vereinfachen.

Hinter dem Transparent Interconnect of Lots of Links (Trill) steht die IETF. Trill verwendet Routing-Protokolle auf Layer-2-Ebene, um die Daten auf dem kürzesten und schnellsten Weg durch das Netz zu transportieren. Grundsätzlich setzt das Shortest Path Bridging (SPB), das von der IEEE propagiert wird, auf dem gleichen Prinizip auf. Allerdings verwenden beide Verfahren unterschiedliche Methoden, um die Datenpfade zu berechnen. Dabei sei es bei SPB einfacher, den Datenweg vorherzubestimmen. Dafür wartet Trill mit Distribution Trees und Rbridges auf. Bisher ist nicht abzusehen, welches Verfahren sich durchsetzt. (mhr)

Teaserbild: Telekom AG