Hochverfügbarkeit/Neue Verfahren zum Aufbau ausfallsicherer Systeme

Netztechnologien steigern die Systemverfügbarkeit

07.04.2000
Vernetzte Client-Server-Applikationen, E-Commerce-Systeme mit multimedialen Anteilen und der wachsende Betrieb zentraler RZ-Lösungen für Server führen zu ständig steigenden Anforderungen an die Netzverfügbarkeit. Petra Borowka* beschreibt neue Möglichkeiten zum Aufbau und Design hochverfügbarer Netzstrukturen.

Nicht jedes Netzwerk muss in allen Bereichen hochverfügbar sein. Dennoch ist in den vergangenen zwei Jahren ein stark steigender Bedarf nach Verfügbarkeit festzustellen. In diesem Zusammenhang sind einige Kernfragen an jede Netzwerkinfrastruktur und -planung zu stellen: In welchen Netzbereichen ist eine hohe, in welchen eine niedrige Verfügbarkeit erforderlich oder angemessen?

Typischerweise sind mindestens drei Netzbereiche hier einzuordnen und zu bewerten: erstens das Backend-Netzwerk für Rechenzentrumsbetrieb, Server-Anschaltung und Storage Area Network (SAN); zweitens die Gebäudeanschaltung und das Backbone; drittens die Etagenausstattung und Endgeräteanbindung.

Was aber bedeutet "Verfügbarkeit der Systemressourcen" für die Netzinfrastruktur? Sind lediglich geringe Ausfallzeiten durch Störfälle oder Wartungsarbeiten gemeint oder auch zusätzlich garantierte hohe Datenraten und kurze Antwortzeiten? Je nach Branche und Unternehmen werden hier die Antworten unterschiedlich ausfallen. Das gilt auch für die einzelnen Netzbereiche.

Eine allgemein anwendbare Designregel lässt sich wegen der Verschiedenheit der Umgebungen und Anforderungen nicht aufstellen. Typischerweise sind jedoch RZ, Anschaltung zentraler Server und das Netz-Backbone besonders kritische Bereiche. Neue Verfahren wie Trunking, Layer-3-Switching, Router-Redundanzprotokolle und Load Balancing ermöglichen eine verbesserte Verfügbarkeit durch automatische Fehlertoleranz (Redundanz) und schnelle Umschaltzeiten, gepaart mit Lastverteilung.

Redundanz und gleichzeitige Lastverteilung in Ethernet-LANs war lange Zeit ein leidiges Thema. Die einzige verfügbare Standardlösung war das Spanning-Tree-Verfahren mit zwei wesentlichen Nachteilen: Alle redundanten Verbindungen werden deaktiviert und somit teure Switchports und LWL-Verbindungen (Lichtwellenleiter) bezahlt, jedoch ausschließlich bei Hardware-Störfällen genutzt. Zweitens dauert die Umschaltung je nach Störfall 30 Sekunden bis mehrere Minuten. Beides ist mit den aktuellen Anforderungen an einen modernen LAN-Betrieb nicht mehr vereinbar.

Zur Abhilfe entstanden Trunking-Konzepte. Dabei werden mehrere physikalische Interfaces und die angeschlossenen Leitungen zu einer logischen Verbindung, einem Trunk gebündelt. Er arbeitet im Normalbetrieb lastverteilt über alle Verbindungen und schaltet im Fehlerfall den Datentransport auf die verbleibenden Leitungen um.

Herstellereigene Trunking-Verfahren wurden zuerst von Cisco vermarktet (Ether Channel), dann von Cabletron (Smart Trunk) und Nortel/Bay (Multilink Trunking), 3Coms Link Aggregation kam mit Verspätung hinterher. Trunking ist sowohl für Switch-Switch- als auch Switch-Server-Kopplungen einsetzbar (siehe Abbildung).

Die maximale Anzahl paralleler Verbindungen liegt je nach Lösung zwischen vier und acht Leitungen. Damit erhöht sich die Kapazität einer Backbone-Kopplung beispielsweise von 1-Gbit-Ethernet auf 4-Gbit- oder 8-Gbit-Ethernet. Beim Einsatz von 100-Mbit/s-Verbindungen ergibt sich immerhin die Möglichkeit, das Backbone auf bis zu 800 Mbit/s aufzurüsten, bei einer maximalen Entfernung von bis zu zwei Kilometern und Multimode-Fasern als Kabelmedium. Dies ist sehr hilfreich in Fällen, in denen keine Singlemode-Glasfaser im Backbone verfügbar ist und die Entfernungen die Längenrestriktion von 550 Metern für Gigabit-Ethernet überschreiten.

Ein Trunking-Standard wird unter dem Namen IEEE 803.2ad, Link Aggregation (Link Aggregierung), seit Mitte 1998 erarbeitet, hat alle Abstimmungen passiert und wird vermutlich im Frühjahr 2000 verabschiedet. Er ist sowohl für Server-NICs (Network Interface Card) als auch für Switches implementierbar und bietet die Möglichkeit herstellerübergreifender Kompatibilität.

Der Einsatz von Layer-3 Switches anstelle von Routern in Netzkoppelpunkten schafft weitere Verbesserungen der Verfügbarkeit. Dazu zählen ein erheblich höherer Durchsatz durch ASIC-Routing (L3-Switching; ASIC= Application Specific Integrated Circuit) und eine flexiblere Konfiguration, da mehrere (Highspeed-) Ports als ein gemeinsames Subnetz betrieben werden können. Dies ist für alle Konzepte mit kleinen Switches auf den Etagen wichtig, die jeweils mit einem HS-Uplink an einen zentralen Gebäudeswitch angeschaltet sind, jedoch meist nicht als separates Subnetz betrieben werden sollen.

Zudem ermöglicht der Einsatz von Layer-3-Switches im Backbone OSPF-Routing (Open Shortest Path First) mit Lastverteilung und schneller Umschaltzeit bei Fehlern (im Sekundenbereich). Die beschriebenen Vorteile haben dazu geführt, dass heute bei Neuinvestitionen im Standort-Backbone typischerweise Layer-3-Switches anstelle von Routern oder Layer-2-Switches eingesetzt werden. Hersteller sind beispielsweise Alcatel, Cabletron, Cisco, 3Com, Extreme, Foundry, Lucent und Nortel.

Was tut ein Server beziehungsweise Endgerät, wenn sein Default-Router (Layer-3-Switch) ausfällt? Hier stellt sich die Frage nach alternativen Netzzugängen. Die Möglichkeit, in der Host-Konfiguration einen Ersatz-Router einzutragen, ist zu aufwendig. Der Eintrag eines Ersatz-Routers über DHCP (Dynamic Host Configuration Protocol) ist leider nicht bei allen IP/DHCP-Softwareprodukten möglich. Im Endgerät ein Router-Suchprotokoll zu aktivieren wie etwa das ICMP-Router-Discovery-Protocol (ICMP= Internet Control Message Protocol) ist auch nicht ratsam: Der administrative Aufwand und der Prozessor-Overhead sind hoch, zudem wird die Methode nicht in allen Geräten unterstützt und erfordert eventuell eine Erhöhung der Routing-Timer mit der Konsequenz langer "Black-hole"-Zeiten und einiger Sicherheitsrisiken.

Für eine elegante Lösung müssen zwei oder mehr Router aus Sicht der Endgeräte transparent erreichbar sein, das bedeutet, unter Nutzung derselben IP-Adresse. Fällt der aktuelle Default-Router aus, ist ein Backup-Router unter derselben IP-Adresse (ARP Requests; ARP= Address Resolution Protocol) ansprechbar und übernimmt den Datentransport sehr schnell (in weniger als zehn Sekunden).

Wie die beteiligten Router sich synchronisieren, regelt ein eigenes Router-Redundanz-Protokoll. Die Vorreiterrolle hatte hier Cisco mit seinem Hot Standby Router Protocol (HSRP). Seit 1998 gibt es als Standard das dem HSRP äußerst ähnliche Virtual Router Redundancy Protocol (VRRP, RFC 2338), das sich zunehmend für alle neuen Layer-3-Geräte etabliert. Auch andere Hersteller haben Lösungen entwickelt, beispielsweise Foundry (Foundry Standby Routing Protocol, FSRP) oder die ehemalige Digital Equipment. Die größte Marktverbreitung haben jedoch VRRP und HSRP.

Eine typische Konfiguration mit VRRP/HSRP zu den Servern, OSPF im Backbone und nichtredundanter oder Trunk-Schaltung zur Endgeräte-/Etagenanbindung zeigt die Abbildung "Hochverfügbares Netz". Mit entsprechendem Kostenaufwand könnte die Endgeräte-/Gebäudeanschaltung ebenfalls über VRRP/HSRP erfolgen, was jedoch je Gebäude zwei Layer-3-Geräte erfordert.

Load-BalancingMit der Entwicklung von Gigabit-Ethernet und Layer-3-Switches ist der Durchsatz-Flaschenhals im Backbone verschwunden. Doch es gibt einen weiteren Engpass: den Server. Hierzu wurden Methoden entwickelt, die unter Begriffen wie Load-Balancing, Server-Switching oder Session-Switching beworben werden. Dabei geht es um die Entlastung der Server durch benutzertransparente Aufteilung der Kommunikation auf mehrere Rechner, durch das Auslagern lästiger Verbindungsaufbauaktionen und durch Überprüfen der Zugriffsberechtigung im vorgeschalteten Load Balancer.

Lastverteilung ist zum Beispiel einsetzbar als Konzept mit mehreren Web-Servern, die alle die gleichen Web-Seiten bedienen und zu einer so genannten Hunt-Gruppe zusammengeschlossen sind.

Daneben gibt es etwa die Lastverteilung auf mehrere Server-Adapter, Lastverteilung über mehrere Layer-3-Switch-Interfaces, die Umleitung von Paketen in Cache-Systemen, die Umleitung von Sessions verschiedener Applikationen auf unterschiedliche Server oder die Zuschaltung von Überlast-Servern nach Bedarf.

Eine typische Konfiguration ist die Bildung eines Server-Pools, der mit einer gemeinsamen "virtuellen" IP-Adresse von den Endgeräten angesprochen wird. Der Load Balancer setzt diese auf die reale Adresse des tatsächlich genutzten Servers um (siehe Abbildung "Load-Balancing").

* Diplominformatikerin Petra Borowka leitet UBN, ein herstellerneutrales Büro für Beratung und Planung im Bereich Computernetzwerke mit Sitz in Aachen.

Literatur: P. Borowka: "Internetworking", 4. Aufl. mitp Verlag 2000

Vorteile für NetzbetreiberTrunking, Router-Redundanz-Protokolle und Load-Balancing in einer kombinierten Netzwerkstruktur mit Layer-2 beziehungsweise -3-Switching bieten eine Reihe von Vorteilen, die den Aufwand in puncto Equipment und die Implementierung rechtfertigen können:

- Fehlertoleranz bei gleichzeitiger Lastverteilung,

- Redundanz, die transparent für Endgeräte und Server ist (VRRP, HSRP),

- Beibehaltung vorhandener Adresskonzepte,

- gute Skalierbarkeit der Kapazität innerhalb eines Subnetzes, beispielsweise Etagen- oder Backbone-Anbindung,

- schnelle Umschaltung im Fehlerfall,

- Schaffung von Broadcast-Domänen angemessener Größe,

- flexible Subnetzkonfigurierung innerhalb der Gebäude,

- gute Skalierbarkeit für die Server-Anbindung,

- Herstellerkompatibilität bei Nutzung des Standards, insbesondere zwischen Server und Switch,

- Option auf die zukünftige Implementierung von Dienstgütefunktionen durch Klassifizierung und Priorisierung am Übergang zwischen Zugangsbereich und Koppelbereich sowie

- gute Möglichkeiten der Zugangskontrolle mindestens auf Ebene 3, sowohl im Koppel- als auch im Zentralbereich.

Abb.1: Trunking

Einsatz von Trunking-Konzepten für Switches und Server. Quelle: UBN

Abb.2: Hochverfügbares Netz

Aufbau eines hochverfügbaren Netzes mit Router-Redundanz-Protokollen (VRRP, HSRP), OSPF-Routing und Trunking-Verfahren. Quelle: UBN

Abb.3: Load Balancing

Konfiguration eines Server-Pools mit vorgeschaltetem System zur Lastverteilung. Der Server-Pool wird über eine gemeinsame virtuelle IP-Adresse angesprochen. Quelle: UBN