Effiziente Netzplanung/Tips und Tricks zur Projektplanung

Netz-Management-Systeme helfen Antwortzeiten zu verringern

07.11.1997

Der Datenverkehr in lokalen Netzen nimmt unaufhörlich zu. Hierfür sind mehrere Faktoren ausschlaggebend: die steigende Zahl der PCs in Netzen, die Implementierung von Client-Server-Architekturen, der Einsatz immer anspruchsvollerer Anwendungen und die Realisierung von Intranet-Strukturen. Das Intranetz ist daher so zu planen beziehungsweise aufzubauen, daß Unternehmen ihre Geschäftsabläufe ohne größere Probleme schnell und kostengünstig abwickeln können.

Im Rahmen der Intranetz-typischen Client-Server-Kommunikation entstehen auf den Verbindungen immer höhere Informationslasten, die nahezu verzögerungsfrei übertragen werden müssen. Es ist nicht die einzelne Transaktion im Netz, sondern die Vielzahl gleichzeitiger Interaktionen, welche die Netzverbindungen schnell an den Rand der zur Verfügung stehenden Kapazitäten bringen. Die gesamten Informationen einer Web-Page werden auf den Client heruntergeladen.

Spätestens beim Einsatz integrierter Grafiken, Audio- und Video-Informationen reichen die bestehenden Bandbreiten nicht mehr aus. Auch Funktionen wie Komprimierung und Mapped Graphics ändern an dieser Tatsache wenig. Dabei ist noch nicht berücksichtigt, welche neuen Anforderungen durch den Einsatz von Java als Programmiersprache entstehen. Nicht nur Programmentwickler, auch Anwender können hier Miniapplikationen mit Hilfe von Makros erstellen, die sich beispielsweise für Datenbankabfragen in Web-Seiten einbinden lassen.

Java-Applets erweisen sich als äußerst bandbreitenaufwendig, denn sie sind, jedesmal wenn der Benutzer auf sie zugreifen will, gemeinsam mit der Web-Seite vom Netz-Server zu laden. Heute hält sich der Bandbreitenbedarf der Java-Applets zwar noch in Grenzen (zwischen 50000 und 200000 Bytes), doch es ist bereits abzusehen, daß es in Zukunft weitaus komfortablere und funktionsreichere Applikationen gibt.

Besonders bei Fernverbindungen ist das Verkehrsaufkommen von Intranet zu Intranet zu reduzieren. Hierfür eignen sich Proxy-Server, die auf Seite der Außenstelle als Cache für den zentralen Web-Server fungieren. Proxy-Server nehmen häufig abgefragte Web-Seiten in ihren Speicher auf und ersparen damit das bandbreitenaufwendige Herunterladen der Web-Seiten vom zentralen Server. Eine Cache-Lösung lohnt sich besonders in Außenstellen mit mehreren Intranet-Anwendern, denn es entstehen weniger Übertragungsgebühren, Bandbreite wird für andere Kommunikationsprozesse freigehalten und gleichzeitig der zentrale Web-Server entlastet.

Die Kapazität von WAN-Verbindungen läßt sich auch dadurch erhalten, daß Spiegel-Server in den Außenstellen eingerichtet werden. Im Gegensatz zu Proxy-Servern sind Spiegel-Server für die Anwender nicht transparent. Sie agieren statt dessen als Archivierungs-Server, die lokal in den Außenstellen die Duplikate häufig genutzter Web-Seiten vorhalten.

Trotz der neuen Verkehrslasten erwarten die Intranet-Teilnehmer, daß die Antwortzeiten weiterhin kurz bleiben. Der Netzverantwortliche muß diese grundlegende Forderung durch den Einsatz geeigneter Netz-Management-Anwendungen erfüllen. Das US-amerikanische Unternehmen Northeast Consulting Re- search ermittelte, welche maximalen Antwortzeiten für Anwender tragbar sind.

Antwortzeit von drei Sekunden ist okay

Erfolgt über zehn Sekunden keine Antwort vom System, so vermutet die Mehrzahl der Benutzer, daß die Verbindung des Arbeitsplatzrechners zum Netz unterbrochen ist. In der Regel erwarten die Netzteilnehmer eine Antwortzeit von maximal drei Sekunden. Bis zu zehn Sekunden, so die Erhebung, akzeptieren sie nur in Ausnahmefällen. Das sind schlechte Voraussetzungen für die aktuelle Web-Technologie, denn in den heute bestehenden Intranetzen beträgt die Response-Zeit zwischen zehn und 30 Sekunden.

Um das Netz den Erfordernissen der neuen Technologien anzupassen, ist es von Grund auf neu zu strukturieren. Zu diesem Zweck sind nicht nur Web-Server und Web-Clients aufzurüsten, sondern auch hierarchische Netzstrukturen abzuflachen. Auf diese Weise ist es möglich, den Datenverkehrsfluß zu beschleunigen. Da beim Netzdesign immer die individuellen Gegebenheiten des jeweiligen Unternehmens zu berücksichtigen sind, läßt sich dieser Prozeß nicht ohne den Einsatz entsprechender Anwendungen optimieren. Heute stehen dem Netzplaner eine Vielzahl an Tools, Techniken und Verfahrensweisen zur Verfügung. Dazu gehören:

-RMON-Systeme,

-Netzanalysegeräte,

-Netzsimulations-Software,

-WAN-Bandbreiten-Management sowie

-Client-Server-Monitoring.

Durch integrierte RMON-Systeme lassen sich Web-Installationen kostengünstig überwachen. Diese dienen dazu, sämtliche Vorgänge in den sieben Netzschichten - von der physikalischen Schicht bis hinauf zur Anwendungsschicht - offenzulegen. Über die Statistikfunktionen von RMON-Systemen können wichtige Informationen einfach und schnell dargestellt und die kritischen Leistungsgrenzen des Intranetzes aufgezeigt werden. Aufgrund ihrer Funktionalität ersetzen RMON- sogar Netzanalysesysteme. Die RMON-Komponenten ermöglichen es dem Netzadministrator, die Fehleranalyse von einem zentralen Punkt aus vorzunehmen. Das spart Reisekosten, und für das Troubleshooting ist weniger Zeit aufzuwenden.

In komplexen Intranet-Installationen, die sich über ein großes Unternehmensgelände oder über viele Niederlassungen erstrecken, sind weitere integrierte Werkzeuge erforderlich. Der auf dem IP-Protokoll basierende Web-Verkehr ist bei Bedarf über die Router-Grenzen hinweg bis zum Endgerät zu analysieren. Diese Anforderung kann nur eine leistungsfähige Netz-Management-Software erfüllen. Dadurch ist die transparente Darstellung der im Netz integrierten Koppelkomponenten (Hubs, Switches, Router) und Endgeräte (Server, PCs und WAN-Schnittstellen) auf der Konsole des Managers möglich.

Darüber hinaus werden die Auslastung einzelner Verbindungen und Protokolle und bei auftretenden Engpässen Alarmmeldungen inklusive Fehlerprotokolle detailliert dargestellt. Mit modernen Netz-Management-Applikationen lassen sich sogar gezielt Daten für die genaue Zuweisung von Kosten an den einzelnen Anwender sammeln.

Heutige Netz-Management-Tools unterstützen die Planung oder den Ausbau eines Intranetzes. Ausgehend von der realen Netzinstallation lassen sich mit diesen Anwendungen neue Verkehrsstrukturen simulieren. Dabei werden den Verbindungen und Netzsystemen die in der Praxis ermittelten Datenlasten zugeordnet. Über Simulations-Applikationen sind bereits in der Planungsphase folgende Szenarien auf ihre Tauglichkeit hin überprüfbar:

-unterschiedliche Server-Standorte im Netz,

-Anzahl der Anwender pro Segment beziehungsweise logischem LAN,

-unterschiedliche Konfigurationen von Hub-, Switch- und Router-Komponenten sowie Web-Servern,

-verschiedene Backbone-Konfigurationen sowie

-Analyse von Netzfehlern beziehungsweise Backup-Strukturen.

80-20-Regel auf den Kopf gestellt

Wie wertvoll leistungsfähige Management-Werkzeuge für den IT-Manager letztlich sind, erweist sich spätestens dann, wenn ein Intranetz aufgebaut wird, in dem sich die Last- und Verkehrsbeziehungen ändern. Denn die alte Regel gilt nicht mehr, nach der 80 Prozent des Datenverkehrs innerhalb einer Arbeitsgruppe und nur 20 Prozent Subnetz-übergreifend verlaufen. In den von "Peer-to-Peer"-Kommunikation geprägten Intranetzen wird dieses Kommunikationsmuster auf den Kopf gestellt. Um den neuen Verkehrsanforderungen gerecht zu werden, müssen hierarchische Netzstrukturen so weit wie möglich abgebaut und die flachen Netze durch intelligente Transportsysteme ersetzt werden. Hier sind gezielte Migrationsstrategien erforderlich, die eine Kombination aus Switching- und Routing-Diensten im Backbone und im Arbeitsgruppenbereich bereitstellen.

Intranetze sind nur dann leistungsfähig, wenn das gesamte Netzsystem eine durchgängige IP-Performance und eine Skalierbarkeit der Ressourcen gewährleistet. Da Intranetze jedoch nicht auf lokale Netze begrenzt sind, sind in die Überlegungen auch WAN-Dienste miteinzubeziehen. Ein modernes Netzdesign stellt "Quality-of-Service"-Funktionen zur Priorisierung bestimmter Datenströme bereit. Ein Netzbetreiber sollte daher bei seiner Entscheidung sicherstellen, daß die von ihm gewählte Lösung die folgenden drei Techniken abdeckt: Layer-2-, Layer-3- und eine Kombination aus Cell- und Frame-Switching im Backbone. Aus diesem Grund sind bei einer Netzplanung folgende Prämissen verbindlich:

-Nur Routing-Funktionen garantieren den Aufbau von skalierbaren Netzen.

-Der Aufbau von virtuellen LANs löst keine Mobilitätsprobleme. Diese sind über etablierte Standards, wie beispielsweise Dynamic Host Configuration Protocol (DHCP), zu lösen. "Magische VLAN-Tricks" führen zu weniger Transparenz und komplizieren die Fehlersuche.

-Am Spanning-Tree-Mechanismus führt in reinen Ethernet-LANs trotz aller technischen Limits (fehlende parallele aktive Links) kein Weg vorbei. Die LANE-Emulation ermöglicht jedoch die transparente Integration der bestehenden lokalen Netze in große verteilte ATM-Backbones. Die ATM-Technik garantiert im Backbone die notwendige Redundanz (parallele aktive Links, Anbindung der Backbone-Komponenten nach dem Dual-Home-Verfahren und Lastverteilung).

-Die Endgeräte sollten soweit wie möglich ohne zusätzliche Modifikationen im Netz betrieben werden können. Die volle CPU-Leistung der Endgeräte muß daher für die eigentlichen Aufgaben erhalten bleiben. Es ist also notwendig, daß die Endgeräte vollkommen unabhängig vom jeweiligen Switching- oder Routing-Verfahren im Netz arbeiten.

-Langfristig sind in größeren Netzen die aktiven Router-Hops durch intelligente Verkehrsleitmechanismen zu ersetzen. Dies darf jedoch nicht dazu führen, daß die vorhandenen Adreßstrukturen (zum Beispiel IP-Adressen) modifiziert oder durch neue Softwaremechanismen zu ersetzen sind. Die ideale Lösung sieht einen sanften Übergang von heutigen Netzstrukturen auf das Layer-3-Switching vor. Durch das automatische Erlernen der Adressen entsteht nur eine minimale Veränderung im Netz.

-Für den WAN-Bereich wurde bisher noch kein allgemeingültiger Standard verabschiedet. Da die Kompatibilität zwischen den Produkten der Hersteller hier unbedingt erforderlich ist, sollten keine proprietären Standards implementiert werden. Da jedoch gerade in Weitverkehrsnetzen ein Großteil der Kommunikationskosten entstehen, müssen die Edge-Komponenten intelligente Kompressionsmechanismen und Kostenüberwachungs-Tools unterstützen.

Durch den permanenten Ausbau der bestehenden Netze und die Einführung neuer moderner Techniken verändern sich kontinuierlich die Anforderungen an die Leistungsfähigkeit der gesamten Systeme. Dies führt in der Regel zu erheblichen Verzögerungen bei der Weitervermittlung von Daten. Die Ursache hierfür ist, daß häufig Subnetzgrenzen überschritten werden. Die Netzbetreiber fordern daher preiswerte und leistungsfähige Layer-3-Technologien, mit denen sich der IP-Datenverkehr extrem schnell abwickeln läßt und gleichzeitig Engpässe in den LAN-Backbones verschwinden. Durch den Einsatz der neuen Applikationen verlagern sich die Durchsatzprobleme im Netz von der Schicht 2 auf die Schicht 3. Zur Lösung dieser Layer-3-Bandbreiten- und Leistungsengpässe wurden von der Industrie folgende Ansätze erarbeitet: Packet-by-Packet- und Cut-Through-Layer-3-Switching. Der PPL3-Mechanismus wird in Routing-Switch-Komponenten implementiert.

Erst die Integration der IP-Routing-Funktionen in Hardware (ASIC-Chipsätze) bringt den notwendigen Performance-Schub, um den IP-Durchsatz in den modernen Netzen zu erhöhen. Gleichzeitig reduzieren sich dadurch die Herstellungskosten im Vergleich zu traditionellen Routern erheblich. Routing-Switch-Komponenten transportieren die IP-Pakete auf der Schicht 3 mit einer Verzögerungszeit von wenigen Mikrosekunden. Im Gegensatz dazu benötigt ein traditioneller Router für den Transport des gleichen Pakets mehrere Millisekunden.

Das CTL3-Switching sieht vor, die Schicht-3-Verbindungen im Netz dynamisch zu ermitteln und anschließend auf der Schicht 2 zu switchen. Beispielsweise wird bei der Übertragung von Video-Informationen der IP-Datenstrom identifiziert. Die Modifikation zugehöriger Pakete erfolgt bereits beim Eintritt in das Netz gemäß den Routing-Vorschriften. Anschließend werden die Pakete unter Umgehung der Routing-Prozesse auf der Schicht 2 weitergeleitet. Der vom ATM-Forum verabschiedete MPOA-Standard reduziert die durch Routing und Reassemblierung hervorgerufenen Verzögerungszeiten in den Transitkomponenten durch ein verteiltes Layer-3-Switching. Hierfür wurde in den Edge-Komponenten des Netzes das Next Hop Routing Protocol (NHRP) integriert.

Layer-3-Switching begegnet Engpässen

Gigabit Ethernet verwendet, um Schleifenbildungen zu vermeiden, den Spanning-Tree-Mechanismus. Werden virtuelle LANs auf der logischen Ebene im Netz integriert, ist pro VLAN ein separater Spanning-Tree-Prozeß aufzusetzen. Hier spricht der Fachmann von einem "Spanning Forest". Aufgrund dieses Mechanismus läßt sich im Ethernet der CTL3-Prozeß nicht einsetzen. Nur über den PPL3-Mechanismus kann hier die Performance der Schicht 3 an die Erfordernisse der modernen Netze angepaßt werden, ohne daß Modifikationen an der Systemarchitektur erforderlich sind.

Das Layer-3-Switching erfüllt heutzutage als einzige Lösung die wesentlichen Leistungsmerkmale, um den Datenverkehr zwischen den Subnetzen auf der Schicht 3 zu übermitteln. Dies geschieht transparent und unter Verwendung der vorhandenen Technologien. Dadurch kann den Engpässen und der Überlastung der Netze strategisch begegnet werden.

Angeklickt

Mit der steigenden Zahl an PCs, Client-Server-Networking, anspruchsvolleren Anwendungen sowie dem Aufbau von Intranet-Strukturen nimmt der Datenverkehr in lokalen Netzen zu. Bei Fernverbindungen läßt sich das Verkehrsaufkommen reduzieren, indem Proxy-Server als Zwischenspeicher für den zentralen Web-Server eingesetzt werden. Abhilfe versprechen auch Spiegel-Server in Außenstellen. Trotz der wachsenden Anforderungen an den Durchsatz dürfen die Antwortzeiten nicht zu lang ausfallen. In Ausnahmefällen sehen Nutzer bis zu zehn Sekunden als tragbar an, wünschenswert wären bis zu drei Sekunden. Die Realität sieht aber oftmals anders aus. Ein geeignetes Netz-Management kann dazu beitragen, die Situation zu entschärfen. Der Durchsatz läßt sich steigern, indem Web-Server und Hierarchien abgeflacht werden.

Mathias Hein ist Marketing Manager der Bay Networks Deutschland GmbH in Wiesbaden.