Klassische Netze sind hierarchisch aufgebaut, und das Routing beziehungsweise Switching findet primär auf Layer-3-Ebene statt. Diese Glaubensgrundsätze waren in den letzten zehn Jahren beim Aufbau von Netzinfrastrukturen unumstritten - daran konnten auch die Konvergenz von TK- und IT-Welt oder neue Kommunikationsformen wie Unified Communications und Collaboration nichts ändern. Selbst der Ruf nach mehr Mobilität, gestützt durch den Siegeszug von UMTS und HSPA, konnte diese Grundannahmen nicht erschüttern.
Doch die Tage des klassischen Netzbaus sind gezählt. Immer stärker kristallisiert sich heraus, dass die heutigen Netzinfrastrukturen den kommenden Anforderungen nicht mehr gerecht werden. Treiber dieser Entwicklung sind Trends wie Virtualisierung, Cloud Computing oder die anhaltende Verbreitung von HD-Video sowie die neu gewonnene Bedeutung der Mobilität in Verbindung mit Tablets und Smartphones. Eine Entwicklung, die auch zu einem Konflikt führt: Einerseits wollen die IT-Abteilungen ihre Daten und Applikationen zentralisieren, andererseits sollen die Anwender mobiler werden und selbst außerhalb des Unternehmens mit den entsprechenden Anwendungen arbeiten. Ein Widerspruch, den Eric Wolford, Senior Vice President Business Development bei Riverbed, als "distributed recentralization" bezeichnet.
Unter dem Strich führt die veränderte IT-Landschaft zu drei Konsequenzen beim Aufbau von Netzen:
WLANs im Wandel
Glaubt man einer aktuellen Erhebung des Zentrums für Europäische Wirtschaftsforschung (ZEW) vom September 2011, so statten bereits 25 Prozent der Unternehmen der Informationswirtschaft ihre Mitarbeiter mit Tablets aus. Bis Ende 2012 sollen es schon 37 Prozent sein. Besonders aufgeschlossen gegenüber der neuen Gerätegattung zeigt sich laut ZEW die Medienbranche: Hier gehen die Forscher für 2012 von einer durchschnittlichen Nutzungsrate von 59 Prozent aus. Dieser geänderten Nutzung werden die heutigen WLAN-Installationen meist nicht gerecht, da sie unter anderen Prämissen vor allem als Gastnetze oder für Besprechungs- und Konferenzräume installiert wurden. Mit dem Siegeszug der Tablets sollen die Funknetze nun aber die Rolle eines zweiten Produktivnetzes übernehmen.
Flache Hierarchien
Die Attraktivität von Cloud-Services und Virtualisierung liegt unter anderem darin begründet, dass Unternehmen dynamisch IT-Leistungen bestellen und verlagern können. Dazu passen aber die meisten Netze nicht, die noch im Zuge des Internet-Booms aufgebaut wurden. Damals standen Fragen wie die nach einem zuverlässigen Routing im Vordergrund, was zu den heute eher statischen Netzen auf Layer-3-Ebene führte.
In der virtuellen Welt zählen nun aber andere Werte: Virtuelle Maschinen und Instanzen müssen nicht nur innerhalb eines Blades oder Rechenzentrums, sondern auch über große Instanzen schnell verlagert werden. Und am neuen Ort müssen die alten Beziehungen und Abhängigkeiten (Rechte, Daten- und Anwendungszugriffe) wieder sofort funktionieren beziehungsweise an die neuen Gegebenheiten angepasst werden. Das verlangt nach einem hohen Automatisierungsgrad, bei dem Port-Zuweisungen, Provisioning etc. ohne Eingriff des Users von selbst funktionieren.
Um dies zu realisieren, gelten nun flache Netze, bei denen möglichst viel Funktionalität auf Layer-2-Ebene abgewickelt wird, als State of the Art. "Gleichzeitig", so Brocade-Direktor Frank Koelmel, "versucht man das Netz als eine logische Einheit darzustellen." Eine Einheit, die das Kunstwort "Fabric" beschreibt. In einer solchen Fabric wird nicht mehr der einzelne Switch administriert, sondern die Datenströme in ihrer Gesamtheit. Die Switches selbst tauschen dann die entsprechenden Konfigurationsinformationen automatisch untereinander aus. Letztlich ist die Fabric, so Olaf Hagemann, Techniker bei Extreme Networks, "der Versuch, ein Netz nur noch als einen Hop darzustellen".
Schnellere Netze
Das Cloud-Computing hat laut Enterasys-Technikspezialist Markus Nispel noch eine andere Konsequenz: "Die Datenströme verlagern sich von den P2P-Client-Server-Beziehungen in Workgroups hin zu direkten Verbindungen zwischen Arbeitsplatz-PC und Server im Rechenzentrum beziehungsweise in der Cloud." Diese Veränderungen haben direkte Auswirkungen auf die benötigten Bandbreiten. 10 Gigabit Ethernet scheint an seine Grenzen zu stoßen, und mit 40 und 100 Gigabit Ethernet (GbE) stehen bereits die Nachfolger in den Startlöchern.
Leistungsfähigere Switches
Der Wechsel zu 40 oder 100 GbE betrifft aber auch die Switches selbst. Heute im Einsatz befindliche Switches mit 160 bis 240 Gbit/s schnellen Slots verfügen nicht über die für 100 GbE nötige Performance. Deshalb sieht Nispel in naher Zukunft bereits Chassis-Switches mit 500 Gigabit/s bis 1 Tbit/s. Der schnelle, non-blocking Weitertransport der Daten ist aber nur eine der Herausforderungen, die mit der Geschwindigkeitssteigerung auf die Switch-Bauer zukommen.
Gleichzeitig muss die Leistung der auf den Slot-Karten verbauten Prozessoren enorm gesteigert werden, wenn QoS- oder VLAN-Funktionen in Leitungsgeschwindigkeit arbeiten sollen. "Deshalb liegt die Frage nahe, ob es nicht Sinn gibt, ähnlich wie im RZ, Data- und Controlplane zu trennen", so Mathias Wietrychowski, System Engineer bei Cisco.
Denkt man diesen Gedanken zu Ende, könnte dies dazu führen, dass etwa Workgroup-Switches nur noch die Aufgabe eines "dummen" Pipe-Aggregators zukommt, vergleichbar mit den Multiplexern der 90er Jahre. Die eigentliche Intelligenz sitzt dann im Netz beziehungsweise in wenigen zentralen Switches, die gleichzeitig Controller-Aufgaben übernehmen. Ein Gedankenkonstrukt, mit dem fast alle Hersteller liebäugeln. Eher mittelstandsorientierte Produzenten wie Netgear oder D-Link fragen zudem, ob diese Zentralisierung für ihre Zielgruppe Sinn hat oder es nicht doch sinnvoller ist, Funktionen im Workgroup-Switch zu belassen.
Konsequenzen für das WAN
Die Auswirkungen des Paradigmenwechsels reichen noch weiter, wenn man sich einmal wie D-Link-Manager Mike Lange fragt: "Wo verläuft künftig die Trennlinie zwischen eigenem Enterprise- und Carrier-Netz?" Gerade unter dem oben diskutierten Trend zu flacheren Netzhierarchien - was den Einsatz von Metro-Ethernet begünstigen würde - scheinen diese Grenzen zu verwischen, denn einen Router als klare Grenze gibt es nicht mehr.
Umgekehrt beeinflusst die Antwort auf Langes Frage direkt das Netzdesign, denn sie bestimmt die Zuständigkeit für die Segmente - was ist an den Carrier ausgelagert, was obliegt der Zuständigkeit des Unternehmens? Zudem sollte in einem solchen Szenario das Netz-Management nicht auf die Hardware beschränkt sein, sondern die Cloud-Services einbeziehen. In der Praxis sind hierzu etwa Service-Level-Agreements (SLAs) mit den Providern neu auszuhandeln.
Zudem gilt es sicherzustellen, dass auf den WAN-Strecken die nötige Performance bereitsteht. Hierzu könnten Carrier und Service-Provider, so Thomas Oltmanns, Senior Systems Engineer bei Bluecoat, etwa Rich Media Content wie Videos cachen, um die Netze zu entlasten. Gleichzeitig ist man sich bei Riverbed und Bluecoat darüber einig, dass eine WAN-Optimierung künftig auf Applikationsebene ansetzen muss, um den Anwendungen auf Layer-7-Ebene eine gute Quality of Service bereitzustellen.