Web

 

Fußball-WM mit konvergenter IT

04.04.2006
Die IT-Infrastruktur für die Fußballweltmeisterschaft gleicht der eines Großunternehmens.
Im Labor wurde die Inrastruktur jedes Stadions einzeln im Kleinen aufgebaut und getestet.
Im Labor wurde die Inrastruktur jedes Stadions einzeln im Kleinen aufgebaut und getestet.

"Wir erstellen auf der grünen Wiese ein Netz wie für eine Fortune-500-Company, das nach sechs Wochen wieder abgebaut wird." Mit diesen Worten umreißt Hans-Jürgen Bahde, Geschäftsführer von Avaya Deutschland, die Dimensionen und Herausforderungen eines der spannendsten IT-Projekte, die in diesem Jahr in Deutschland gestemmt werden. Der Hersteller ist einer der Hauptsponsoren der WM und gemeinsam mit T-Systems verantwortlich für den Entwurf, Aufbau und Betrieb der IT-Infrastruktur für das Fußballturnier.

Seit mehr als zwei Jahren haben die Techniker am Design des konvergenten Netzes gearbeitet, das Daten und Sprache gleichzeitig übertragen wird. 4500 Endgeräte sollen daran angeschlossen sein: Zu den herkömmlichen Telefonen kommen Faxgeräte, PCs, sowie insgesamt 3000 IP-Phones hinzu. In einigen Bereichen wird es möglich sein, über Wireless LAN (WLAN) auf das Netz zuzugreifen. Um die damit verbundenen Herausforderungen zu meistern, mussten die Verantwortlichen das Rad jedoch nicht neu erfinden, sondern konnten auf Erfahrungen zurückgreifen, die sie während der WM 2002 sowie beim Confederations Cup im vergangenen Jahr gesammelt hatten. Auch dort war Avaya an der Realisierung des Netzes beteiligt.

Als besondere Herausforderungen sieht Karsten Hobbie, Systems Engineering Architect bei Avaya und Leiter des Projektteams für das FIFA-Netzwerk, den Zeitdruck und die Vielzahl der anzubindenden Standorte. Nicht nur die zwölf Stadien in den Austragungsorten müssen vernetzt und zusammengeschlossen werden, auch eine Reihe von Hotels (in denen die Mannschaften und FIFA-Vertreter untergebracht sind), das internationale Medienzentrum, das zentrale Netzkontrollzentrum in München, ein Data Center in Bamberg, sowie Bahnhöfe und Flughäfen, an denen jeweils "Welcome Counter" zur Information der Gäste bereit stehen sollen, sind zu integrieren.

Die Stadien erhalten extra für das Turnier eine spezielle IT-Ausrüstung, die zum Teil vorhandene Komponenten nutzt. Die meisten Elemente müssen jedoch innerhalb von nur wenigen Tagen installiert werden, nachdem der reguläre Saisonbetrieb vorbei ist. Dazu zählen etwa Core-Switches, Media- und Communications-Server, WLAN-Access-Points oder Media Gateways für die Verbindung mit dem klassischen TK-Netz. Zehn Personen haben jeweils etwa eine Woche Zeit, diese Infrastruktur aufzubauen. Bereits jetzt werden in den Stadien Kabeltrassen verlegt, die schließlich eine Gesamtlänge von etwa 1000 Kilometern haben werden: In den Kernbereichen des Netzes kommen Glasfaserleitungen zum Einsatz, die Transferraten von bis zu 10 GBit/s ermöglichen. Die Endpunkte sind über Kupferkabel angebunden. Hobbie schätzt, dass insgesamt etwa 10 000 bis 15 000 Kilometer Kupferkabel für das WM-Netz benötigt werden.

Um die hohe Verfügbarkeit von 99,99 Prozent zu gewährleisten, wurde die Infrastruktur komplett redundant ausgelegt. So ist zum Beispiel jedes Stadion über zwei Leitungen an das Weitverkehrs-ATM-Netz angebunden. Sollte ein Problem an einer der zentralen IT-Komponenten auftreten, greifen Backup-Systeme: Hobbie rechnet dabei eigenen Angaben zufolge mit "Ausfallzeiten im Sekundenbereich."

Nach den Erfahrungen während des Confed-Cups, bei dem es etwa 1500 ernst gemeinte Angriffe gegeben hat, wird beim WM-Netz auch das Thema Sicherheit ganz groß geschrieben: Unter anderem überwacht ein Intrusion Detection System (IDS) das Netz auf auffällige Aktivitäten und unberechtigte Zugriffe. Dabei soll es möglich sein, sofort zu erkennen, von wo aus genau ein Störenfried sein Unwesen treibt.

Gesteuert und überwacht wird die Kommunikationsinfrastruktur von München aus. Dort wird in den nächsten Wochen das Netzkontrollzentrum aufgebaut, in dem etwa 60 Mitarbeiter vor und während der WM darauf achten, dass alles reibungslos läuft. Über die zentralen Server werden die etwa 4000 Endpunkte der Anlage gesteuert. Ein zweites Kontrollzentrum in den USA steht bereit, um bei einem möglichen Ausfall in München in die Bresche zu springen.

Entworfen und getestet wurde die komplette Infrastruktur in den Avaya Labs in Frankfurt. Dort wurden sämtliche Teilbereiche nachgebildet, wobei die IT-Systeme jedes Stadions in einen Server-Block zusammengefasst sind. Für die Last-Tests benutzten die Techniker vorhandene Datenströme, die kopiert und dann abgespielt wurden. (ave)