Das FIFA-Portal erwartet Milliarden Seitenzugriffe

31.05.2006

Web.2.0-Dienste angebunden

Der wichtigste Test war indes eine neu entwickelte Site für den Confederations Cup 2005, der im Juni 2005 in Deutschland stattfand. Vor allem die damals gemachten Erfahrungen halfen, die jetzige Systemarchitektur und die Entwicklungsprozesse zu optimieren, sagte Muche. Zum Endrundenauslosung im Dezember 2005 wurde dann eine erste WM-Version von fifaworldcup.com gelauncht, die nachfolgend sukzessive zusätzliche Features und Informationen erhalten hat, beispielsweise vor kurzem nach Bekanntgabe der Spieleraufgebote. Insgesamt wurde acht Monate lang an der Version 2006 von FIFAworldcup.com entwickelt. Softwareseitig wurden für die Integration der Site mit verschiedenen Back Offices mehrere technische Ansätze verwendet, die jedoch alle auf XML basieren. So sind andere Yahoo-Dienste wie Flickr, Yahoo Go, Yahoo 360°, Yahoo Messenger und Yahoo Sport über Web-Services eingebunden. Web-2.0-Techniken (Ajax) wurden stellenweise zur Verbesserung der Bedienbarkeit eingesetzt (siehe auch "Yahoo gibt sich mit Ajax ein neues Gesicht").

Derzeit betreuen mehr als 40 Produzenten und IT-Spezialisten vom WM-Hauptquartier der FIFA in Berlin aus die Site. Zusätzlich stehen ihnen Mitarbeiter aus Abteilungen in den U-SA, Großbritannien und Asien zur Seite. Während des Turniers sollen es dann etwa 95 Mitarbeiter aus 20 Ländern sein. Eine der größten Herausforderungen wird es dann für das Team sein, die Site trotz der hohen Besucherzahlen am Laufen zu halten. Schon die Erfahrung von 2002 und anderen Sport-Events hatte gezeigt, dass es zusätzlich zum ohnehin hohen Traffic innerhalb kürzester Zeit zu außergewöhnlich großen Spitzen kommen kann, weiß Muche.

Angst vor Performance-Problemen

Die damals gemessenen Traffic-Spitzen dienten jetzt als Messlatte für die Skalierung der Site. Zudem droht Performance-Gefahr durch die globale Verteilung des Traffics, da die Site aus allen Teilen der Welt gleichermaßen gut erreichbar sein soll. Muche gibt sich vor dem Anpfiff dennoch optimistisch: "Wir haben große Erfahrung darin, Server und Software für hohe Zugriffszahlen zu optimieren, weil wir täglich mehrere Milliarden Pageviews auf Yahoo haben." Für diverse Zugriffsszenarien entstanden dabei Caching-Strategien für die Infrastruktur. Zusätzlich werden beispielsweise Bilder durch Akamai auf weltweit verteilten Servern gecached. Um Ausfälle zu vermeiden, sind Backend und Frontend sowohl lokal als auch in verschiedenen Standorten redundant ausgelegt. Durch die Verteilung auf regionale Rechenzentren sei eine globale Abdeckung erreicht worden, sagte Muche: "Jede Region kann durch mehrere Rechenzentren versorgt werden."