Ratgeber - Troubleshooting im Netz (Teil 2)

Flüssiges Videoconferencing im IP-Netz

28.02.2011 von Benjamin Kolbe
Hohe Bandbreiten, alles IP - scheinbar steht der Videokonferenz nichts mehr im Wege. Doch ohne die richtigen Tools und das passende Know-how sieht der Administrator bald ruckelnde Bilder.

Die Preise für breitbandige Anschlüsse ins öffentliche Netz sind auf ein Minimum gesunken, Applikationen müssen keine Bandbreite mehr sparen. Gleichzeitig hat sich der Siegeszug der IP-Dienste fortgesetzt. Dadurch hat sich auch Voice over IP (VoIP) als bevorzugtes Kommunikationsmittel durchgesetzt, und immer mehr Firmen steigen auf die IP-Telefonie um. Voice over IP ist jedoch nur der Anfang: Echtzeitapplikationen im IP-Netz sind die Zukunftsvision.

Serie: Troubleshooting im Netz

Mit Anwendungen wie VoIP oder Videoconferencing kommen neue Anforderungen auf die Netze zu. Dabei greifen klassische Fehleranalyseverfahren nicht mehr, denn es sind Parameter zu berücksichtigen, die in der Vergangenheit keine oder nur eine untergeordnete Rolle gespielt haben. Unsere zweiteilige Serie gibt Tipps zur Fehlersuche in konvergenten Netzen:

Videoconferencing stellt höhere Ansprüche an das Netz als VoIP und reagiert empfindlich auf Störungen.
Foto: Cisco

Deshalb verwundert es nicht, dass nun Videoconferencing mit Vehemenz in die Netze einbricht. Allerdings benötigt gerade diese Applikation, wenn gute Bildqualität erwünscht ist, eine hohe Bandbreite und reagiert sehr empfindlich auf Störungen im Netz.

Ohne das richtige Know-how und die entsprechenden Messinstrumente steht der Administrator dann vor einem fast unlösbaren Problem. Die klassische Fehlersuche hilft hier nur bedingt weiter, denn die wahrgenommene Qualität einer Videokonferenz hängt von diversen Parametern ab. Deshalb bleibt es dem Netzadministrator für eine erfolgreiche Fehlersuche nicht erspart, sich einige theoretische Grundanlagen anzueignen.

Die Übertragungseigenschaften müssen stimmen

Ein grundlegendes Problem ist, dass aus den räumlich getrennten Standorten der Teilnehmer unterschiedliche Wahrnehmungsbedingungen resultieren. Dabei werden die gesammelten isochronen Bild- und Toninformationen über das Netz übermittelt. Zwischen den Teilnehmern entsteht immer eine Punkt-zu-Punkt- beziehungsweise Punkt-zu-Mehrpunkt-Kommunikationsbeziehung. Aus diesem Grund scheidet das bei der klassischen Videoübermittlung von Filmen zur Bandbreiteneinsparung genutzte Multicasting aus. Die bidirektionalen Videoinformationen werden von der IP-Plattform in RTP-Pakete (Real Time Protocol) verpackt und auf die Reise geschickt. Das für die Kommunikation von Echtzeitanwendungen konzipierte RTP setzt dabei auf UDP (User Datagram Protocol) auf. UDP ist ein verbindungsloser Datenübertragungsdienst, der keinerlei Kontroll- und Steuermechanismen für das Verbindungs-Management bereitstellt. Für die fehlenden Mechanismen sorgt das RTP, indem es folgende Merkmale zur Verfügung stellt:

Im Datenteil des RTP-Pakets befinden sich die eigentlichen Rohdaten. Diese Informationen hat der Sender nach dem jeweiligen Codec codiert. Ein Codec ist ein Algorithmus, der dafür sorgt, dass die zu übertragenden Bild- und Tondaten in digitale Informationen gewandelt werden. Der Codec ist ausschlaggebend für die Qualität der Übertragung. Bestimmte Codecs versenden die Ton- und Bilddaten direkt und verzichten auf eine Kompression. Andere nutzen unterschiedliche Komprimierungsverfahren, um die zu übermittelnde Datenmenge so gering wie möglich zu halten. Das verschlechtert allerdings die Bild- und Signalqualität. In der Praxis werden folgende Codecs häufig verwendet:

H.264 wird im HD-Bereich angewendet. Neben den Codecs beeinflussen noch andere Faktoren die Übertragungsqualität:

Die Rolle des Switches im Netz und das Problem der Perfomance-Messung am Switch.
Foto: Nextragen

Bildwiederholfrequenz: Gibt die Zahl der angezeigten Bilder (pro Sekunde) an. Je höher die Bildfolge pro Zeiteinheit ist, desto mehr Daten müssen über das Netz transportiert werden. Die Folge ist ein erhöhter Bandbreitenbedarf. Bei der Videoübermittlung über IP-Netze werden heute alle erdenklichen Bildwiederholfrequenzen unterstützt. Zwar benötigt eine niedrigere Rate weniger Bandbreite, doch das Bild wird dann schnell als ruckelig empfunden. Eine flüssige Bildfolge erreicht man im Normalfall bei 25 Bildern pro Sekunde.

Quantisierung: Bei der Quantisierung wird die Codiergenauigkeit der Daten dem Wahrnehmungsvermögen des Menschen angepasst. Normalerweise fällt dem Betrachter eine verringerte Darstellungsgenauigkeit gar nicht auf. Bei genauerem Hinsehen ist jedoch ein Weichzeichnungseffekt zu erkennen, der scharfe Kanten verschwimmen lässt. Zusätzlich können Artefakte entstehen, wenn die Quantisierung zu grob eingestellt ist.

Bildauflösung: Definiert die Größe des Bildes. Je höher die Auflösung, desto mehr Details sind im Bild erkennbar. Gleichzeitig steigt der notwendige Bandbreitenbedarf bei der Übermittlung. Die bei der Videoübertragung via IP-Netze unterstützten Auflösungen sind in der ITU-Spezifikation H.261 definiert.

Planung eines Konferenznetzes

Ein gefiltertes TAP im Netz misst die Videoperformance.
Foto: Nextragen

Alle bislang genannten Parameter müssen bei der Planung eines Videokonferenzsystems im Netz berücksichtigt werden, denn sie wirken sich direkt auf das Netz und die darin genutzten Koppelkomponenten aus. So geht man heute davon aus, dass ein einzelner HDTV-Datenstrom eine konstante Übermittlungsrate von 3 Mbit/s benötigt. Da es sich bei Videoconferencing um eine bidirektionale Kommunikationsform handelt, müssen diese Bandbreiten in beiden Richtungen zur Verfügung stehen. Vor dem Betrieb von Videoanwendungen muss man das Netz darauf untersuchen, wie viel Bandbreite bereits durch andere Applikationen belegt ist. So ist zu ermitteln, wie viele gleichzeitige Videokonferenzen durch das Netz geleitet werden können. Als Faustformel für die Berechnung des benötigten Bandbreitenbedarfs gilt: Bandbreitenanforderung des verwendeten Codec multipliziert mit der gewünschten Zahl von parallelen Videokonferenzen.

Ein alter Bekannter aus VoIP-Zeiten ist das Thema Priorisierung. Nur eine Priorisierung auf einer Ende-zu-Ende-Ebene garantiert die Echtzeiteigenschaften im Netz, wie sie etwa für Videoconferencing erforderlich sind. Sie muss im gesamten Datenpfad ordnungsgemäß nach den Regeln von Diffserv (RFC2474, RFC 2475) konfiguriert und mit den Queuing-Mechanismen in den Switches und Routern abgestimmt werden. Die Echtzeiteigenschaften des Videos lassen sich somit durch eine durchgängige Priorisierung der Datenströme garantieren. Das setzt jedoch die einwandfreie Funktion der Übertragungsstrecken und der darin enthaltenen Netzkomponenten voraus. Kleinste Abweichungen und Probleme können bei Echtzeitanwendungen bereits die Bild- oder Tonqualität verschlechtern. Bei Sprache und anderen Tönen kommt es zu Knack- und Hintergrundgeräuschen. Bei Videokonferenzen entstehen Bildfehler und Aussetzer. Folgende Netzwerkfehler haben entscheidenden Einfluss auf die Qualität der Übertragung:

Die Netzanalyse

Plastische, real wirkende Konferenzeindrücke entstehen nur, wenn alle Netzparameter stimmen.
Foto:

Diese Parameter lassen sich im Echtzeitbetrieb (Videoanalyse) und beim Vortest (Predeployment) überprüfen. Hierzu benötigt man einen Analysator, der auf das Simulieren und die Analyse von Echtzeitapplikationen spezialisiert ist. Die Analyse hat jedoch ihre Tücken, denn nicht immer kommt man in modernen Netzen an die notwendigen Daten heran. In geswitchten Netzen werden die Videodaten nicht an alle Switch-Ports, sondern nur an den jeweils nächsten Ziel-Port im Datenpfad weitergeleitet. Um die Daten dennoch abgreifen zu können, verfügen die Switches in der Regel über einen so genannten Mirror-Port. Dieser Port spiegelt einen oder mehrere Ports auf einen ausgewählten Ausgangs-Port, an dem dann der Netzwerkanalysator angeschlossen wird. Da dieses Messverfahren manche Daten, besonders Fehler auf Schicht 2, nicht weiterleitet, ist diese Messung immer mit einer Ungewissheit behaftet.

Bessere und genauere Messergebnisse werden durch das Abgreifen der Videostreams über Test Access Points (TAPs) erzielt. Wie ein Splitter wird dieser zwischen dem Switch-Port und dem Endgerät (quasi inline) platziert. Der TAP greift alle Daten inklusive aller Fehler ab und leitet sie an den angeschlossenen Analysator weiter. Durch gezielte Messungen lassen sich die im Datenpfad auftretenden Fehler analysieren und mit Hilfe einer Mess-Software die Ursachen ermitteln. So können beispielsweise mit einem auf Videoconferencing beziehungsweise die Videotelefonie spezialisierten Analysator die applikationsspezifischen Qualitätsparameter und Timing-Werte ermittelt und analysiert werden. Auf Basis dieser Parameter ist eine direkte Aussage zur Übertragungsqualität des Videos möglich. Als Grundlage für dieses Messverfahren dienen die von Ericsson entwickelten Testverfahren Video Streaming Quality Index (VSQI) und Video Telephone Quality Index (VTQI).

Die vom Netzanalysator zur Verfügung gestellten Parameter werden anschließend in den jeweiligen Berechnungsmodellen verarbeitet und liefern eine Art Video-MOS-Wert (MOS = Mean Opinion Score), mit dem sich die Güte einer Videoverbindung beurteilen lässt. Der MOS-Wert ähnelt den Schulnoten zwischen eins und fünf. Dabei steht der Wert eins für eine mangelhafte Sprachqualität, in der keine Verständigung möglich ist, während der Wert fünf eine exzellente Übertragungsqualität signalisiert, die nicht hinter dem Original zurückbleibt.

Trotz optimaler Konfiguration aller Komponenten lassen sich qualifizierte Aussagen zur Videoübermittlungsqualität vor dem Rollout nur durch Tests treffen. Dies geschieht mit synthetischen IP-Videoströmen zwischen den verschiedenen Messpunkten. Dabei muss sowohl die Anzahl der gleichzeitigen Videoströme variiert als auch zu unterschiedlichen Tages- und Wochenzeiten gemessen werden. Um in konvergenten Netzen die Videoqualität richtig zu messen, ist es notwendig, alle Netzsegmente in der Messung zu erfassen. Nur so ist eine durchgängige Qualitätsaussage von Ende zu Ende möglich. Bei der Simulation werden Videokonferenzen nachgebildet und bidirektional auf dem realen Netz abgebildet. Auf diese Weise kann das Netz schon vor dem Videoeinsatz auf die tatsächliche Übertragungsqualität getestet werden. Somit werden Design- oder Konfigurationsfehler frühzeitig entdeckt und können bereits in der Testphase beseitigt werden.

Hierzu gibt es auf dem Markt mittlerweile Testsuiten, die speziell für das richtige Messen innerhalb von Videosystemen entwickelt wurden und über Zusatzfunktionen wie Verbindungslisten und Erfassung von Qualitätsmerkmalen verfügen. Mit Hilfe einer Simulation lassen sich detaillierte Aussagen über die zu erwartende Qualität der Videoübertragung treffen. So wird beispielsweise ein definiertes Referenzsignal über das Netz zum betreffenden Kommunikationspartner übertragen und dort aufgezeichnet. Anschließend wird das aufgezeichnete Signal mit dem Referenzsignal verglichen - anhand dieser Daten bestimmt die Software die spezifische Qualität der Ende-zu-Ende-Übertragungsstrecke.

Fazit

Videokonferenzsysteme werden gerade in Unternehmen eingeführt. Doch hochauflösende Videos gibt es nicht zum Nulltarif, das Netz muss auf seine Videofähigkeit geprüft werden. Damit kommen auf die Netzverantwortlichen neue Schwierigkeiten zu, da sie eine Vielzahl weiterer Parameter beachten müssen, die in der Vergangenheit meist eine untergeordnete Rolle spielten. Mit Mess- und Simulations-Tools lassen sich Probleme erkennen, eindämmen und beseitigen.