Web

 

"Microsoft hat die Internet-Entwicklung völlig verschlafen"

10.09.2007
Von pte pte
Der Web-2.0-Hype der vergangenen Monate hat seine Spuren hinterlassen. Die wahllose Begriffszuschreibung für alles und jedes, was mit einer interaktiven Nutzung des Internets in Verbindung gebracht werden kann, hat das Modewort zunehmend verblassen lassen. Im Interview mit pressetext erklärt der Informatikprofessor Clemens Cap von der Universität Rostock, inwiefern der Begriff Web 2.0 dem gerecht werden kann, was er verspricht. Weiters wirft er einen Blick hinter die aktuellen Webstrategien von Google, Microsoft und Co. und analysiert deren Schwächen und Stärken im Umgang mit der sich rasant verändernden Internetlandschaft.

pressetext: Wie sieht Ihre Definition vom Web 2.0 aus und macht dieser Begriff angesichts des aktuellen Hypes überhaupt noch Sinn?

Cap: Natürlich läuft der Begriff Gefahr, von Unternehmen und Medien missbraucht zu werden. Anders ist es nicht zu erklären, dass jeder zweite Hersteller plötzlich Web 2.0 und Ajax anzubieten hat. Andererseits glaube ich schon, dass der Begriff Sinn macht. Die wesentlichen Aspekte beim Web 2.0 sind meiner Meinung nach die User-generierten Inhalte, die von den Nutzern zur Verfügung gestellt werden sowie die starke Gruppendynamik, die hierbei zum Tragen kommt (siehe dazu den Eintrag im Computerwoche-Wiki zu Folksonomies).

pressetext: Technologisch heißt es immer wieder, dass Web 2.0 im Prinzip ein alter Hut ist.

Cap: Eine Web-2.0-Kerntechnologie gibt es eigentlich nicht. Ich denke aber dass die Denkweise dahinter bis ins Jahr 2000/2001 zurückgeht. Damals haben die Leute plötzlich gesehen, dass man mit einem Webbrowser wie dem Internet Explorer oder Netscape verblüffende Sachen machen kann. Da wurde deutlich, dass eine Technologie, die im Grunde vielleicht für eine dynamische Menüführung oder ein drei bis vier Zeilen-Programm vorgesehen war, Webseiten in ein einfaches Word- oder Office-Programm umfunktionieren kann.

pressetext: Warum hat der Prozess der Umsetzung dann aber doch so viele Jahre lang gedauert?

Cap: Die neue Denkweise hat sich zuerst einmal in den Köpfen festsetzen müssen. Selbst die Web-2.0-Vorreiter waren von dem schnellen Erfolg völlig überrascht. Der Wikipedia-Gründer etwa ist mit der Ansage angetreten, dass man in zehn Jahren 100.000 Artikel online haben wolle. Im Endeffekt war Wikipedia aber nach 18 Monaten bereits größer als die Encyclopaedia Britannica. Rechtlich und wirtschaftlich haben wir diesen Prozess bisher noch gar nicht in sämtlichen Details verstanden.

pressetext: In der anhaltenden Diskussion um Copyright-Verletzungen etwa bei YouTube wird man das Gefühl nicht los, dass die Industrie nicht weiß, wie er gerade geschieht.

Cap: Ein weiteres prominentes Beispiel war das Auftauchen des Universalcodes für die Blu-ray- und HD-DVD-Verschlüsselung im Web. Die Anwälte der Firmen haben nach amerikanischem Copyright-Recht reagiert und die Seiten aufgefordert, den Code zu entfernen. In wenigen Tagen ist dieser Code von einigen Hundert Treffern bei Google auf zwei Mio. hochgeschnellt, da die Community sich das nicht gefallen lassen wollte. Wenn das betroffene Consortium das vorausgesehen hätte, wäre es sicher anders vorgegangen.

pressetext: Ist diese kaum zu kontrollierbare Eigendynamik nicht auch von Grund auf problematisch?

Cap: Sicherlich. Wenn die Community will, dass der besagte Code flächendeckend publiziert wird, dann schafft die das auch, ungeachtet der juristischen Maßnahmen, die das Consortium ergriffen hat. Das wirft natürlich die Frage auf, wie geht man mit dem Phänomen um, wenn es aus dem Ruder läuft. Nehmen wir nur YouTube als Beispiel. Wenn ein peinliches Video von mir in Umlauf gebracht wird und schon eine entsprechende Verbreitung gefunden hat, dann bin ich als Privatperson total ausgeliefert. Denn, wie will ich YouTube verklagen? Wo ist überhaupt der Firmensitz? Dann bin ich mit einer internationalen Rechtssituation konfrontiert, abgesehen davon, dass das Video irgendwo im Netz wahrscheinlich ohnehin weiterkursiert.