Analyse von Blogs und Social Networks

Mobber im Web 2.0 aufspüren

17.08.2009
Von Christa Manta
Trends erkennen, Mobber aufspüren, Meinungsführer beobachten, Netzwerke aufdecken: Mit Data-Mining-Methoden können die unstrukturierten aber oft hochrelevanten Daten, die User im Web 2.0 hinterlassen, analysiert werden. So können Unternehmen rechtzeitig eingreifen, wenn zum Beispiel ihrem Produkt ein Image-Schaden droht.
Carolin Kaiser, Wirtschaftsinformatikerin an der Friedrich-Alexander-Universität Nürnberg-Erlangen, freut sich, dass man heutzutage die Wahrnehmung von Produkten im Web 2.0 testen kann und keine künstlichen Laborsituationen mehr herstellen muss.
Carolin Kaiser, Wirtschaftsinformatikerin an der Friedrich-Alexander-Universität Nürnberg-Erlangen, freut sich, dass man heutzutage die Wahrnehmung von Produkten im Web 2.0 testen kann und keine künstlichen Laborsituationen mehr herstellen muss.

Zehn Millionen Dollar für zehn Tage Schweigen. So lässt sich der Schaden beziffern, den Fahrradhersteller Kryptonite erlitt, weil er einen ärgerlichen Blogger ignorierte. Dieser hatte ein 50 Dollar teueres Kryptonite-Schloss mit einem Kugelschreiber geknackt und in einer Online-Community darüber berichtet. Blogger nahmen das Thema auf, ein entsprechendes Video auf YouTube machte die Runde. Kryptonite schwieg zu den Vorwürfen, bis schließlich auch Medien wie die New York Times und AP aufmerksam wurden. Keine zehn Tage nach der ersten Blog-Nachricht musste Kryptonite die Fahrradschlösser zurückrufen. Kosten für den Umtausch: zehn Millionen US Dollar. Kosten des Image-Schadens: unbekannt.

Meinungsführer, Mobber und Mitläufer beobachten

"Für Unternehmen ist es äußerst wichtig, frühzeitig Mitläufer- oder Schwarmphänomene zu identifizieren", sagt Carolin Kaiser. Die Wirtschaftsinformatikerin erforscht an der Friedrich-Alexander-Universität Erlangen-Nürnberg, wie man mit Business-Intelligence-Services Meinungen von Usern in Foren und sozialen Netzwerken analysieren, Trends erkennen und Unternehmen rechtzeitig vor Krisensituationen warnen kann. Anhand von "Case based reasoning" (fallbasiertes Lernen) möchten Kaiser und ihr Team ein System entwickeln, das Manager nicht nur rechtzeitig vor Entwicklungen im Web 2.0 warnt, sondern auch proaktiv Handlungsanweisungen gibt. Dafür werden zunächst einmal Unmengen von Daten gesammelt, etwa Fälle, in denen sich in Foren ein negativer Meinungstrend abzeichnet. Dann wird untersucht, welche Wirkung konkrete Maßnahmen auf die Stimmung im Forum haben. "So wollen wir ein Frühwarnsystem entwickeln, das nicht nur erkennt, wenn die Stimmung kippt, sondern auch Entscheidungsprozesse unterstützt und Aktionen einleitet", sagt Kaiser.

Absatzzahlen mit den Meinungen im Web 2.0 korrelieren

Zwar gäbe es bereits viele kommerzielle Tools, die das Web 2.0 auf syntaktischer Ebene durchforsten, die zum Beispiel Blogs und Nachrichtenportale auf Erwähnungen bestimmter Hersteller oder Produkte durchforsten. Welche Relevanz diese Beiträge aber haben, oder wie sie einzuschätzen sind, können die Tools aber noch kaum erfassen. Deshalb wird derzeit in der Wissenschaft verstärkt an der semantischen Ebene, das heißt der Bedeutungsebene geforscht. "Wer Handlungsempfehlungen geben will, muss auch in die Tiefe gehen", erklärt Kaiser. Bei der Zusammenarbeit mit einem bekannten Sportartikelhersteller, habe das Team festgestellt, dass die Absatzzahlen mit den Meinungen im Web 2.0 korrelieren. "Circa drei Monate, nachdem ein neuer Sportschuh in Foren positiv bewertet wurde, stieg auch der Umsatz", sagt Kaiser. Diese Erkenntnis verblüfft nicht. Jedoch ist es schwierig, Stimmungen im Social Web zu analysieren.

Maschinen lernen, Meinungen zu beurteilen

Denn die Informationen der User liegen in Foren oder Threads, in Newsgroups oder Meinungsportalen unstrukturiert vor. Sie können nicht wie mit klassischer Business Intelligence zum Beispiel über SQL-Statements aus Datenbanken erschlossen, sondern müssen über Crawler oder Parser, die speziell die Semantik der Eingabe erschließen, identifiziert werden. Auch das Aufbereiten der Daten unterscheidet sich vom klassischen ETL-Prozess, in dem Daten aus verschiedenen Quellen extrahiert, transformiert und in ein Data Warehouse geladen werden. Carolin Kaiser erklärt, wie die Daten erfasst und mit Methoden des Text Mining analysiert werden: "In einer Vorverarbeitungsphase, dem so genannten ‚Natural Language Processing’, analysieren wir die einzelnen Aussagen hinsichtlich ihrer Sprache und bringen sie in eine strukturierte Form". Die Sätze werden in einzelne Wörter zerlegt und auf Satzstruktur, Reihenfolge und grammatikalische Bedeutung hin untersucht.

In einer zweiten Phase werden Attribute vergeben, auf Basis derer die Systeme die Aussagen als positiv oder negativ einstufen können. Dafür setzt die Wissenschaft Methoden des maschinellen Lernens ein. Beim nicht überwachten Lernen werden der Maschine klare Regeln vorgegeben, nach denen sie Meinungen beurteilen soll. Etwa, dass "toll" für eine positive Einstellung steht und die Wortkombination "nicht toll" für eine negative. Bei der Methode des nicht überwachten Lernens leiten die Systeme solche Regeln selber ab. Dafür muss aber auch zunächst ein Mensch jeden einzelnen Satz als positiv oder negativ bewerten.

Inhalt dieses Artikels