Web

Big Data Analytics

Forscher wollen Social-Media-Lügen automatisch identifizieren

Simon verantwortet als Program Manager Executive Education die Geschäftsentwicklung und die Inhalte des IDG-Weiterbildungsangebots an der Schnittstelle von Business und IT. Zuvor war er rund zehn Jahre lang als (leitender) Redakteur für die Computerwoche tätig und betreute alle Themen rund um IT-Sicherheit, Risiko-Management, Compliance und Datenschutz.
Wie vertrauenswürdig viral über soziale Medien verbreitete Informationen wirklich sind, soll das EU-geförderte Forschungsprojekt "Pheme" an der privaten Wiener MODUL-Universität ergründen.

Gemeinsam mit Partnern in England, Deutschland, der Schweiz, Bulgarien, Spanien und Kenia forschen die österreichischen Wissenschaftler seit Anfang 2014 in dem auf drei Jahre angelegten EU-Projekt. Um falsche von richtigen Informationen unterscheiden zu können, sollen linguistische und grafische Methoden mit Technologien zur Big-Data-Analyse kombiniert werden. Mit zwei Fallstudien in Medizin und Journalismus sollen die Ergebnisse in der Praxis überprüft werden.

Die Wiener MODUL-Universität möchte den ersten Social-Media-Lügendetektor entwickeln.
Die Wiener MODUL-Universität möchte den ersten Social-Media-Lügendetektor entwickeln.

Die technologischen Grundlagen des Pheme-Projekt legte die Wiener Privatuniversität mit dem im Dezember abgeschlossenen Projekt DIVINE, welches sich mit der dynamischen Integration und Visualisierung von Informationsräumen beschäftigte.

"Traditionelle Medien - ob digital oder analog - verlieren derzeit ihre Informationshoheit. Social-Media-Nutzer übernehmen diese immer mehr und verbreiten Informationen in ungeahnter Geschwindigkeit. Da wird aus einer Mücke rasch auch mal ein Elefant - oder aus einem Nieser die Angst vor einer globalen Pandemie", erläutert Arno Schal, der das Institut für Neue Medientechnologie an der MODUL-Universität leitet. Solche als "Meme" bezeichneten Themen stellten sowohl Unternehmen als auch Regierungen zunehmend vor große Herausforderungen, denen es zu begegnen gelte.

Gerücht oder Fakt?

Das Forscherteam konzentriert sich auf die Identifikation von vier Arten von fragwürdigen Wahrheiten oder sogenannten "Gerüchten": die Spekulation, die Kontroverse, die Falschinformation und die Desinformation. In welche Kategorie eine Information letztlich fällt, hängt auch davon ab, wie gut sich diese Einordnung vornehmen lässt. Das wiederum hängt stark von der Qualität der Information und damit von deren sozialem Kontext ab - diesen automatisiert erfassen und interpretieren zu können, ist das Ziel der Forscher.

Dafür arbeiten Wissenschaftler in Sprachtechnologien, Web Science und der Analyse sozialer Netzwerke zusammen mit Experten für Informations-Visualisierung. Gemeinsam nutzen sie drei Aspekte zur Analyse der Vertrauenswürdigkeit: zunächst die einem Dokument eigene Information - also lexikalische, semantische und syntaktische Information. Diese wird vernetzt mit Datenquellen, die als besonders vertrauenswürdig gelten. Für medizinische Informationen also zum Beispiel PubMed, die weltgrößte Online-Datenbank für medizinische Originalpublikationen. Schließlich wird die Art der Verbreitung einer Information analysiert - wer erhält welche Information, und wie und wann wird diese an wen weitergesendet?

Wie praxistauglich die Ergebnisse sind, soll schließlich in zwei Fallstudien herausgefunden werden. Zum einen wird im Bereich medizinischer Informationssysteme die so genannte "Rumour Intelligence" erprobt - also die Fähigkeit, Gerüchte wie den Ausbruch einer hoch ansteckenden Erkrankung, beispielsweise der Schweinegrippe, und deren Verbreitung frühzeitig zu identifizieren. Zum anderen gibt es eine Kooperation mit der britischen BBC und dem Südwestrundfunk, um für den Bereich des digitalen Journalismus die Glaubwürdigkeit nutzergenerierter Inhalte zu verifizieren.