"Deutschland ist Spam-Land Nr. 1"

03.04.2006
Auf der Konferenz "Search Engine Strategies" in München zeigte sich: Am erfolgreichsten werden Suchmaschinenbetreiber sein, denen es gelingt, Spam auszuschalten.

Der kurzzeitige Ausschluss von BMW.de aus dem Suchindex von Google schreckte die deutsche Szene der Suchmaschinenoptimierer auf. Bis dahin hatten sie auch unerlaubte Techniken unbehelligt einsetzen können. Die spektakuläre Maßnahme von Google zeigt, dass die Abwehr von manipulierten Seiten für Suchmaschinen mittlerweile zu einem kritischen Faktor im Wettbewerb um relevante Ergebnisse geworden ist. Dies trifft besonders auf jene Anfragen mit kommerziellem Charakter zu, die rund ein Drittel aller Sucheingaben ausmachen.

Mehr zum Thema

www.computerwoche.de/go/

571858: Google-Bann gegen BMW: weitere deutsche Firmen gefährdet;

574167: Google baut Marktführung in den USA aus;

567592: Neue Plage im Web: Spam-Blogs;

570193: Ask kann man jetzt auch auf Deutsch fragen.

Suchmaschinen-Spam

Unter diesen Begriff fallen alle Praktiken, die auf unehrliche Weise versuchen, die Platzierung von Websites in den Ergebnissen von Suchmaschinen zu verbessern. Spamdexing, wie diese Manipulationsversuche auch genannt werden, lässt sich oft nur schwer von Suchmaschinenoptimierung abgrenzen. Zu den gängigen Methoden zählt, dass dem Suchmaschinenroboter andere Inhalte präsentiert werden als normalen Besuchern ("Cloaking"). Da Inhalte dann als besonders relevant gelten, wenn viele externe Seiten auf sie verweisen, gehören Linkfarmen auch zum Repertoire der Spammer. Darunter versteht man eine Gruppe von Websites, wo jede auf alle anderen verweist. Obwohl mittlerweile weitgehend wirkungslos, ist das so genannte Keyword Stuffing immer noch gebräuchlich. Dabei werden zahllose nicht zutreffende Schlagwörter in das entsprechende Meta-Element eingefügt.

Insgesamt erhält der Web-Vandalismus des Spamdexing im Vergleich zu Spam-Mails relativ wenig Aufmerksamkeit. Eine Erklärung dafür mag sein, dass unerwünschte Inhalte nicht direkt an eine Person geschickt werden. Search-Engine-Watch-Betreiber Danny Sullivan kommentierte dies mit dem Satz: "Der Suchmaschinen-Spam füllt zwar nicht Ihre Mailbox, aber dafür Ihre Suchergebnisse."

Unklare Definition

Den Teilnehmern einer Podiumsdiskussion auf der Search Engine Strategies fiel es allerdings schwer, das Phänomen klar zu definieren. Stefan Karzaunikat von der deutschen Seekport GmbH nannte einige Kriterien, anhand derer sich solche Manipulationsversuche erkennen lassen. Dazu zähle in erster Linie die Absicht, das Suchmaschinen-Ranking einer Site bewusst zu beeinflussen. Dies äußere sich unter anderem darin, dass nicht primär dem Besucher mit interessanten Inhalten gedient werden soll, sondern dass die Platzierung in den SERPs (Search Engine Result Pages) im Vordergrund stehe.

SEO versus Spam

Derartige Beschreibungen des Phänomens machen indes die Abgrenzung von Spam und zulässiger SEO (Search Engine Optimization) schwierig. Entsprechend lapidar bezeichnete der Betreiber von SearchEngineWatch.com, Danny Sullivan, Spam als "das, was die Suchmaschine darin sieht". Eine technische Definition der Manipulationen sei nicht möglich, obwohl alle großen Anbieter eine Liste unerlaubter Methoden veröffentlichen. Allerdings führten Cloaking, Doorway Pages oder Keyword Stuffing, wie gebräuchliche Tricks heißen, nicht immer zur angedrohten Höchststrafe, nämlich zum Löschen aus dem Index von Google, Yahoo & Co. Vielmehr versuchten diese zu bewerten, ob sich dahinter unlautere Absichten verbergen. Besonders große Sites haben laut Sullivan in der Regel gute Chancen, ungeschoren davonzukommen. Die Suchmaschinen wägen angeblich zwischen dem Abschreckungseffekt eines Ausschlusses und dem möglichen Schaden ab, den ein solcher für die Suchergebnisse verursacht. Wenn bei der Suche nach BMW der bayerische Autobauer nicht mehr in den Ergebnissen auftaucht, dann betrachtet der Nutzer diese als irrelevant. Daher habe Google BMW.de bereits 72 Stunden nach dem publikumswirksamen Rausschmiss wieder in den Index aufgenommen.

Mittel- bis längerfristig setzen Anbieter von Suchmaschinen darauf, ihre Dienste zu personalisieren und zu vertikalisieren, um unseriöse SEO zu erschweren. Je mehr sich die Services in Spezialangebote für die Recherche in News, Videos, Blogs oder lokalen Informationen aufteilen, desto schwieriger wird es, die Effekte von Website-Tuning zu erkennen. Das gilt noch viel mehr für die personalisierte Suche, bei der jeder Benutzer andere Ergebnisse erhält. Voraussetzung dafür ist jedoch, dass sich dieser an der Suchmaschine anmeldet. Die etablierten Anbieter versuchen die Zurückhaltung der Besucher durch Zusatzfunktionen wie etwa die Speicherung der Suchhistorie zu überwinden.

Chance für lokale Anbieter?

Google hat sich im Kampf gegen unzulässige Optimierungstechniken lange auf das englischsprachige Web konzentriert. Deshalb konnten sich manipulative Praktiken hierzulande außerordentlich stark verbreiten. Yuri Narciss von der Google-Niederlassung in Hamburg bezeichnete Deutschland als die Nummer eins bei Suchmaschinen-Spam.

Google achtet auf deutsche Sites

Der hierzulande mit über 80 Prozent Anteil überlegene Marktführer verfüge mittlerweile über ausreichende personelle Ressourcen, um das Phänomen effektiv zu bekämpfen. Diese Aussage überraschte insofern, als Google im Gegensatz zur Konkurrenz manuelle Eingriffe in die Suchergebnisse ablehnt und angeblich nur auf algorithmische Verfahren setzt. Lokale Anbieter wie Seekport oder Neomo, die sich heuer wie bereits im letzten Jahr als neue Player präsentierten, sehen im Betreiben eigener Redaktionen einen Konkurrenzvorteil gegenüber dem amerikanischen Schwergewicht. Neomo-CTO Stefan Fischerländer warf in die Waagschale, dass er die heimische SEO-Szene besonders gut kenne und sich daher besser auf ihre Tricks einstellen könne. Allerdings scheinen die Praktiken der heimischen Spammer nicht so sehr von denen ihrer Kollegen in anderen Ländern abzuweichen. Bestimmte Trends, wie etwa der Missbrauch der Wikipedia, erfreuen sich hier wie dort großer Beliebtheit. Laut Karzaunikat greift die Praxis immer mehr um sich, Inhalte aus der freien Enzyklopädie maschinell abzusaugen und auf Seiten zu platzieren, die mit Werbeanzeigen ausstaffiert sind.

Lokale Suche für lokale Player

Auch abgesehen von der Spam-Bekämpfung gelang es den anwesenden Vertretern heimischer Suchmaschinen kaum, ihre immer wieder beschworenen Vorteile als ortsansässige Player glaubhaft zu machen. So reklamiert auch die Telekom-Tochter T-Info für ihren in einer Alpha-Version verfügbaren Dienst suchen.de einen Vorsprung gegenüber den global agierenden Konkurrenten. Paradoxerweise setzt aber Yahoo für sein Local Search das der Telekom gehörende Branchenverzeichnis "Das Örtliche" ein, während suchen.de im HTML-Salat von deutschen Websites nach allem stochert, was wie eine Adresse aussieht.

David Radicke von web.de versuchte sich als weiterer Lokalmatador vom amerikanischen Wettbewerb abzugrenzen, indem er die Suche zu einer nachgeordneten Funktion seiner Sites erklärte. Besucher kämen etwa über Web- und Mail-Hosting-Dienste auf das 1&1-Portal oder die Seiten von GMX, von wo sie über die Suchmaschine weitere Inhalte erschließen können. Was sich sonst als neue Player im deutschen Markt präsentierte, waren Unternehmen aus den angelsächsischen Ländern, die ihre Software teilweise noch nicht einmal übersetzt haben. Dazu zählten neben Trexy, das gar keine eigene Suchmaschine bietet, vor allem ask.com, das sich zum Ziel gesetzt hat, gegenüber den großen Drei Google, Yahoo und MSN aufzuholen.

Ask.com vor Interessenskonflikt

Die zur IAC/InterActiveCorp gehörende Suchmaschine dürfte hinsichtlich relevanter Suchergebnisse vor einem Interessenskonflikt stehen. Zur Firmengruppe gehören eine ganze Reihe von E-Commerce-Sites, darunter das Reisebüro Expedia, die Partnervermittlung match.com oder Ticketmaster, ein Vermarkter von Veranstaltungen. Benutzer dürften an der Relevanz der Ergebnisse zweifeln, wenn etwa die Suche nach einem Mietwagen an erster Stelle einen Link auf die Expedia erbringt. Country-Manager Malte Krüger beharrte auf der Search Engine Strategies jedoch darauf, dass sein Dienst unabhängig sei. IAC-Boss Barry Diller gab gegenüber Search Engine Watch indes zu, dass die eigenen Sites in den Suchresultaten bevorzugt werden. Derartige Praktiken sind nicht neu und wurden in der Vergangenheit etwa bei AOL, MSN und Yahoo bekannt.