Google lebt von relevanten Suchergebnissen. Denn warum konnte Google überhaupt eine solche Vorherrschaft bei den Suchmaschinen erlangen und warum schafft es Bing (oder eine andere Suchmaschine) nicht, nennenswert mehr Marktanteile zu sichern? Bei Google findet man doch schneller und besser, nach was man eigentlich gesucht hat. Entsprechend investiert Google viel Arbeit, um immer bessere Suchergebnisse zu generieren und jede Manipulation der Suchergebnisse zu stoppen.
Aus Sicht der Suchmaschine ist klassische Suchmaschinenoptimierung (SEO) nämlich genau das: Manipulation. Mit vielfältigen Taktiken wird versucht, Google dazu zu bringen, eine Seite höher in den Suchergebnisse zu platzieren. Denn nur wer ganz oben in den Suchergebnissen steht, bekommt viele Klicks. Entsprechend hoch ist die Motivation, ein wenig (oder auch mehr) nachzuhelfen.
Der Klassiker der Manipulation: Backlinks! Als die Suchmaschine an den Markt ging, waren Links von anderen Websites die wichtigste Grundlage für die Gewichtung der Suchergebnisse von Google. Dies war eine Revolution. Statt auf Meta-Keywords und Häufigkeit von Begriffen zu setzen, war auf einmal relevant, wie häufig eine Seite verlinkt wurde.
Die These dahinter: Eine Seite, die häufig verlinkt wird, liefert offensichtlich wertvolle Information. Der Nachteil: Backlinks sind leicht manipulierbar. Schnell gab es ganze Linkfarmen, Links zur Miete und zum Kauf und viele andere Strategien des Linkaufbaus.
Obwohl Google praktisch von der ersten Stunde an sagte, dass unnatürlicher Linkaufbau “böse” ist, entwickelte sich eine ganze Industrie. Suchmaschinenoptimierung war lange Zeit im Kern Linkaufbau (und ein bisschen grundlegende Optimierung der maschinellen Lesbarkeit der Website).
Google kämpft gegen Manipulation durch SEO
Schon 2003 erschütterte das erste große Google-Update die Branche. Unter dem Namen “Cassandra” veränderte Google die Bewertung von Links und konnte versteckte Links und Text erkennen. Mit den großen bekannten Updates wie “Panda”, “Penguin” und “Hummingbird” änderte Google immer wieder Teile des Algorithmus, um künstliche Links und über-optimierte Inhalte zu erkennen und solche Seiten abzuwerten oder sogar aus den Suchergebnissen auszuschließen. Viele Seiten mit ehemals sehr hohen Rankings wurden abgewertet und mussten viel Arbeit investieren, um sich wieder nach oben zu arbeiten.
Paradox dabei: Agenturen, die zuerst für den Aufbau dieser Links bezahlt worden waren, machten auf einmal Angebote zum Linkabbau. Hunderte Blogger, die einmal gut dafür bezahlt worden waren, in einem Blogbeitrag die Seite eines Kunden zu verlinken, wurden nun gebeten (und manchmal auch erneut dafür bezahlt), diese Links wieder zu entfernen. Alles nur, damit das Linkprofil wieder “sauber” wurde und man als geläuterter Sünder um Neubewertung bei Google bitten konnte.
Dabei war schon immer klar, was Google möchte: Seiten, die dem Besucher gefallen. Die erste Unternehmensregel von Google ist seit Beginn: “Der Nutzer steht an erster Stelle, alles Weitere folgt von selbst”. Künstliche Links und für die Suchmaschine optimierte Texte stellen mit Sicherheit nicht den Besucher in den Mittelpunkt - und sind entsprechend nicht der richtige Weg, um langfristig bei Google erfolgreich zu sein.
Aber egal, ob man den kurzfristigen oder den langfristigen Erfolg bei Google sucht: User-Signals sind für Google immer einfacher messbar und werden immer wichtiger für die Darstellung der Suchergebnisse.
Denn bei genauerer Betrachtung ist Google viel mehr als eine Suchmaschine. Googles “Chrome” ist einer der meistgenutzten Webbrowser. Google Analytics ist eine der meistgenutzten Webanalyse-Lösungen. Android ist eines der meistgenutzten Betriebssysteme für Smartphones. All diese Programme und Geräte sammeln Daten und senden viele Informationen an Google.
Google weiß also ganz genau, auf welchen Websites die Besucher länger bleiben (weil sie die gesuchten Informationen oder Produkte finden) und bei welchen sie schnell wieder gehen. Alle Studien zu den Ranking-Faktoren bei Google zeigen entsprechend, dass User-Signals immer wichtiger werden. Dabei stechen vier Signale besonders heraus:
Click-Through-Rate
Back-to-SERP-Rate
Bounce-Rate
Nutzungsdauer
User-Signals im Detail
User-Signals sind nicht so einfach zu manipulieren wie Links oder Text. Es reicht nicht, ein paar Seiten im WWW zu verändern - man muss wirklich das Besucherverhalten beeinflussen. Zudem ist es sehr schwer, Google ein anderes Besucherverhalten vorzutäuschen: Google würde beispielsweise automatisierte Seitenbesuche sofort erkennen, die Besucher mit geringer Bounce-Rate und hoher Nutzungsdauer vortäuschen sollen.
Click-Through-Rate
Wohl am meisten Einfluss hat ein User-Signal, was noch direkt auf der Ergebnisseite von Google ausgesendet wird: der Klick auf das eigentliche Suchergebnis (“Click-Through-Rate”). Suchergebnisse, die häufig geklickt werden, werden weiter oben angezeigt. Entsprechend muss man sich große Gedanken dazu machen, was man Google an Informationen für die Überschrift und den Beschreibungstext liefert, damit dieser geklickt wird. Die klassische Methode, hier die Suchbegriffe einzubauen, bei denen man gefunden werden will, ist schon lange nicht mehr der Königsweg.
Stattdessen muss analysiert werden, was die Besucher wirklich interessiert und genau dies muss im sogenannten “Snippet” stehen. Da hier viel manipuliert wurde, sinkt der Einfluss, den man selbst auf die Gestaltung des Snippets hat. Immer häufiger generiert Google das Snippet selbst und ignoriert Vorgaben.
Back-to-SERP-Rate
Eng damit verbunden ist das User-Signal der “Rücksprung-Rate” (“Back-to-SERP-Rate”). Unter einem Rücksprung versteht man, wenn ein Benutzer auf ein Suchergebnis klickt und sehr schnell wieder auf den “Zurück”-Knopf seines Browsers drückt, um wieder zu den Suchergebnissen (Search Engine Result Page) zurückzukommen.
Ganz klar: Wenn Besucher wieder zu den Suchergebnissen zurück wollen, haben sie auf der Seite nicht das gefunden, was sie eigentlich gesucht habe. Die Seite sollte also weiter unten in den Suchergebnissen angezeigt werden. Rücksprünge gilt es also in jedem Fall zu verhindern, da sie so etwas wie der “Worst Case” für das Ergebnis einer Google-Suche sind.
Bounce-Rate
Eng mit der Rücksprung-Rate verbunden ist die Absprungrate (Bounce-Rate). Wenn der Besucher die Seite nach kurzer Zeit wieder schließt und gar nichts auf der Seite macht, zählt man dies als Absprung. Auch ein Absprung zeigt, dass die Seite offensichtlich nicht die Informationen liefert, die sich der Besucher versprochen hat und ist damit ein deutlicher Indikator für Google, dass diese Seite weiter unten in den Suchergebnissen platziert werden sollte.
Die Aussage der Absprungrate ist jedoch nicht so eindeutig wie man vielleicht auf den ersten Blick denkt. Eine Seite, die sofort die notwendige Information liefert, kann für den Besucher einen hohen Nutzen liefern und trotzdem eine hohe Absprungrate haben. Beispiele hierfür können Seiten mit Lotterie-Ergebnissen oder dem Wetterbericht sein. Für die meisten Seiten zählt aber: Eine hohe Absprungrate ist ein schlechtes Zeichen!
Nutzungsdauer
Wiederum eng mit den beiden anderen Faktoren verbunden, ist die tatsächliche Nutzungsdauer der Seite. Wenn wenige Besucher abspringen, steigt die Nutzungsdauer, die der Besucher tatsächlich auf der Seite verbringt. Wenn der Besucher weiterklickt und beispielsweise auch auf Unterseiten intensiv liest, scheint die Seite eine besonders hohe Relevanz zu haben - und sollte in den Suchergebnissen ganz weit oben angezeigt werden.
Optimierung der User-Signals
Wenn es um die Optimierung der User-Signals geht, sind die üblichen SEO-Methoden nicht besonders effektiv. Nutzersignale lassen sich nicht durch Backlinks, Keyword-Dichte, Änderungen an der logischen Struktur der Seite oder anderen üblichen Ansätzen zur Onpage-Optimierung verbessern. Suchmaschinen-Optimierung ist bisher immer eine Optimierung der zu findenden Seite für die Suchmaschine - bessere User-Signals sendet eine Seite jedoch nur, wenn sie für Menschen optimiert wird.
Aber Achtung: Wer nun alles dafür tut, Google vorzugaukeln, eine Seite hätte gute User-Signals läuft dabei schnell in die Falle. Es ist pauschal gar nicht klar, was “gute” User-Signals sind. Man kann beispielsweise nicht pauschal sagen, dass eine lange Aufenthaltsdauer (Time on site) wirklich positiv ist. Denn dies kann auch heißen, dass die Website-Besucher nicht finden, was sie suchen. Und andere Seiten sind möglicherweise hochrelevant, wenn der Nutzer nur ganz kurz auf der Seite ist - eben weil er die gesuchte Information schnell gefunden hat (beispielsweise den Wetterbericht). So sind User-Signals letztendlich auf jeden Fall das entscheidende Zünglein an der Waage, wenn es darum geht in den Top-3-Suchergebnissen zu landen - vor dem eigenen Wettbewerb.
Der richtige Weg zur Optimierung der User-Signals ist also die Optimierung der Website auf die Bedürfnisse der Nutzer. So dient dann Conversion-Optimierung nicht mehr nur zur Steigerung der Conversion-Rate, sondern verbessert auch die User-Signals. Wenn die Website-Besucher häufiger das Ziel der Seite erreichen, ist die Seite offensichtlich für den Nutzer optimiert und somit hochrelevant. Die Optimierung der User-Signals gelingt so beispielsweise durch klassisches A/B-Testing (wenn ausreichend Traffic vorhanden und das Ziel gut messbar ist) oder durch die Anwendung von Conversion-Heuristiken.
“Der Nutzer steht an erster Stelle, alles Weitere folgt von selbst.” ist der erste der zehn Grundsätze von Google. Websites, die diesem Grundsatz folgen, sind genau das, was Google möchte. Alle anderen Websites haben in den Suchergebnissen nichts verloren und werden sukzessive aus dem Index verdrängt werden. (haf)