Click-Through-Rate, Back-to-SERP-Rate, Bounce-Rate, Nutzungsdauer

Bedeutung der User-Signals für das Google-Ranking

Jörg Dennis Krüger ist einer der Pioniere der Conversion-Optimierung in Deutschland und Mitgründer von ConversionBoosting. Er ist seit 1999 im Online-Marketing aktiv und konzentriert sich seit 2006 auf das Thema Conversion-Optimierung. Er verantwortete die Abteilung “Conversion-Optimierung” beim Performance-Marketing-Netzwerk QUISMA. 2001 erschien sein Buch “Web Content managen” und 2011 das Buch “Conversion Boosting mit Website-Testing”. 2014 gründete er das Unternehmen ConversionBoosting zusammen mit Julian Kleinknecht und Philipp Ronicke.
Die Relevanz von Backlinks für die Suchmaschinenoptimierung nimmt ab. Immer wichtiger für das Ranking wird die User-Experience. Seiten, die den Besucher länger halten, sind relevanter und erhalten einen Ranking-Bonus. Doch wo ansetzen, um die User-Signals zu verbessern?

Google lebt von relevanten Suchergebnissen. Denn warum konnte Google überhaupt eine solche Vorherrschaft bei den Suchmaschinen erlangen und warum schafft es Bing (oder eine andere Suchmaschine) nicht, nennenswert mehr Marktanteile zu sichern? Bei Google findet man doch schneller und besser, nach was man eigentlich gesucht hat. Entsprechend investiert Google viel Arbeit, um immer bessere Suchergebnisse zu generieren und jede Manipulation der Suchergebnisse zu stoppen.

Bessere User-Signals sorgen für ein höheres Google-Ranking.
Bessere User-Signals sorgen für ein höheres Google-Ranking.
Foto: lassedesignen - shutterstock.com

Aus Sicht der Suchmaschine ist klassische Suchmaschinenoptimierung (SEO) nämlich genau das: Manipulation. Mit vielfältigen Taktiken wird versucht, Google dazu zu bringen, eine Seite höher in den Suchergebnisse zu platzieren. Denn nur wer ganz oben in den Suchergebnissen steht, bekommt viele Klicks. Entsprechend hoch ist die Motivation, ein wenig (oder auch mehr) nachzuhelfen.

Der Klassiker der Manipulation: Backlinks! Als die Suchmaschine an den Markt ging, waren Links von anderen Websites die wichtigste Grundlage für die Gewichtung der Suchergebnisse von Google. Dies war eine Revolution. Statt auf Meta-Keywords und Häufigkeit von Begriffen zu setzen, war auf einmal relevant, wie häufig eine Seite verlinkt wurde.

Die These dahinter: Eine Seite, die häufig verlinkt wird, liefert offensichtlich wertvolle Information. Der Nachteil: Backlinks sind leicht manipulierbar. Schnell gab es ganze Linkfarmen, Links zur Miete und zum Kauf und viele andere Strategien des Linkaufbaus.

Obwohl Google praktisch von der ersten Stunde an sagte, dass unnatürlicher Linkaufbau “böse” ist, entwickelte sich eine ganze Industrie. Suchmaschinenoptimierung war lange Zeit im Kern Linkaufbau (und ein bisschen grundlegende Optimierung der maschinellen Lesbarkeit der Website).

Google kämpft gegen Manipulation durch SEO

Schon 2003 erschütterte das erste große Google-Update die Branche. Unter dem Namen “Cassandra” veränderte Google die Bewertung von Links und konnte versteckte Links und Text erkennen. Mit den großen bekannten Updates wie “Panda”, “Penguin” und “Hummingbird” änderte Google immer wieder Teile des Algorithmus, um künstliche Links und über-optimierte Inhalte zu erkennen und solche Seiten abzuwerten oder sogar aus den Suchergebnissen auszuschließen. Viele Seiten mit ehemals sehr hohen Rankings wurden abgewertet und mussten viel Arbeit investieren, um sich wieder nach oben zu arbeiten.

Paradox dabei: Agenturen, die zuerst für den Aufbau dieser Links bezahlt worden waren, machten auf einmal Angebote zum Linkabbau. Hunderte Blogger, die einmal gut dafür bezahlt worden waren, in einem Blogbeitrag die Seite eines Kunden zu verlinken, wurden nun gebeten (und manchmal auch erneut dafür bezahlt), diese Links wieder zu entfernen. Alles nur, damit das Linkprofil wieder “sauber” wurde und man als geläuterter Sünder um Neubewertung bei Google bitten konnte.

Dabei war schon immer klar, was Google möchte: Seiten, die dem Besucher gefallen. Die erste Unternehmensregel von Google ist seit Beginn: “Der Nutzer steht an erster Stelle, alles Weitere folgt von selbst”. Künstliche Links und für die Suchmaschine optimierte Texte stellen mit Sicherheit nicht den Besucher in den Mittelpunkt - und sind entsprechend nicht der richtige Weg, um langfristig bei Google erfolgreich zu sein.

Aber egal, ob man den kurzfristigen oder den langfristigen Erfolg bei Google sucht: User-Signals sind für Google immer einfacher messbar und werden immer wichtiger für die Darstellung der Suchergebnisse.

Denn bei genauerer Betrachtung ist Google viel mehr als eine Suchmaschine. Googles “Chrome” ist einer der meistgenutzten Webbrowser. Google Analytics ist eine der meistgenutzten Webanalyse-Lösungen. Android ist eines der meistgenutzten Betriebssysteme für Smartphones. All diese Programme und Geräte sammeln Daten und senden viele Informationen an Google.

Google weiß also ganz genau, auf welchen Websites die Besucher länger bleiben (weil sie die gesuchten Informationen oder Produkte finden) und bei welchen sie schnell wieder gehen. Alle Studien zu den Ranking-Faktoren bei Google zeigen entsprechend, dass User-Signals immer wichtiger werden. Dabei stechen vier Signale besonders heraus:

  • Click-Through-Rate

  • Back-to-SERP-Rate

  • Bounce-Rate

  • Nutzungsdauer

User-Signals im Detail

User-Signals sind nicht so einfach zu manipulieren wie Links oder Text. Es reicht nicht, ein paar Seiten im WWW zu verändern - man muss wirklich das Besucherverhalten beeinflussen. Zudem ist es sehr schwer, Google ein anderes Besucherverhalten vorzutäuschen: Google würde beispielsweise automatisierte Seitenbesuche sofort erkennen, die Besucher mit geringer Bounce-Rate und hoher Nutzungsdauer vortäuschen sollen.

Click-Through-Rate

Wohl am meisten Einfluss hat ein User-Signal, was noch direkt auf der Ergebnisseite von Google ausgesendet wird: der Klick auf das eigentliche Suchergebnis (“Click-Through-Rate”). Suchergebnisse, die häufig geklickt werden, werden weiter oben angezeigt. Entsprechend muss man sich große Gedanken dazu machen, was man Google an Informationen für die Überschrift und den Beschreibungstext liefert, damit dieser geklickt wird. Die klassische Methode, hier die Suchbegriffe einzubauen, bei denen man gefunden werden will, ist schon lange nicht mehr der Königsweg.

Stattdessen muss analysiert werden, was die Besucher wirklich interessiert und genau dies muss im sogenannten “Snippet” stehen. Da hier viel manipuliert wurde, sinkt der Einfluss, den man selbst auf die Gestaltung des Snippets hat. Immer häufiger generiert Google das Snippet selbst und ignoriert Vorgaben.

Back-to-SERP-Rate

Eng damit verbunden ist das User-Signal der “Rücksprung-Rate” (“Back-to-SERP-Rate”). Unter einem Rücksprung versteht man, wenn ein Benutzer auf ein Suchergebnis klickt und sehr schnell wieder auf den “Zurück”-Knopf seines Browsers drückt, um wieder zu den Suchergebnissen (Search Engine Result Page) zurückzukommen.

Ganz klar: Wenn Besucher wieder zu den Suchergebnissen zurück wollen, haben sie auf der Seite nicht das gefunden, was sie eigentlich gesucht habe. Die Seite sollte also weiter unten in den Suchergebnissen angezeigt werden. Rücksprünge gilt es also in jedem Fall zu verhindern, da sie so etwas wie der “Worst Case” für das Ergebnis einer Google-Suche sind.

Inhalt dieses Artikels