Keine SEO-Fehler mehr

Gesucht - gefunden: Die Grundlagen der Google-Optimierung

26.11.2007
Von Handelsblatt 

Hervorhebungen einzelner Worte mittels b- oder strong-Tag scheinen sich laut der Analyse ebenfalls auf das Ranking auszuwirken, ebenso wie der Alternativtext von Bildern. Sehr relevant scheint auch der Hostname zu sein, also der Teil der Webadresse bis zur Domainendung (z.B. .de in Deutschland). Die Wörter im restlichen Pfad der Webadresse scheint Google dagegen zu ignorieren. Bei der Registrerung der Domain ist daher eine Webadresse von Vorteil, die einen häufig gesuchten Begriff bereits im Titel hat. Ein Gebrauchtwagenhändler, der seinen Web-Auftritt beispielsweise unter einer Adresse wie www.gebrauchtwagen-mueller.de anbietet, hätte gegenüber einem Konkurrenten, der unter der Domain www.mueller-gmbh.de zu finden ist, einen Vorteil.

Allerdings sollte eine bereits seit längerem registrierte Domain auch nicht leichtfertig aufgegeben werden. Je älter eine Domain ist, desto vertrauenswürdiger erscheint sie Google. Neue Websites werden zunächst nur "auf Probe" in den Index aufgenommen und erscheinen meist erst sehr weit hinten in den Ergebnissen beim Suchmaschinenriesen, weil SEO-Spammer jeden Tag hunderte Domains sichern, um mit externen Links den Pagerank der Seite zu verbessern.

Bei einer zu exzessiven Benutzung von relevanten Suchworten wertet Google die entsprechende Seite allerdings ab oder zeigt sie gar nicht mehr an, wenn nach einem Begriff gesucht wird, der zu häufig auf der Seite auftaucht. In diesem Fall vermutet der automatische Google-Algorithmus nämlich sogenanntes "Keyword stuffing", also die absichtliche Anhäufung von suchrelevanten Worten auf einer Seite. Dagegen hilft eine möglichst natürliche, abwechsungslreiche Sprache. Wenn die Seiten in erster Linie für die Leser geschrieben wurden und nicht für Suchmaschinen, liegt man damit schon mal nicht völlig daneben.

Mittels Web-Tools wie auf www.linkvendor.com kann außerdem untersucht werden, wie häufig ein bestimmte Schlüsselwort auf einer der Seite verwendet werden. Die so gemessene Keyword-Dichte sollte bei den am häufigsten verwendeten Schlüsselworten im Optimalfall bei rund drei bis vier Prozent liegen. Ein Wert darüber wird meist als "Keyword Stuffing" interpretiert und dementsprechend abgestraft.

Hilfreich ist oft auch eine eingehende Analyse der Besucher einer Website. Google Analytics wertet beispielsweise kostenlos den Traffic der eigenen Seite aus. Damit ist es unter anderem möglich zu sehen, über welche Suchbegriffe die Website wie häufig gefunden wird und aus welchen Ländern und Städten die Besucher der eigenen Website stammen. Mit diesen und ähnlichen Tools, deren JavaScript-Code in die Seite eingebaut wird, ist es beispielsweise möglich, mit verschiedenen Keywords im Titel zu experementieren und zu analysieren, welche Kombination von Worten die meisten Besucher über Suchmaschinen auf die Seite leitet.

Wirklich wichtig ist jedoch weniger die reine Anzahl an Besuchern als vielmehr die Anzahl der Besucher, die zu Kunden des Unternehmens werden. Dazu lassen sich bei Google Analytics sogenannte Konversions-Ziele festlegen. Solche Ziele können beispielsweise die Registrierung auf der Seite sein, das Eintragen in den unternehmenseigenen Newsletter oder der Kauf eines Produkts im Onlineshop. Es ist auch möglich verschiedene Konversions-Ziele zu definieren, denen jeweils ein bestimmter monetärer Wert zugemessen wird. So können Sie nicht nur untersuchen, welche Maßnahmen möglichst viele Besucher auf Ihre Seite locken, sondern auch, welche Maßnahmen möglichst viele Besucher der Website in Kunden des Unternehmens verwandelt. Letztlich hat das Unternehmen nur an solchen Besuchern ein wirkliches Interesse, die auf ein Angebot stoßen, nach dem sie wirklich gesucht haben.

Einer der größten Fallstricke bei der Indexierung von Websiten stellen Web-Techniken wie JavaScript und Flash dar. Wer auf die bunten Effekte solcher Technologien nicht verzichten kann oder will, sollte wenigstens darauf achten, dass die gesamte Website auch ohne installiertes Flash-Plugin und ohne aktiviertes JavaScript zugänglich ist. Insbesondere sollten Links daher weder mit Flash noch mit JavaScript realisiert werden, sondern nur mit normalem HTML. Das ist auch im Sinne eines möglichst barrierefreien Webauftritts, der auch Menschen mit Behinderung zugänglich ist.

Wer sich einmal in die Lage eines Suchmaschinen-Roboters versetzen möchte, dem sei ein reiner Textbrowser wie Lynx empfohlen. Auf www.delorie.com lässt sich der Textbrowser auch direkt im eigenen Webbrowser emulieren, ohne dass eine Installation nötig ist. Nur wenn es mit Lynx möglich ist, zu jeder Unterseite zu navigieren, können auch Suchmaschinen die gesamte Web-Präsenz ohne Probleme indexieren.

Dabei ist auch zu beachten, dass Text in Grafiken und Flash-Animationen niemals indexiert wird. Für Grafiken empfiehlt sich hier eine sinnvolle Verwendung des Alt-Tags, welches dazu genutzt werden sollte, das entsprechende Bild aussagekräftig zu beschreiben. Auch dies ist wiederum für Suchmaschinen sinnvoll, die für Grafiken blind sind, sondern auch im Sinne der Barriefreiheit wichtig, insbesondere dann, wenn Grafiken zur Navigation genutzt werden.

Bei kommerziellen SEO-Anbietern ist zu berücksichtigten, dass diese nur ethisch korrekte Maßnahmen zur Suchmaschinenoptimierung angwendet werden. Maßnahmen, die gegen die Richtlinien der Suchmaschinen verstoßen, führen im schlimmsten Fall zum Ausschluss aus dem Index. Eine Wiederaufnahme kann nach einer gewissen Zeit zwar beantragt werden, falls die beanstandeten Faktoren beseitigt sind. Bis dahin gehen jedoch wichtige Zeit und Kunden verloren.

Frei nach dem einst von dem chinesischen Revolutionär Mao Zedong ausgegebenen Motto "Bestrafe einen, erziehe hunderte" schreckt Google nicht davor zurück, selbst große und bekannte Firmen abzustrafen, wenn diese gegen die von Google ausgegebenen Richtlinien für Webmaster verstoßen. So wurde die Website des Autoherstellers BMW vorübergehend komplett aus dem Index verbannt. BMW hatte sogenannte Doorway-Pagesdazu genutzt, Suchwörter zu generieren, die auf dem eigentlichen Web-Auftritt gar nicht vorhanden waren.

Besonders argwöhnisch betrachten Google und Co sämtliche Techniken, die zum Verbergen von Suchwörtern dienen. Es kann allgemein davon ausgegangen werden, dass jede Technik, die Suchmaschinenrobotern einen anderen Inhalt vorgaukelt, als ihn Besucher der Seite tatsächlich sehen, gegen die Richtlinien verstößt. Letztlich kochen aber auch die professionellen SEO-Dienstleister nur mit Wasser. Wunder sind daher nicht zu erwarten, ähnlich gute Erfolge lassen sich meist auch auf eigene Faust erzielen, so lange die in diesem Artikel geschilderten Grundlagen beachtet werden.