On-Page Optimierung

On-Page Optimierung

Wer heute eine neue Internet-Präsenz für sein Unternehmen, einen Online-Shop oder irgendeinen anderen Web-Auftritt plant, über welchen Anfragen generiert und Aufträge akquiriert werden sollen, muss sich von Anfang an intensiv mit On-Page Optimierung beschäftigen.

Wozu das alles?

Es gibt Millionen von Internetseiten, Tendenz stark steigend. Damit wird es für jeden einzelnen Web-Auftritt rein statistisch gesehen immer schwieriger, überhaupt wahrgenommen zu werden. Eine der wichtigsten Quellen für Internet-Traffic ist dabei die organische Suche, also wenn Menschen in Suchmaschinen wie Google oder Bing nach bestimmten Stichwörtern und Themen recherchieren. Und diese Suchmaschinen liefern als Ergebnis meist hunderte bis tausende von URLs. Da aber nur die Ergebnisse auf den ersten wenigen Seiten wirklich relevant sind und gelesen werden, geht es darum, mit seiner eigenen Internet-Seite für bestimmte Suchkriterien möglichst weit vorne aufgeführt zu werden.

Das große Geheimnis

Eines der best-gehüteten Geheimnisse sind die Algorithmen der großen Suchmaschinen, allen voran Google. Durch zahlreiche Experimente filtern Heerscharen von Online Marketing Experten regelmäßig einige der wesentlichen Parameter heraus  sowie die Gewichtung, die diese vermutlich bei der Berechnung von relevanten Suchergebnissen haben. Google selbst liefert auch seine eigene Beschreibung dessen, was gut bewertet und was abgestraft wird, wobei jedoch niemand außerhalb des Unternehmens selbst die genauen Algorithmen kennt. Zumal diese auch regelmäßig verändert werden. In der Summe hilft diese Analyse dabei, einen Internet-Auftritt sowohl durch Optimierung der Internetseite selbst (On-Page Optimierung) als auch durch andere Online Marketing Maßnahmen (Off-Page Optimierung) so zu gestalten, dass er von Google & Co. möglichst immer dann besonders weit vorne in einer Suchergebnisliste angezeigt wird, wenn User nach Begriffen (Keywords) suchen, die für den Business Case der Seite relevant sind.

Nehmen wir ein einfaches Beispiel: Sie sind Hersteller von Holzspielzeug und möchten sicherstellen, dass Ihre neue Homepage und relevante Teilbereiche Ihrer Webseite ein gutes Ranking erzielen, wenn jemand über Google nach Holzspielzeug sucht. Um zunächst zu verstehen, welche Stichwörter bzw. Keywords dafür tatsächlich die wichtigsten sind, sollten Sie im ersten Schritt eine Keyword-Analyse durchführen. Dabei wird mithilfe entsprechender Tools festgestellt, nach welchen Stichwörtern und Stichwort-Kombinationen am häufigsten im Internet gesucht wird. Dieses Ergebnis ist auch für Off-Page Maßnahmen besonders wichtig, aber auch im On-Page Bereich kann es Ihnen entscheidend weiterhelfen, wie wir noch sehen werden.

Klare Struktur der Webseite

Der Aufbau einer Webseite sollte möglichst klar strukturiert sein. So wie ein Mensch, der sich eine Webseite ansieht, möglichst intuitiv und schnell erkennen sollte, worum es geht und welche Unterseiten es zu welchen Themen gibt, muss auch der Suchalgorithmus einer Suchmaschine eine Internetseite verstehen können. Gelingt das nicht, wird die Seite entweder falsch interpretiert oder als zu unverständlich und unübersichtlich im Ranking abgestraft. Die URL jeder Seite sollte auch sprechend sein, indem sie den Inhalt der Seite als Überschrift beschreibt, und das möglichst kurz.  Automatisch generierte URLs können in den gängigen CMS (Content Management Systemen) auch manuell umbenannt werden, um sie so zu präzisieren und zu verkürzen. Gängige Suchmaschinen überprüfen auch, ob eine URL mit der Überschrift der Seite Gemeinsamkeiten aufweist. Je stärker die Übereinstimmung, desto besser die Bewertung. Wenn Sie also auf einer Unterseite Ihrer Holzspielzeug-Homepage die Überschrift „Die Geschichte des Holzspielzeugs“ verwenden, könnte eine gute URL für diese Unterseite z.B. www.holzspielzeug-manufaktur.de/geschichte-des-holzspielzeugs heißen.

Hier kommen dann auch die Ergebnisse Ihrer Keyword-Analyse zum Tragen: Wenn die am häufigsten gesuchten Keywords „Holzspielzeug“ und „Spielzeug aus Holz“ sind, dann sollten genau diese Begriffe sowohl in der Überschrift einer Seite auftauchen als auch in den entsprechenden URLs eben dieser Seiten. Sie optimieren damit die Chance, dass ein Suchalgorithmus genau Ihre Seite für diese am meisten verwendeten Suchbegriffe findet und als relevant bewertet – und damit weit oben in der Ergebnisliste positioniert.

Zu einer gut strukturierten Seite gehört auch eine Sitemap, die für Suchmaschinen ähnlich wie ein Inhaltsverzeichnis funktioniert. Mit ihrer Hilfe versteht der Roboter einer Suchmaschine (bei Google also der Googlebot), wie eine Seite aufgebaut und ob die Struktur klar und einheitlich ist.

Der Teufel im Detail

Wenn wir über Seitenüberschriften sprechen, dann meinen wir damit die erste Zeile einer bestimmten Seite, die als H1 Überschrift markiert sein muss. Google und andere Suchmaschinen erkennen an diesem H1-Marker, dass es sich tatsächlich um eine Seitenüberschrift handeln soll, entsprechend werden H2-Marker zur Kennzeichnung von Unter-Überschriften innerhalb einer Seite verwendet. Wer also nicht explizit H1 und H2 als Kennzeichnung verwendet und statt dessen normalen Text in Fett oder Kursiv markiert, erzielt zwar ggf. die gleiche optische Wirkung, vergibt aber wertvolles Ranking-Potential.

Ebenso ist zu beachten, dass für jede Seite eine Meta-Beschreibung erstellt und die wichtigsten Keywords der Seite separat aufgelistet werden sollten. Dafür gibt es in allen gängigen CMS entsprechende Felder, es ist also schnell und einfach zu machen. Ebenso bieten CMS für gängige SEO-Kriterien (SEO = Search Engine Optimization) eine Ampelfunktion, die Ihnen signalisiert, ob ein Seitentext zu schwierig zu verstehen ist, die Überschriften keine der für diese Seite definierten Keywords enthalten, Bilder fehlen, usw.

Eine vielfach unbeachtete Stolperfalle sind JavaScript Frameworks wie AngularJS oder jQuery, mit deren Hilfe das Frontend entwickelt werden kann als Alternative zu reinem HTML. Viele der Suchmaschinen tun sich schwer damit, JavaScript Code vernünftig auszulesen, was dazu führt, dass bestimmte Inhalte einer Webseite unvollständig, falsch oder gar nicht von der Suchrobotern berücksichtigt werden. Wirklich bedenklich ist, dass selbst Google sein eigenes Framework AngularJS nicht vollständig versteht. Einen umfassenden Testbericht dazu kann man hier nachlesen: https://goralewicz.com/blog/javascript-seo-experiment/ . Die meisten Probleme lassen sich ganz gut umgehen, wenn man auf sog. Client-Rendering verzichtet und stattdessen Server-Rendering verwendet. Auch das ist also eine klassische Stolperfalle, über die man bereits bei der technischen Konzeption eines Webauftritts nachdenken muss.

Besonders im B2C-Bereich, aber auch zunehmend im B2B-Umfeld werden Internetseiten auf Smartphones oder Tablets verwendet. Es ist daher unerlässlich, einen Webauftritt mit einem guten Responsive Design zu entwickeln, damit die wesentlichen Kernfunktionen auch mobil gut genutzt werden können. Suchmaschinen bewerten inzwischen auch alle möglichen Parameter wie z.B. Ladezeiten dediziert für die mobile Version einer Seite.

Content ist King

Ein absolutes Schwergewicht bei der Bewertung der Relevanz einer Internetseite ist der darin enthaltene Content. Das bezieht sich zunächst auf den Text selbst, der klar und fokussiert gehalten sein und die wichtigsten Keywords für das jeweilige Thema der Seite beinhalten sollte. Die Anzahl der im Text enthaltenen Keywords bezeichnet man auch als Keyword-Dichte, die allerdings auch nicht zu hoch sein darf, da die Suchalgorithmen sonst Spam-Text vermuten. Denn kein normaler Text würde ein bestimmtes Keyword oder eine feste Keyword-Kombination z.B. 20 Mal wiederholen.

Neben dem geschriebenen Wort sind zunehmend auch Bilder und Videos von Bedeutung, sodass ein eigener Youtube-Account, von dem regelmäßig Videos auf der Webseite verlinkt werden können, stark an Bedeutung gewinnt. Besonders Google bewertet Videos sehr positiv – ein Schelm wer Böses dabei denkt, nur weil Youtube zu Google gehört. In die gleiche Richtung zielen auch andere Social Media Kanäle wie Facebook, Twitter, LinkedIn oder Google+ ab, die auf einer Webseite eingebunden werden. Je mehr, desto besser – Tendenz steigend.

Suchmaschinen sind über die Jahre deutlich intelligenter geworden und verfolgen ein klares Ziel: Sie möchten sicherstellen, dass die Liste der von ihnen gelieferten Suchergebnisse möglichst genau das anbietet, was der Suchende auch tatsächlich wissen möchte. Daher versuchen ihre Algorithmen, eine Internetseite so zu verstehen und zu interpretieren, wie auch ein Mensch das tun würde. Wer also im Internet z.B. nach der Geschichte von Holzspielzeug sucht, sollte nicht als Ergebnis einen Online-Shop erhalten, auf dem lediglich mehrmals der Text „Geschichte des Holzspielzeugs“ steht. Eine Webseite, die genau das versucht, wird daher von Google deutlich schlechter bewertet werden, als ein Online-Shop, der klar und deutlich benennt, dass er Holzspielzeug verkaufen will und sonst nichts – und der dann auch entsprechend weit oben im Ranking auftaucht, wenn tatsächlich nach „Holzspielzeug kaufen“ gesucht wird.

Wichtig ist auch, dass Content regelmäßig aktualisiert und ergänzt wird, da Suchalgorithmen feststellen können, ob sich auf einer Seite „etwas bewegt“ oder diese sehr statisch ist. Daher macht es in den meisten Fällen Sinn, einen Blog mit bzw. unterhalb einer Webseite zu betreiben, denn Blog Posts sind eine geschickte Möglichkeit, häufig neue Inhalte zu präsentieren und aktuelle Themen aufzugreifen. Und damit auch auf neue Keywords zu reagieren.

Geschwindigkeit ist Queen

Ein weiterer zentraler Parameter für Suchmaschinen ist die Geschwindigkeit einer Seite. Bei der Architektur und dem Software-Design gerade komplexer Webseiten im eCommerce-Bereich sollte man also unbedingt auf Performance achten. Das ist aus technischer Perspektive ein sehr komplexes Thema, hier spielen viele Faktoren und Parameter bei der Serverkonfiguration, dem Datenbank-Design, dem DB-Zugriffsmechanismus sowie den verwendeten Kommunikationsprotokollen und Frameworks eine Rolle.

Mit verschiedenen Tools wie z.B. Googles „PageSpeed Insights“ sowie manchen Browsern lassen sich Ladezeiten messen. Sind diese zu lang, bedeutet das mindestens eine Abstufung im Ranking der Seite, schlimmstenfalls wird die Seite von Google auch erst gar nicht indiziert. Dauert das Laden des DOMs (d.h. der reinen Struktur ohne Inhalte und Grafiken) einer Seite z.B. mehrere Sekunden, überspringt sie der Googlebot ganz einfach. Und eine nicht indizierte Seite bedeutet, dass Google sie nicht kennt und daher auch nicht als Suchergebnis anzeigen kann. Es gibt zwar Möglichkeiten, Seiten manuell von Google indizieren zu lassen, was aber bei umfangreichen Shops mit hunderten von Unterseiten und tausenden von Parameter-Kombinationen (z.B. aus Preis, Farbe, Größe, Material) nicht wirklich praktikabel ist.

Eine interdisziplinäre Sache

Was On-Page Optimierung in der Praxis schwierig macht ist der Umstand, dass es sich um eine wirklich interdisziplinäre Herausforderung handelt. Einige der wichtigsten Parameter können nur von Software-Architekten, Datenbank-Designern und Entwicklern berücksichtigt werden, während Content und die SEO-Optimierung der Webseiten innerhalb eines CMS von Webmastern oder Online Marketing Fachleuten vorgenommen werden müssen. Die hier vorgestellten Punkte sind natürlich nur eine kleine Auswahl, und zu jedem einzelnen Thema gibt es eigene Internet-Foren, Literatur und Events.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert