Top 5 Quick Wins | SEO Part II

Mit diesen 5 SEO-Quick-Wins verbessern Sie das Ranking Ihrer Website im Nu


Stellen Sie sich vor, Sie haben in mühevollen Stunden liebevoller Detailarbeit Ihre Website entwickelt und freuen sich auf das große Eröffnungsfeuerwerk, doch der Funke springt nicht über. In unseren letzten 50 SEO-Audits stellten wir fest, dass es oft nur kleine technische Hürden sind, die verhindern, dass die Besucher durch die Tore der Suchmaschinen strömen.

Mit der richtigen Technik gießen Sie das Fundament für langfristige Erfolge in Suchmaschinen. In vielen Fällen verhindern kleine technische Fehler, dass Besucher überhaupt über Google, Bing und Co. auf Ihre Seite gelangen. Doch zum Glück lassen sich diese schnell beheben. Also keine Panik, Sie müssen lediglich wissen, was genau Sie überprüfen sollten. Ob Entwickler, Content-Manager oder Shopbetreiber lernen Sie, wie Sie mit einfachen Kniffen das volle technische SEO-Potenzial Ihrer Website nutzen. Los geht es, mit unseren Top 5 Quick-Wins:
 

1.    Bereinigen Sie die robots.txt

Oft verbieten Entwickler während der Webentwicklung, Suchmaschinen die komplette Website oder bestimmte Inhalte zu erfassen. Dies geschieht über die sogenannte robots.txt. Zu diesem Zeitpunkt macht das auch total Sinn, da eine halbfertige Seite eben nicht für Besucher sichtbar sein soll werden soll. Leider wird oft vergessen, diesen Befehl wieder zu entfernen, sobald die Website fertiggestellt wurde.

Überprüfen Sie deshalb, ob die Entwickler die robots.txt für die Seite, die sie untersuchen, gelöscht haben und geben Sie folgenden Pfad in den Browser ein: www.meine-url.de/robots.txt. Durchsuchen Sie die robots.txt nach den folgenden fett geschriebenen Einträgen:

  • disallow:* oder disallow: /: Dieser Befehlt bedeutet, dass die gesamte Seite von Suchmaschinen – speziell von Google – nicht erfasst werden darf.
     
  • disallow: /meine-kategorieseite: Dieser Befehl sagt, dass die genannte Seite und alle URL-Pfade, die darunter liegen, nicht von Suchmaschinen erfasst werden dürfen.
     
  • User-Agent: Googlebot – Disallow: /: Der Befehl verweigert ganz speziell Google, die Seite zu crawlen. Da Google einen Marktanteil von 90% bis 95% in Deutschland besitzt, geht Ihnen so sehr viel Suchmaschinen-Traffic verloren.

In der Regel reicht es, den Befehl aus der robots.txt zu entfernen und Ihre Website startet in den Suchmaschinenergebnissen durch.


2.    noindex aus dem Quellcode entfernen

Wenn Sie trotz der Bereinigung der „robots.txt“ den Eindruck haben, dass bestimmte Seiten noch immer nicht in der Suchmaschine zu finden sind, dann gibt es zwei weitere Dinge, die Sie überprüfen sollten:

Es gibt einen kleinen Befehl im Quellcode einer Webseite, der Suchmaschinen anweist, dass eine Seite nicht in den Index aufgenommen werden darf. Wenn Sie bei bestimmten Seiten den Eindruck erhalten, dass diese nicht in der Suchmaschine zu finden sind, dann gibt es zwei Möglichkeiten dies herauszufinden:

  • Geben Sie in der Google Suche „site:www.meine-url.de“ ein. Google zeigt Ihnen anschließend alle Seiten an, die mit dem angegebenen Pfad indexiert wurden.
     
  • Fehlen bestimmte Inhalte, können Sie in den Quelltext der entsprechenden Seite gehen und nach dem Tag noindex suchen. Finden Sie diesen, sollten Sie sicherstellen, dass er entfernt wird.

Übrigens dauert es ein paar Tage bis eine Seite, z.B. bei Google, überhaupt in den Suchergebnissen landet. Je nach Größe der Seite müssen Sie sich leider auch bis zu drei Monate gedulden, bevor Ihre Inhalte das volle SEO-Potential entwickeln.

 

3.    Verkleinern Sie Bilder für eine bessere Ladegeschwindigkeit

Die Ladegeschwindigkeit einer Webseite entwickelt sich zu einem immer stärkeren Rankingfaktor, da das Smartphone Desktop PCs oder Laptops zunehmend ablöst.

Mit dem PageSpeed-Insights von Google können Sie herausfinden, wie schnell Ihre Webseite derzeit ist und welche Optimierungsmaßnahmen empfohlen werden. Geben Sie dazu einfach die URL, der Seite ein, die Sie untersuchen möchten. Da das Tool immer nur die jeweilige URL untersucht, empfehlen wir Ihnen jede Seitenart (Startseite, Kategorieseite, Produktseite, etc.) stichprobenartig zu untersuchen. Im Idealfall auch zu verschiedenen Zeitpunkten, denn die Auslastung einer Webseite hat ebenfalls großen Einfluss auf die Ladezeiten.

Google empfiehlt Ihnen dann zahlreiche Maßnahmen, die Sie berücksichtigen sollten, um die Ladezeiten Ihrer Website zu optimieren. Da viele dieser Maßnahmen hohe Aufwände erzeugen, empfehlen wir Ihnen zunächst die folgenden umzusetzen:

  • Bildgrößen verringern: In vielen Fällen komprimieren Shopsysteme die hochgeladenen Bilder nicht und so gelangen Varianten mit einer Größe von mehreren MB auf Ihre Webseite. Sie können sich bei der aktuellen Netzabdeckung in Deutschland vorstellen, wie gut Sie die Seite auf dem Smartphone laden können, oder? Da das Nutzererlebnis für den Google Crawler eines der zentralen Bewertungskriterien ist, sorgt dies für eine negative Bewertung Ihres Online-Auftritts. Probiere Sie also die Bildgrößen zu verringern. Mit gängigen Bildbearbeitungsprogrammen, wie Photoshop, ist das in wenigen Augenblicken erledigt
     
  • Caching aktivieren: Mit einem aktivierten Browser-Caching sorgen Sie dafür, dass bereits geladene Inhalte für einen bestimmten Zeitraum im Browser zwischengespeichert werden. Ihr Entwickler sollte die Aktivierung mit wenig Aufwand realisieren und die Ladezeit deutlich reduzieren.

    
4.    Entwickeln Sie einen Plan für Weiterleitungen

Viele von uns haben sicherlich schon mal bei einem Umzug einen Nachsendeantrag bei der Post gestellt. Alle Briefe, die an die alte Adresse gehen, werden abgefangen und an Ihre neuen vier Wände weitergeleitet. Vom Prinzip her verhält es sich im Idealfall genauso, wenn URLs auf einer Website geändert oder gelöscht werden. Mit einer Weiterleitung – auch Redirect genannt – lässt sich signalisieren wo sich die verschwundenen Inhalte künftig befinden. Bestehende SEO-Erfolge in den Suchmaschinen lassen sich so auf die neuen Seiten übertragen und gehen nicht verloren Da es permanente und vorübergehende Weiterleitungen geben kann, gibt es zwei Varianten von Redirects:

  • 301-Redirect: Dieser sendet das Signal, dass eine Seite permanent umgezogen ist und jetzt unter einer anderen URL zu finden ist. Also eben genau das, was in der Regel bei einem Relaunch passiert.
     
  • 302-Redirect: Dieser sendet das Signal, dass eine Seite vorübergehend umgezogen ist, jedoch in absehbarer Zeit wieder auf die aktuelle Seite zurückkehrt.

Auf vielen Seiten werden 302-Weiterleitungen eingesetzt, obwohl Seiten permanent umgezogen sind. Das verursacht, dass Suchmaschinen die SEO-Werte nicht auf die neue Seite transferieren, sondern für die alte Variante aufbewahren. Sie erwarten schließlich, dass die Seiten nur vorübergehend umgezogen sind und irgendwann zurückkehren. Das Problem dabei ist, dass die bisherige SEO-Power nicht auf die neue Seite übertragen wird. Hier reicht es aus, eine 302-Weiterleitung in eine 301-Weiterleitung umzuwandeln.

Einer der häufigsten SEO-Fehler bei einem Relaunch besteht darin, dass die Weiterleitungen vergessen werden und der organische Traffic der Webseite einbricht. Falls bei Ihrem Relaunch kein Weiterleitungsplan zum Einsatz kam, sollten Sie so schnell wie möglich versuchen die URLs nachträglich weiterzuleiten. Dafür haben wir zwei wichtige Tipps für Sie:

  • Muster erkennen: Oft gibt es bestimmte Muster, wie sich die URLs geändert haben. Legen Sie die Weiterleitungen nach genau diesem Schema an. Ihre Rankings erholen sich dadurch, allerdings nur zu einem gewissen Teil.
     
  • Statuscode 404 – Seite nicht gefunden: Nach der Löschung von URLs geben diese in der Regel den Server-Statuscode 404 wieder, falls diese nicht weitergeleitet wurden. Sie können diese Seiten zum Beispiel in der Google Search Console, einem kostenlosen Analysetool, abrufen und die SEO-Potentiale zum Teil noch retten, indem Sie nachträglich eine Weiterleitung einrichten.

Je länger Sie warten, umso unwahrscheinlicher erhalten die Seiten ihre alten SEO-Werte zurück. In keinem Fall sollten Sie alte Seiten beispielsweise einfach alle auf die Startseite weiterzuleiten. Google erkennt dies und wertet das Vorgehen als eine Art Betrugsversuch. Die Ersatzseite sollte der Vorgängerseite auf jeden Fall inhaltlich ähnlich sein.

 

5.    Vermeiden Sie technisch verursachten Duplicate Content durch doppelt indexierte Inhalte

Bereits minimale Unterschiede in den URLs führen dazu, dass Suchmaschinen nicht mehr erkennen, dass es sich um eine identische URL handelt. Dies passiert, wenn in der Entwicklung Varianten der Seite nicht permanent auf eine priorisierte Version weitergeleitet wurden. Zum Beispiel: www.hmmh.de und hmmh.de. Der Google Crawler vermutet jetzt, dass hier zwei unterschiedliche Seiten vorliegen und wertet beide Seiten einzeln. Die Beiden (eigentlich) identischen Varianten konkurrieren hierdurch miteinander. Suchmaschinen werten die Keywords schlechter, da sich das gesamte SEO-Potenzial nun zu jeweils 50 Prozent auf beide Seiten aufteilt. In diesem Fall spricht man von internem Duplicate Content. Wertet die Suchmaschine die Inhalte korrekt als eine Seite, klettert der Inhalt in die Top-Positionen und Sie freuen sich über viele neue Besucher. Überprüfen Sie einfach die drei folgenden Fälle, um die beschriebene Problematik zu identifizieren und zu beheben:

  • Seiten können mit und ohne „www“ aufgerufen werden. Geben Sie die URL einfach einmal mit und einmal ohne „www“ in den Browser ein und gucken Sie, ob Sie bei einer Variante auf die priorisierte Version weitergeleitet werden. Ob mit oder ohne ist dabei vollkommen egal. Wichtig ist nur, dass es lediglich eine Variante gibt. Sind beide Varianten aufrufbar, kann Ihr Entwickler das Problem mit einem kurzen Eintrag in der htaccess beheben.
     
  • Seiten können mit „http“ und „https“ aufgerufen werden. Auch hier lässt sich ganz einfach im Browser testen, ob die Seite von „http“ auf „https“ weiterleitet. Das Problem lässt sich, wie beim vorherigen Punkt, mit einem Eintrag in der htaccess lösen.
     
  • Fast alle Seiten nutzen sogenannte Parameter, beispielsweise www.hmmh.de?p=1. Alles ab dem Fragezeichen stellt einen Parameter für unterschiedliche Zwecke (Suche, Filter, Nachverfolgung von Marketingkampagnen) dar. Das hat auch alles seine Richtigkeit, jedoch befinden sich hierdurch verschiedene URL-Varianten der gleichen Inhalte auf der Website, da Suchmaschinen nicht erkennen, dass es sich bei www.hmmh.de und www.hmmh.de?p=1 um die identische Seite handelt. Hierfür benötigen Sie den sogenannten Canonical-Tag, der jeweils angibt, dass die Inhalte gleich sind, jedoch nur die parameterfreie URL für die Suchergebnisse berücksichtigt werden soll. Versuchen Sie einfach über Filter eine Parameter-URL zu erzeugen oder hängen Sie mit einem Fragezeichen und einem ausgedachten Wert im Browser bei der URL einen Parameter an – ja auch das funktioniert. Anschließend suchen Sie im Quellcode nach dem Eintrag canonical. Finden Sie diesen und steht dahinter die parameterfreie Variante, also www.hmmh.de, ist alles in Ordnung. Falls einer der beiden Fälle nicht zutrifft, gibt es hier Handlungsbedarf.


Fazit

Sie sehen, es gibt bereits kleine unscheinbare Gründe dafür, dass die Webseite von potentiellen Kunden unentdeckt bleibt. Haben Sie also den Eindruck, dass Ihre Seite sich in den Suchmaschinen nicht so richtig zum Kundenmagneten entwickelt, empfehlen wir Ihnen die oben genannten Punkte zu überprüfen. Im Rahmen eines technischen SEO-Audits überprüfen wir neben den oben genannten Fehlerquellen auch weitere wichtige, jedoch etwas komplexere Faktoren. Sprechen Sie uns gerne an, falls Sie bei der Optimierung Ihrer Webseite für Suchmaschinen Unterstützung benötigen.