SEO-Optimierung für Google

SEO Optimierung

Inhalt

SEO-Optimierung
Tools für Google SEO-Optimierung
Indexierung prüfen
Status Codes
Performance-Optimierung
Mobile Optimierung
UX (User Experience)
Hochwertige Inhalte
Google News und Discover
Keyword-Analyse
Wettbewerberanalyse
Content-Audit
Backlink-Audit
Logfile-Analyse
Snippet Optimierung
Seitenstruktur
Interne Verlinkung
Fragen und Feedback

SEO-Optimierung

Die meisten kommerziellen Websites sind auf Besucher angewiesen, um Umsatz zu erzielen. Organischer Traffic über Google spielt dabei oftmals eine wichtige Rolle. Jeder Nutzer in Deutschland sucht durchschnittlich 3-4mal pro Tag. Google hat einen Marktanteil von über 90%. Die Sichtbarkeit bei dieser Suchmaschine ist somit ein wesentlicher Erfolgsfaktor.

Suchmaschinenoptimierung gehört zu den effizientesten Marketing-Kanälen und stellt eine kostengünstige Möglichkeit dar für die Erhöhung der Reichweite eurer Website.

SEO steht für Search Engine Optimization oder auch Suchmaschinenoptimierung. Darunter wird eine Website-Analyse inkl. Ableitung geeigneter Maßnahmen für bessere Sichtbarkeit in den Suchergebnissen verstanden. Eigentlich ist „SEO-Optimierung“ also doppelt gemoppelt, hat sich aber dem Suchvolumen nach zu urteilen in den Sprachgebrauch eingebürgert.

SEO-Optimierung ist ein laufender Prozess und insbesondere immer dann empfehlenswert, wenn eine Website grundlegend auf Suchmaschinen-Tauglichkeit und Optimierungspotential untersucht werden soll. Das kann z.B. bei schlechten Rankings oder nach einem (Re)launch sinnvoll sein.

Bei der Aufnahme des Status Quo werden oftmals Fehler erkannt, die schnell beseitigt werden können – Mit positiven Effekten und besseren Rankings bei Google schon nach kurzer Zeit.

Mehr organischer Traffic durch SEO-Optimierung kann gleichzeitig zu Einsparungen bei Ausgaben für Online-Werbung führen (z.B. Google Ads).

Einen offiziellen „Startleitfaden zur Suchmaschinenoptimierung“, den ich jedem ans Herz legen möchte, gibt es bei Google. Grundsätzlich gilt beim SEO: Der Nutzer sollte im Mittelpunkt stehen.

In der folgenden Do it yourself Anleitung habe ich die aus meiner Sicht wichtigen Punkte für die SEO-Optimierung zusammengestellt. Die Anleitung richtet sich an SEO-Einsteiger mit Vorkenntnissen. 

Grundsätzlich wird zwischen Offpage- (insbesondere Generierung externer Links) und Onpage-Optimierung (auf der eigenen Webseite optimieren) unterschieden.

Tools für Google SEO-Optimierung

Ihr benötigt folgende Tools für die SEO-Optimierung:

  • Die kostenlose Google Search Console (GSC) ist die Schaltzentrale für Webmaster. Google gibt hier wichtige Übersichten zu Indexierung, Rankings, Backlinks, Schema-Auszeichnungen, Fehlern und mehr.
  • Der Screaming Frog (SF) SEO Spider (für kleiner Websites bis maximal 500 URLs kostenlos) crawlt sich ausgehend von einem Startpunkt durch alle URLs eurer Seite und gibt Einblicke u.a. in Struktur, Auszeichnungen und Performance.
  • Ahrefs (für eigene, verifizierte Websites kostenlos) ist ein Tool für die Analyse von Backlinks, Keyword-Monitoring und vieles mehr.
  • Die Webanalyse Software eurer Wahl (z.B. Matomo, Google Analytics etc.) hilft im Rahmen eines Content Audits beim Auffinden von Seiten mit wenig Traffic und/oder hohen Absprungraten.

Auf weitere kostenlose SEO-Tools verlinke ich im Text.

Indexierung prüfen

Ob eine Website überhaupt bei Google gelistet ist, lässt sich prüfen, indem bei Google der Befehl site:deinedomain.de eingegeben wird. Ihr seht im Ergebnis auch, wieviele Seiten ca. gefunden werden.

Alternativ findet sich die Abdeckung auch in der GSC, soweit diese schon angelegt ist. Es werden gültige und ausgeschlossene (nicht indexierte) Seiten angezeigt. Ausgeschlossene Seiten können etwa Redirects oder Seiten mit noindex-Auszeichnung sein.

Für die Suchmaschinenoptimierung und Indexierung eurer Website bei Google ist es hilfeich, wenn eine Sitemap existiert und sowohl in der robots.txt als auch in der Google Search Console hinterlegt wird. WordPress z.B. erstellt automatisch eine maschinenlesbare XML-Sitemap, die sich unter deinedomain.de/wp-sitemap.xml befindet.

Falls es Probeme mit der Indexierung gibt, oder Seiten im Google-Index vermisst werden, bieten sich folgende Wege für eine Fehlerbehebung an:

Unter deinedomain.de/robots.txt können Anweisungen für Suchmaschinen abgelegt sein. Ggf. sind Verzeichnisse oder einzelne Seiten für Google gesperrt. Mehr zur korrekten Einrichtung einer robots.txt findet sich z.B. hier.

Seiten können aber auch aus dem Index ausgeschlossen sein, weil – versehentlich oder beabsichtigt – eine noindex Direktive verwendet wird. Mit dem SEO Spider lässt sich überprüfen, ob alle Seiten indexierbar sind. Dazu nach einem Crawl unter dem Reiter „Internal“ in der Spalte „Indexability“ nachsehen (Sitemaps sind nicht indexierbar, das gehört so).

Insoweit ihr Seiten seht, die nicht auf noindex stehen sollten, könnt ihr der Sache in eurem CMS auf den Grund gehen. 

Grundsätzlich sollten aus SEO Sicht alle Seiten einer Website indexierbar sein, ansonsten sind sie vermutlich entbehrlich. Ausnahmen bestätigen die Regel. Gleichzeitig braucht es aus dem gleichen Grund keine nofollow Tags für interne Links. 

Für neu angelegte Domains dauert es i.d.R. ein paar Wochen, bis Google sie in den Index aufnimmt. Das ist ganz normal. 

Status Codes

Mit der o.g. SF Crawler-Software kann die technische Erreichbarkeit einer Webseite geprüft werden. Unter dem Reiter „Internal“ seht ihr Status Codes, die im Idealfall 200 (erfolgreiche Anfrage) heißen. Habt ihr 404 (Fehler) oder 301 (Weiterleitungen) innerhalb der Website oder bei ausgehenden Links, so solltet ihr das entsprechend fixen (z.B. entsprechende Links ersetzen oder löschen).

SEO Spider

Zudem bitte prüfen, ob ordnungsgemäße Fehlerseiten vorhanden sind, die einen 404 Code zurückliefern. Dazu eine Fehlerseite (z.B. deinedomain.de/dklsdsido) in einem HTTP Reponse Header Check analysieren. Das Design der Fehlerseite sollte so gewählt werden, dass ein Nutzer schnell Orientierung findet.

In einem Redirect Checker könnt ihr sehen, ob alle serverseitigen Weiterleitungen korrekt eingerichtet sind, also z.B. http auf https, www auf non-www inkl. alle Varianten. Im Idealfall gibt es jeweils immer nur genau eine Weiterleitung.

Zudem sollten unter SEO Aspekten alle Seiten jeweils nur unter einer URL erreichbar sein. Also nicht unter www und non-www und nicht unter https und http, nicht ohne / und mit /. Auch wenn eine entsprechende Kanonisierung vorhanden ist, macht es doch Arbeit für die Suchmaschinen, alles mehrmals zu crawlen. Und eingehende Links können zudem ggf. auf ungewünschte Ziel-URLs zeigen. 

Bei internationalen Websites müssen zudem hreflang Zuordnungen beachtet werden. Eine gute Übersicht dazu gibt es im Ahrefs Blog

Performance-Optimierung

Ladezeiten sind für Suchmaschinenoptimierung wie auch für Nutzer gleichermaßen wichtig. Google spart Geld für Server und Infrastruktur, wenn sich Webseiten schnell und schlank abrufen lassen. Nutzer sind zufriedener und konvertieren auch eher, wenn sie nicht auf das Laden von Seiten warten müssen. Das wissen wir alle aus eigener Erfahrung und zudem belegen es Studien.

Die Ladezeit einzelner URLs lässt sich z.B. mit den Pingdom Tools überprüfen. In der Auswertung werden alle Ressourcen der URL inkl. Ladezeiten angezeigt. Die Load Time ist gut, wenn sie unter 500 ms liegt.

Detaillierte Hinweise zur Optimierung gibt das Google Tool PageSpeed Insights. Hier werden auch Aussagen zur Erreichung der sog. Core Web Vitals gemacht, die für Google ab Mai 2021 auch als Rankingfaktor dienen. 

Die Core Web Vitals setzen sich zusammen aus:

  • Largest Contentful Paint (LCP): Hier geht es um die Ladezeit des größten grafischen Elementes. Ein guter Wert liegt unter 2,5 Sekunden
  • First Input Delay (FID) misst die Zeit bis zur Interaktivität (Bedienbarkeit) einer Seite. Der FID sollte unter 100 ms liegen.
  • Cumulative Layout Shift (CLS) ist das Maß für visuelle Stabilität. Hier werden initiale Layout-Verschiebung z.B. durch das Nachladen von Werbung oder Bildern verortet. Der CLS sollte kleiner sein als 0,1.

Um die rankingrelevanten Core Web Vitals zu optimieren, bieten sich generell u.a. folgende Maßnahmen an:

  • Schnelles Hosting
  • Performantes Server Setup (z.B. Nginx oder Apache mit fcgid)
  • Caching (z.B. Opcache, Memcached, FastCGI Caching, Litespeed, Redis oder Plugin)
  • Schlankes Website Setup mit nur notwendigem CSS und JS (WP-Themes z.B. Generatepress oder Neve). Alternativ: Jamstack-Website.
  • Kompression und Minifizierung nutzen
  • Bilderdateien verzögert laden
  • JS und CSS verzögert laden und kritisches CSS in den Header einbinden
  • Das rendern blockierende Ressourcen preloaden
  • Nicht-native Schriftarten und Icons reduzieren, svg verwenden
  • Tracking Code möglichst in Grenzen halten (schon Google Analytics und Tag Manager machen 50 KB).
  • Nutzung von HTTPS, HTTP/2 und HSTS

Validität von HTML und CSS spielt für die Performance i.d.R. keine Rolle, sollte aber aus Gründen der Wartbarkeit grundsätzlich i.O. sein. Ein Favicon steigert den Wiedererkennungswert und wird gesetzt, um tote Requests zu vermeiden (Browser suchen standardmäßig nach einem Favicon im Rootverzeichnis).

Mobile Optimierung

Neben den Core Web Vitals ist auch die mobile Optimierung einer Website ab März 2021 ein Ranking Faktor. Google wird dann ausschließlich einen Smartphone Bot für das Crawling einsetzen. Google bietet hier den Test auf Optimierung für Mobilgeräte an.

Google’s amp-Technologie für die effiziente Auslieferung mobiler Seiten ist keine Voraussetzung für schnelle Ladezeiten und hilft auch nicht bei SEO. Lediglich für bestimmte Formate in Google Discover ist es (noch) relevant.

UX (User Experience)

Von Bedeutung für Nutzer (und somit für die Suchmaschinenoptimierung) ist neben der Performance auch die UX, also die Bedienbarkeit und der optische Eindruck einer Website. Im einfachsten Falle Freunde und Bekannte fragen, wie das Nutzererlebnis eurer Webpräsenz auf sie wirkt. 

Schriften sollten groß genug dargestellt und Verlinkungen klar erkennbar sein. Störende Werbung, Popups und Interstitials möglichst vermeiden und nicht im direkt sichtbaren Bereich platzieren. Zudem sollten alle Autoren von Artikeln ausgewiesen sein.

Zu einer guten User Experience gehört auch, dass jede Seite einen erkennbaren Call to Action hat. Bei einem Blog kann das einfach das Lesen eines Artikels sein (messbar über Verweildauer), bei einer Marketing-optimierten Lead Gen Seite ist es vielleicht der Registrieren-Button (messbar als Conversion).

Das Google Tool web.dev misst neben den o.g. Performance Werten auch Best Practice, Accessibility und SEO. Entsprechende Defizite werden in der Auswertung skizziert und können angegangen werden. Die gleiche Analyse wie bei web.dev kann auch mit jedem Chrome Browser durchgeführt werden. 

lighthouse

Google stellt „UX Playbooks“ zur Verfügung, z.B. für News&Content, Lead GenHealthcare und Retail. Darin werden Best Practice Ansätze für unterschiedliche Website-Kategorien detailliert dargestellt.

Im Rahmen der UX-Analyse sollte auch betrachtet werden, wie eine Seite bei deaktiviertem Javascript lädt. Die grundlegenden Inhalte sollten möglichst sichtbar bleiben.

Hochwertige Inhalte

Was sind überhaupt qualitativ hochwertige Inhalte aus Sicht einer Suchmaschine? Google rät, u.a. folgende Fragen zur Beurteilung der eigenen Website aufzuwerfen: 

  • Werden Themen von echten Interessen der Leser bestimmt oder generiert die Website Inhalte indem versucht wird, zu erraten, was in Suchmaschinen gut funktionieren könnte? 
  • Enthalten Artikel Originalinhalte oder -informationen, Originalberichte, Originalrecherchen oder Originalanalysen? 
  • Bietet die Seite im Vergleich zu anderen Seiten in den Suchergebnissen einen erheblichen Wert? 
  • Wird ausreichende Qualitätskontrolle für die Inhalte durchgeführt? 
  • Beschreiben Artikel alle Aspekte eines Themas?
  • Würde diese Site als maßgebliche Quelle anerkannt? 
  • Ist dies die Art von Seite, die Nutzer als Lesezeichen speichern, mit einem Freund teilen oder empfehlen möchten? 
  • Enthält ein Artikel viele Anzeigen, die vom Hauptinhalt ablenken oder ihn beeinträchtigen? 
  • Würde man erwarten, diesen Artikel in einer gedruckten Zeitschrift, Enzyklopädie oder einem Buch zu sehen? 
  • Werden die Seiten mit großer Sorgfalt und Liebe zum Detail erstellt? 
  • Würden Kunden Ihre Kreditkarteninformationen an diese Site weitergeben? 

Google gibt zusätzlich anhand der Google Quality Guidelines einen tiefen Einblick, was gute Websites in unterschiedlichen Kategorien auszeichnet. Es macht Sinn, sich die Guidelines durchzulesen. Sie können hier heruntergeladen werden.

Ein Match mit der Intention der Suche ist wichtiger für das Ranking von Texten als die Textlänge.

Insbesondere bei sogenannten „Your Money – Your Life“ (YMYL) Themen sollte eine Website in besonderem Maße Expertise, Autorität und Vertrauen (EAT) repräsentieren. Ich habe zum SEO für YMYL einen eigenen Artikel geschrieben.

Bei YMYL-Seiten ist u.a. zu achten auf qualtitativ hochwertige Texte mit Quellenangaben, Fachwissen und Reputation der Autoren, transparente „Über uns“-Seiten und Werberichtlinien.

Selbstverständlich für alle Seiten sollte die Einhaltung der DSGVO sein und das Vorhandensein von verständlichen und fairen allgemeinen Geschäftsbedingungen und Datenschutzhinweisen.

Google News und Discover

Google News sind von Google aggregierte Inhalte, die über die Suche oder news.google.com im Web oder mobil ausgespielt werden.

Eine Registrierung im sogenannten Publisher Center ist keine Voraussetzung für die Aufnahme in Google News, bietet aber Vorteile:

  • Es kann ein individuelles Branding und Erscheinungsbild festgelegt werden,
  • Verwendung von Paywalls sowie Monetarisierung über Google Werbung sind einfacher möglich,
  • Es werden Fehlermeldungen und Hinweise angezeigt.

Bzgl. Inhalten und Technik gelten die gleichen Voraussetzungen für die Aufnahme in Google News wie für Google Discover (s.u.). Natürlich sollten auch alle anderen SEO-Grundlagen Beachtung finden.

Zudem sollten eine News Sitemap vorhanden sein (Aktualität spielt bei News natürlich eine besondere Rolle) und möglichst täglich neue Inhalte publiziert werden.

Das Ranking in Google News wird über einen einen Algorithmus auf Grundlage der folgenden Faktoren bestimmt:

  • Relevanz der Inhalte
  • Prominenz
  • Verlässlichkeit
  • Aktualität
  • Standort
  • Sprache

Mittels Google Discover dagegen werden Nutzern von Google Apps relevante Inhalte angezeigt. Soweit Inhalte in Discover funktionieren, kann das für eine Website viele zusätzliche Nutzer bringen. Inhalte können nicht für Discover „eingereicht“ werden. Google sucht sich entsprechende Artikel selbst mittels künstlicher Intelligenz. Folgende Voraussetzungen müssen für die Ausspielung erfüllt sein:

  • Repräsentative Seitentitel (kein Clickbaiting),
  • Bilder in hoher Qualität mit mindestens 1.200 px Breite. Die Einstellung max-image-preview:large muss aktiviert sein oder AMP verwendet werden,
  • Inhalte sollten zeitgemäß sein, eine interessante Geschichte erzählen oder einzigartige Einblicke bieten,
  • Inhalte dürfen nicht gegen die Richtlinien der Google Suche oder der Suchfunktionen verstoßen,
  • Der Anteil der Werbeinhalte sollte den Anteil der Nachrichteninhalte nicht überschreiten,
  • Mindestanforderungen an Transparenz müssen erfüllt sein (Autor:in, Impressum, Kontaktinformationen).

Damit Nutzer eurer Seite folgen können in den Google Apps, müsst ihr einen RSS- oder Atom-Feed bereitstellen. Aufrufe über Discover könnt ihr in der GSC verfolgen.

Keyword-Analyse

Neben diesen grundlegenden Fragen ist es natürlich dennoch auch sehr wichtig, Inhalte so aufzubauen, dass Suchmaschinen sie einfach erkennen und bewerten können.

Dazu ist es zunächst erforderlich, den inhaltlichen Rahmen einer Website abzustecken und passende Keywords bzw. Suchbegriffe zu verwenden, die Artikel thematisch repräsentieren und von Suchmaschinen verstanden werden. 

Nach der Recherche bietet sich für die Suchmaschinenoptimierung die Festlegung eines Fokus Keywords an, das bei der Erstellung eines anzulegenden Textes im Mittelpunkt steht.

Zunächst sollte vor diesem Hintergrund die SEO-Keyword Strategie reflektiert werden. Sie definiert den inhaltlichen und semantischen Rahmen einer Website, vergleichbar einem Inhaltsverzeichnis mit mehreren Ebenen.

Informationsbezogene Keywords haben i.d.R. ein höheres Suchvolumen als transaktionsorientierte Suchbegriffe. Letztere sind wettbewerbsintensiver im SEO und führen zu besseren Conversions. Informationsorientierte Keywords stärken dagegen thematische Autorität und Brand Awareness.

In der GSC oder in Ahrefs kann nachgeschaut werden, für welche und wieviele Keywords die eigene Seite bei Google rankt. TOP3 und TOP10 Positionen können gefiltert werden, genauso wie Featured Snippets.

Wichtig zu wissen: Die Positionen 1 bis 10 in den Google SERPs vereinen 99,1% aller organischen Klicks auf sich. Fast 60% aller organischen Klicks entfallen dabei auf Position 1, rund 15% auf Position 2.

Falls identische Keywords auf verschiedenen Seiten einer Website ranken, spricht man von Keyword Kannibalisierung. Das muss nichts Schlechtes sein, aber manchmal kann es sinnvoll sein, Seiten zusammen zu legen, oder Keywords auf einzelnen Seiten zu deoptimieren. Eine Anleitung für die Identifikation und Begrenzung von Keyword Kannibalisierung findet sich im Ahrefs Blog

Häufig ist es für die Suchmaschinenoptimierung sinnvoll, thematisch eng verwandte Seiten (near duplicate content) zusammenzuführen. Mehr dazu unter Content-Audit.

Der Anteil von Brand-Suchen am Suchvolumen kann Aufschluss geben, ob eine Website bereits als Marke wahrgenommen wird. Gleichzeitig kann es die organische Sichtbarkeit verzerren, wenn viele Besucher über die Eingabe des Markennamens auf die Website gelangen (vergleichbar eines direkten Ansteuerns).

Für die kostenlose Keyword-Recherche bietet sich neben Google Suggest das Keyword Tool an.

Wettbewerberanalyse

Im Normalfall sind die Wettbewerber bekannt, aber vielfach werden Websites übersehen, die im SEO um ähnliche Themen konkurrieren.

Ahrefs zeigt die wichtigtsten konkurrierenden Domains und Seiten anhand von Keyword-Überschneidungen (im Menüpunkt „Organische Suche“). Unter „Content Gap“ können Keywords aufgelistet werden, für die ein Wettbewerber rankt, man selbst aber nicht. 

Es ist i.d.R. sehr interessant zu sehen, welche Wettbewerber und Artikel für eure Keywords bei Google ganz vorne stehen. Da wird schnell die Intention von suchenden Nutzern deutlich. Und ihr seht, ob eure Inhalte wirklich einen Mehrwert ggü. den TOP-Platzierten bieten.

Leider nur in der bezahlten Version von Ahrefs werden alle Keyword Positionen und auch alle eingehenden Links für Wettbewerber aufgelistet. Gelegentlich finden sich Backlinks oder broken Links, die man über Nachfrage beim Betreiber der Website mit dem ausgehenden Link über eine freundliche E-Mail gewinnen kann.

Content-Audit

Beim Content-Audit werden vorhandene Inhalte unter SEO-Aspekten auf Nachhaltigkeit geprüft und optimiert.

Mit Hilfe des Screaming Frogs können zunächst Artikel identifiziert werden, die wenig Wörter haben (sog. Thin Content). Nachdem das Crawling beendet ist, filtert ihr unter dem „Internal“ Tab nach HTML und seht dann weiter rechts eine Spalte „Word Count“. 

Eine Web Analytics Software verrät uns zusätzlich, welche Seiten kaum Besucher, eine hohe Absprungrate, keine Conversions und/oder eine geringe Verweildauer besitzen.

Schließlich sehen wir in der Search Console nach entsprechender Sortierung Seiten, die schlechte Rankings und/oder kaum Besucher aus der organischen Suche erhalten.

Nun könnt ihr Seiten identifizieren, die einer genaueren Betrachtung bedürfen. Kandidaten sind z.B. Artikel mit weniger als 300 Wörtern, Artikel mit weniger als 20 Besuchern oder organischen Besuchern in den letzten 28 Tagen und Seiten mit hoher Absprungrate (signifikant höher als die durchschnittliche Absprungrate).

Ihr solltet euch in Ahrefs und der Linkauswertung der Search Console vergewissern, ob die entsprechenden Seiten (externe) Backlinks haben.

Grundsätzlich ist es für die Suchmaschinenoptimierung im Sinne eines effizienten Crawl Budgets besser, weniger, aber gut performende Seiten zu haben, als viele mittelmäßig performende. Schlechte Artikel ziehen die Gesamtperformance einer Website nach unten.

Für die identifizierten Kandidaten gibt es unterschiedliche Optionen:

  • Zusammenlegen mit thematisch verwandtem Artikel (inkl. Redirect der obsoleten Seite).
  • Artikel löschen und URL weiterleiten.
  • Artikel inhaltlich verbessern und interne Verlinkung stärken.

URLs mit extern eingehenden Links sollten tendenziell eher behalten und aufgebaut werden. Artikel zu löschen, fällt nicht immer leicht – kann aber tatsächlich sehr sinnvoll sein. 

Auch etwaigen Kommentaren sollte Beachtung geschenkt werden. Google nimmt diese mit in seine Analyse auf. Minderwertige Kommentare deshalb gnadenlos löschen, grammatikalische Fehler korrigieren.

Eingehende Links von anderen Websites sind sehr wichtig für die Suchmaschinenoptimierung, da über externe Verlinkungen und Erwähnungen den eigenen Inhalten implizit ein Wert zugewiesen wird. Entsprechend wird in diesem Zusammenhang häufig von Offpage-Optimierung gesprochen.

Ein Backlink-Audit kann in Ahrefs durchgeführt werden. Unter „Backlinks“ seht ihr alle eingehenden Links und könnt sie nach unterschiedlichen Kriterien sortieren.

ahrefs backlinks

Die Anzahl der externen Links ist weniger interessant als die Qualität. Schon wenige Backlinks von Websites mit hoher Autorität (z.B. große News Publisher) können euch einen ordentlichen Schub geben. Dagegen sind tausende von Links aus Foren möglicherweise völlig irrelevant.

Mehr Gewicht haben naturgemäß Dollow Links. Nofollow Links können aber Signalwirkung haben und zudem Referrer Traffic bringen. Auch reine namentliche Erwähnungen eurer Website ohne Verlinkung können nützlich sein.

“A good link… so I mean the traditional good link is someone who comes across your website and thinks it’s a fantastic website and recommends it to other people with a link.”

John Muller, Google Search Advocate

Unnatürliche Backlinks sowie Links von Seiten mit sehr niedrigem Domain Rating bzw. URL Rating sind grundsätzlich Kandidaten für ein disavow (Abwertung) bei Google.

Schau dir die Seiten an und frage dich, ob sie einen Mehrwert bieten, oder ob es sich um reine Linksammlungen, Spam, kaputte Seiten usw. handelt. Gekaufte Links sind ebenfalls tabu. Falls du dir sicher bist, kannst du URLs oder Domains in Googles disavow Tool entwerten. Hier findest Du weitere Informationen zu Kandidaten für disavow.

Der Effekt von disavow für die SEO-Optimierung ist umstritten. Google gibt an, selbst Spam Links gut erkennen zu können und dass sie deshalb keinen Schaden verursachen.

Seht euch die Sektion „Broken Links“ an. Hier stehen Links auf Seiten, die es nicht mehr gibt. „Broken Links“ können durch das Anlegen entsprechender Ziel URLs und Weiterleitungen repariert werden und können echte Quick Wins sein.

Bei Google oder Google News könnt ihr nach Erwähnungen eures Unternehmens bzw. eurer Brand suchen. Häufig können Erwähnungen auf spannenden Websites durch einen Anruf oder eine E-Mail in einen Link umgewandelt werden.

Seht euch außerdem Seiten an, die über Themen berichten, auf die ihr spezialisiert sein. Hier kann ein Link zu einem eurer Artikel ggf. eine sinnvolle Ergänzung sein. Fragen kostet nichts.

Durchaus interessant kann auch die Historie der eigenen Domain sein, gerade wenn ihr eine Domain besitzt, die früher schon einmal in Gebrauch war. Zum einen finden sich Informationen bei archive.org. Dort sind i.d.R. ältere Versionen der Website zu sehen. Zum anderen können bei Ahrefs ältere Backlinks und Anchor Texte gesichtet werden.

Auch ausgehende Links sollten regelmäßig geprüft werden. Zum einen auf Vertrauenswürdigkeit der genannten Quelle, zum anderen auf Fehler (301 oder 404 Meldungen etwa). Das funktioniert einfach im Frog (Reiter „External“).

Logfile-Analyse

Eine Logfile-Analyse filtert die von eurem Server automatische geschriebenen Besucher-Logs nach Einträgen von Bots. Tools, die hier zur Anwendung kommen können sind etwa das Echtzeit-Analyse Tool GoAccess (Open Source) oder der SEO Log File Analyzer (kostenlos bis zu einem Projekt mit 1.000 Einträgen).

Ich nutze GoAccess um mir anzuschauen, welche (Google-)Bots vorbeigeschaut haben und welche Ressourcen wie und wie oft gecrawlt wurden.

goaccess

Ressourcen die nicht (mehr) vorhanden sind, erscheinen mit 404-Status. Das sollten prozentual nicht zu viele sein – Immer versuchen, Fehler im Code zu fixen und tote HTML-URLs ansonsten weiterzuleiten.

Interessant ist es außerdem, welche Seiten häufig gecrawlt werden und welche weniger häufig. Letztere können durch zusätzliche interne Links für den Crawler aufgewertet werden.

Weitere Ansätze zur Logfile-Analyse hat die SEO-Expertin Aleyda Solis zusammengestellt.

Snippet Optimierung

Unter Snippets verstehe ich hier die Vorschau eurer Links zur Website in den Google Suchergebnissen. Das Snippet besteht grundsätzlich aus Title, Description und Erweiterungen (definiert i.d.R. über Schema-Auszeichnungen).

Sitelinks werden als Unterseiten unter dem Google-Eintrag der Website angezeigt werden.

Fehlende Titles und Descriptions findet ihr über den Screaming Frog. Jede Seite sollte diese Informationen besitzen, auch wenn Google gerade beim Einblenden der Descriptions in den SERPs häufig eigene Vorstellungen hat.

Die wichtigsten Keywords sollten möglichst gleich vorne im Title auftauchen. Die Gestaltung von Title und Description ist ansonsten stark abhängig von euren Inhalten und euren Nutzerintentenitionen. Emojis und Sonderzeichen mögen bei Reisblogs funktionieren, bei medizinischen Angeboten sind sie dagegen eher unangebracht. 

Die Click Through Rate (CTR) auf der Google Ergebnisseite ist ein wichtiger Erfolgsfaktor für das Ranking eurer Inhalte. Durch das Testen unterschiedlicher Titles und Descriptions könnt ihr u.U. ein paar Positionen gut machen. Insbesondere Kandidaten auf Position 11-15 der Ergebnisse können durch Snippet Optimierung oft den Einstieg auf die Seite 1 schaffen.

In der Google Search Console könnt ihr eure Keywords nach Position und CTR filtern und geeignete Optimierungsmöglichkeiten finden. Die CTRs nehmen in den unteren Positionen stark ab, aber i.d.R. findet ihr Benchmarks im eigenen Keyword-Set der Search Console.

Für alle Inhalte sollten idealerweise Schema-Auszeichnungen vorhanden sein. Sie erleichtern Google das Verständnis eurer Website und können zudem ggf. auch in den SERPs erscheinen (z.B. FAQ-Snippets oder Artikel-Sitelinks bedingt durch Inhaltsverzeichnis/Sprungmarken).

Die Validität strukturierter Daten kann im Screaming Frog und in der Google Search Console untersucht werden, oder auch im Google Testtool für strukturierte Daten.

Für Websites mit stationärer Präsenz ist ein Eintrag bei Google My Business ratsam.

Seitenstruktur

Einen schnellen und bemerkenswert umfassenden Eindruck über die Struktur einzelner Seiten könnt ihr euch über das kostenlose Tool Seorch verschaffen. Um die gesamte Website zu analysieren, nutze ich auch hier das Schweizer Taschenmesser unter den SEO-Tools, Screaming Frog SEO Spider.

Zunächst schauen wir im Hinblick auf die Suchmaschinenoptimierung, ob H1, H2 und ggf. H3 korrekt verwendet werden. Gundsätzlich sollte jede HTML-Ressource neben dem Title eine H1-Überschrift besitzen, längere Artikel werden mit Überschriften auf mehreren Ebenen (H2, H3) strukturiert. Doppelte H1 Überschriften sind zu vermeiden. 

Fehlende Alt-Tags für Bilder werden ebenfalls vom Spider ausgegeben („Images“ nach „Missing Alt Text“ filtern). Ebenso können kanonische Links überprüft werden („Canonicals“).

Nach meiner Erfahrung macht es Sinn, die URL-Struktur einer Website thematisch zu organisieren. Also z.B. /blog/rot/xy.html, /blog/blau/zy.html. Das erleichtert die Auswertung und hilft Google, die Stuktur einer Website zu verstehen. 

Zudem sollte die Klick Tiefe möglichst flach organisiert sein, d.h. alle wichtigen Seiten müssen mit wenige Klicks von der Startseite aus erreichbar sein. Die Klick Tiefe sieht man im SEO Spider im rechten Fenster unter „Site Structure“.

Unter „Visualizations“ lässt sich zudem ein Crawl Diagramm erstellen, dass die Struktur und interne Verlinkung der Website grafisch aufbereitet.

crawl diagram

Interne Verlinkung

Interne Verlinkung ist zum einen nützlich für den Nutzer, zum anderen helfen Links und Anchor Text (wie auch Alt Texte bei Bildern) Google dabei, Artikel und Inhalte besser zu verstehen.

Von Google gewertet wird auf jeder Seite nur ein interner Link (der zuerst erscheinende). Verlinkungen von der Startseite und aus dem oberen Menu haben besonders viel Gewicht bei der Weitergabe von Link Juice. Interne Links aus dem Text heraus geben über Anchors zusätzliche Infos und erleichtern zudem das Crawling für Suchmaschinen.

Wichtig dabei ist es, Anchor Text und Alt Text so auszuwählen, dass sie auf einzelne Artikel klar ausgerichtet sind. Sehr ähnliche Tags sollten nicht für verschiedene Ziele verwendet werden, das verwirrt Nutzer und Suchmaschinen.

Gleichzeitig lässt sich mit geschickter Auswahl von Anchor Texten (Beschreibung eines Themas mit unterschiedlichen Worten) die Verlinkung verbessern und mehr Kontext herstellen. Beispielsweise können in der GSC bereits rankende Keywords für Seiten auf Positionen 5 bis 12 identifiziert werden. Diese Keywords sind geeignete Anchor Text Variationen für zusätzliche interne Links.

Mit Hilfe vom Breadcrumbs werden übergeordnete Seiten und Themen automatisch (rück-)verlinkt. Zwischen verschiedenen Themenfeldern würde ich grundsätzlich auch Links setzen, soweit inhaltlich passend. Hierzu gibt es jedoch unterschiedliche Ansätze (vgl. Siloing).

Kategorie- und Tag-Seiten helfen Nutzern bei der Orientierung, können aber zum Ballast werden. Also (z.B. im Rahmen eines Content Audits) prüfen, ob sie tatsächlich genutzt werden und ggf. sogar ranken. Ansonsten sind Kategorien und Tags vielleicht auch verzichtbar.

Unter „verwaisten“ Seiten werden URLs verstanden, die intern nicht verlinkt sind. Sie sollten vermieden werden, oder aber auf noindex stehen (z.B. Success Pages). 

Fragen und Feedback zur Suchmaschinenoptimierung?

Falls ihr Fragen zum SEO habt oder ein Audit wünscht für die Optimierung eurer Website, schreibt mir an georg@pagenstedt.de oder nutzt das Kontaktformular. Ich helfe gerne, und nicht gleich entstehen dafür Kosten. Mehr über mich und meine Leistungen findet ihr hier.

Weiterlesen:







Nichts mehr verpassen.
Abonniere den RSS-Feed.