SEO-Optimierung für Google: Anleitung für Suchmaschinenoptimierung

SEO Optimierung

Inhalt

Suchmaschinenptimierung
Tools für SEO-Optimierung
Indexierung prüfen
Status Codes
Performance-Optimierung
Mobile Optimierung
UX (User Experience)
Hochwertige Inhalte
Google News und Discover
Keyword-Analyse
Wettbewerberanalyse
Content-Audit
Backlink-Audit
Logfile-Analyse
Snippet Optimierung
Seitenstruktur
Interne Verlinkung
Fragen und Feedback zur SEO Optimierung

Suchmaschinenoptimierung

Die meisten kommerziellen Websites sind auf Besucher angewiesen, um Umsatz zu erzielen. Organischer Traffic über Suchmaschinen spielt dabei oftmals eine wichtige Rolle. Jeder Nutzer in Deutschland sucht durchschnittlich 3-4mal pro Tag. Google hat einen Marktanteil von über 90%. Die Sichtbarkeit bei dieser Suchmaschine ist somit ein wesentlicher Erfolgsfaktor.

Suchmaschinenoptimierung gehört zu den effizientesten Marketing-Kanälen im Online Marketing und stellt eine kostengünstige Möglichkeit dar für die Erhöhung der Reichweite deiner Website über Suchanfragen.

SEO steht für Search Engine Optimization oder auch Suchmaschinenoptimierung. Darunter wird eine Website-Analyse inkl. Ableitung geeigneter Maßnahmen für bessere Sichtbarkeit in den organischen Suchergebnissen verstanden. Eigentlich ist „SEO-Optimierung“ also doppelt gemoppelt, hat sich aber dem Suchvolumen nach zu urteilen in den Sprachgebrauch eingebürgert.

SEO-Optimierung ist ein laufender Prozess und insbesondere immer dann empfehlenswert, wenn deine Website grundlegend auf Suchmaschinen-Tauglichkeit und Optimierungspotential untersucht werden soll. Ein SEO-Audit und SEO-Maßnahmen können z.B. bei schlechten Rankings oder nach einem (Re)launch sinnvoll sein.

Bei der Aufnahme des Status Quo werden oftmals Fehler erkannt, die mit ein wenig Know-How und grundlegenden SEO-Tipps schnell beseitigt werden können – Mit positiven Effekten und besseren Rankings in den Suchmaschinen schon nach kurzer Zeit.

Mehr organischer Traffic durch SEO-Optimierung kann gleichzeitig zu Einsparungen bei Ausgaben für Online-Werbung führen (z.B. Google Ads bei Onlineshops).

Einen offiziellen „Startleitfaden zur Suchmaschinenoptimierung“, den ich jedem ans Herz legen möchte, gibt es hier. Grundsätzlich gilt für jede SEO-Strategie: Der Nutzer sollte im Mittelpunkt stehen.

In der folgenden Do it yourself Anleitung habe ich die aus meiner Sicht wichtigen Punkte für produktivere SEO-Optimierung zusammengestellt. Die Anleitung richtet sich an SEO-Einsteiger mit Vorkenntnissen.

Grundsätzlich wird zwischen Offpage- (insbesondere Generierung externer Links) und Onpage-Optimierung (auf der eigenen Webseite optimieren) unterschieden.

Tools für SEO-Optimierung

Ihr benötigt folgende Tools für die Suchmaschinenoptimierung mit dieser Schritt-für-Schritt-Anleitung:

  • Die kostenlose Google Search Console (GSC) ist die Schaltzentrale für Webmaster. In den Webmaster Tools finden sich wichtige Übersichten zu Indexierung, Google Rankings, Backlinks, Schema-Auszeichnungen, Fehlern und mehr.
  • Der Screaming Frog (SF) SEO Spider (für kleiner Websites bis maximal 500 URLs kostenlos) crawlt sich ausgehend von einem Startpunkt durch alle URLs deiner Seite und gibt Einblicke u.a. in Struktur, Auszeichnungen und Performance.
  • Ahrefs (für eigene, verifizierte Websites kostenlos) ist ein Tool für die Analyse von Backlinks, Keyword-Monitoring und vieles mehr.
  • Die Webanalyse Software eurer Wahl (z.B. Matomo, Google Analytics etc.) hilft im Rahmen eines Content-Audits beim Auffinden von Seiten mit wenig Traffic und/oder hohen Absprungraten.
  • Seorch ist ein simples und kostenloses Tool für den schnellen SEO Check einzelner URLs.

Die professionelle SEO-Software Sistrix bietet ein kostenloses Tool zur Messung der Sichbarkeit als Momentaufnahme an. Auf weitere SEO-Tool-Anbieter verlinke ich im Text. Ich beziehe mich für die Suchmaschinenoptimierung im Artikel auf Websites in deutscher Sprache, Bing und andere Suchmaschinen werden nicht betrachtet. Local SEO und Google Maps spare ich als Sonderthemen aus.

Indexierung prüfen

Die Prüfung der Auffindbarkeit und Indexierung ist ein wichtiger Baustein für die SEO Optimierung. Ob deine Website überhaupt in den SERPs gelistet ist, lässt sich prüfen, indem der Befehl site:deinedomain.de eingegeben wird. Ihr seht im Ergebnis auch, wieviele Seiten ca. gefunden werden.

Alternativ findet sich die Abdeckung auch in der GSC, soweit diese schon angelegt ist. Es werden gültige und ausgeschlossene (nicht indexierte) Seiten angezeigt. Ausgeschlossene Seiten können etwa Redirects oder Seiten mit noindex-Auszeichnung sein.

Für die Suchmaschinenoptimierung und Indexierung deiner Website ist es für den Googlebot hilfeich, wenn eine Sitemap existiert und sowohl in der robots.txt als auch in der Google Search Console hinterlegt wird. WordPress z.B. erstellt automatisch eine maschinenlesbare XML-Sitemap, die sich unter deinedomain.de/wp-sitemap.xml befindet.

Falls es Probeme mit der Indexierung gibt, oder Seiten vermisst werden, bieten sich folgende Wege für eine Fehlerbehebung an:

Unter deinedomain.de/robots.txt können Anweisungen für Suchmaschinen abgelegt sein. Ggf. sind Verzeichnisse oder einzelne Seiten für Suchmaschinen gesperrt. Mehr zur korrekten Einrichtung einer robots.txt findet sich z.B. hier.

Seiten können aber auch aus dem Index ausgeschlossen sein, weil – versehentlich oder beabsichtigt – eine noindex Direktive verwendet wird. Mit dem SEO Spider lässt sich überprüfen, ob alle Seiten indexierbar sind. Dazu nach einem Crawl unter dem Reiter „Internal“ in der Spalte „Indexability“ nachsehen (Sitemaps sind nicht indexierbar, das gehört so).

Insoweit ihr Seiten seht, die nicht auf noindex stehen sollten, könnt ihr der Sache in eurem CMS auf den Grund gehen.

Grundsätzlich sollten aus Google SEO Sicht alle Seiten einer Website indexierbar sein, ansonsten sind sie vermutlich entbehrlich. Ausnahmen bestätigen die Regel. Gleichzeitig braucht es aus dem gleichen Grund keine nofollow Tags für interne Links.

Für neu angelegte Domains dauert es i.d.R. ein paar Wochen, bis sie im Index erscheinen. Das ist ganz normal.

Status Codes

Die Basis für Suchmaschinenoptimierung ist die Indexierung. Mit der o.g. SF Crawler-Software kann die technische Erreichbarkeit einer Webseite geprüft werden. Unter dem Reiter „Internal“ seht ihr Status Codes, die im Idealfall 200 (erfolgreiche Anfrage) heißen. Habt ihr 404 (Fehler) oder 301 (Weiterleitungen) innerhalb der Website oder für externe Links, so solltet ihr das entsprechend fixen (z.B. entsprechende Links ersetzen oder löschen).

SEO Spider

Zudem bitte prüfen, ob für deine Website ordnungsgemäße Fehlerseiten vorhanden sind, die einen 404 Code zurückliefern. Dazu eine Fehlerseite (z.B. deinedomain.de/dklsdsido) in einem HTTP Reponse Header Check analysieren. Das Design der Fehlerseite sollte so gewählt werden, dass ein Nutzer schnell Orientierung findet.

In einem Redirect Checker könnt ihr sehen, ob alle serverseitigen Weiterleitungen korrekt eingerichtet sind, also z.B. http auf https, www auf non-www inkl. alle Varianten. Im Idealfall gibt es jeweils immer nur genau eine Weiterleitung.

Zudem sollten im Hinblick auf das Thema Suchmaschinenoptimierung alle Seiten jeweils nur unter einer URL erreichbar sein. Also nicht unter www und non-www und nicht unter https und http, nicht ohne / und mit /. Auch wenn eine entsprechende Kanonisierung vorhanden ist, macht es doch Arbeit für die Suchmaschinen, alles mehrmals zu crawlen. Und eingehende Links können zudem ggf. auf ungewünschte Ziel-URLs zeigen.

Beim SEO für internationale Websites müssen zudem hreflang Zuordnungen beachtet werden. Eine gute Übersicht dazu gibt es im Ahrefs Blog.

Performance-Optimierung

Ladezeiten sind für Suchmaschinenoptimierung wie auch für Nutzer gleichermaßen wichtig. Denn es spart Geld und Ressourcen für Server und Infrastruktur, wenn sich Webseiten schnell und effizient abrufen lassen. Nutzer sind zufriedener und konvertieren auch eher, wenn sie nicht auf das Laden von Seiten warten müssen. Das wissen wir alle aus eigener Erfahrung und zudem belegen es Studien.

Die Ladezeit einzelner URLs lässt sich z.B. mit den Pingdom Tools überprüfen. In der Auswertung werden alle Ressourcen der URL inkl. Ladezeiten angezeigt. Die Load Time ist gut, wenn sie unter 500 ms liegt. 

Detaillierte Hinweise zur Optimierung gibt das Google Tool PageSpeed Insights. Hier werden auch Aussagen zur Erreichung der sog. Core Web Vitals gemacht, die seit Mai 2021 auch als Rankingfaktor für SEO dienen.

Die Core Web Vitals setzen sich zusammen aus:

  • Largest Contentful Paint (LCP): Hier geht es um die Ladezeit des größten grafischen Elementes. Ein guter Wert liegt unter 2,5 Sekunden.
  • First Input Delay (FID) misst die Zeit bis zur Interaktivität (Bedienbarkeit) einer Seite. Der FID sollte unter 100 ms liegen.
  • Cumulative Layout Shift (CLS) ist das Maß für visuelle Stabilität. Hier werden initiale Layout-Verschiebung z.B. durch das Nachladen von Werbung oder Bildern verortet. Der CLS sollte kleiner sein als 0,1.

Um die rankingrelevanten Core Web Vitals zu optimieren, bieten sich generell u.a. folgende Maßnahmen an:

  • Schnelles Hosting,
  • Performantes Server Setup (z.B. Nginx oder Apache mit fcgid),
  • Caching (z.B. Opcache, Memcached, FastCGI Caching, Litespeed, Redis oder Plugin),
  • Schlanker Quellcode mit nur notwendigem html, CSS und JS (WP-Themes z.B. Generatepress oder Neve). Alternativ: Jamstack-Website.
  • Kompression und Minifizierung nutzen.
  • Bilderdateien verzögert laden.
  • JS und CSS verzögert laden und kritisches CSS in den Header einbinden.
  • Das rendern blockierende Ressourcen preloaden.
  • Nicht-native Schriftarten und Icons reduzieren, svg verwenden.
  • Tracking Code möglichst in Grenzen halten (schon Google Analytics und Tag Manager machen 50 KB).
  • Nutzung von HTTPS, HTTP/2 und HSTS.

Validität von HTML und CSS spielt für die Performance i.d.R. keine Rolle, sollte aber aus Gründen der Wartbarkeit grundsätzlich i.O. sein. Ein Favicon steigert den Wiedererkennungswert und wird gesetzt, um tote Requests zu vermeiden (Browser suchen standardmäßig nach einem Favicon im Rootverzeichnis).

SSL-Verschlüsselung ist ein offizieller Ranking-Faktor für die SEO Optimierung und sollte auf deiner Website selbstverständlich sein.

Mobile Optimierung

Neben den Core Web Vitals ist auch die mobile Optimierung einer Website seit 2021 ein Ranking Faktor in der Suchmaschinenoptimierung. Es werden ausschließlich nur noch Crawler eingesetzt, die ein mobiles Endgerät repräsentieren. Du solltest deine Website auf jeden Fall für Mobilgeräte optimieren.

Responsive Design und schnelle Ladezeiten sind essentiell für mobile Nutzung von Websites. Eure Inhalte sollten auf allen Endgeräten perfekt funktionieren.

Die amp-Technologie für die effiziente Auslieferung von Seiten auf mobilen Geräten ist keine Voraussetzung für schnelle Ladezeiten und hilft auch nicht bei SEO.

UX (User Experience)

Von Bedeutung für Nutzer (und somit für die Suchmaschinenoptimierung) ist neben der Performance auch die UX, also die Bedienbarkeit und der optische Eindruck einer Website. Im einfachsten Falle Freunde, Bekannte und potenzielle Kunden fragen, wie das Nutzererlebnis eurer Webpräsenz auf sie wirkt.

Im Webdesign sollten Schriften groß genug sein, ausgehende Links und interne Links klar erkennbar. Vermeide störende Anzeigen, Pop-ups und Interstitials so weit wie möglich und platziere sie nicht im direkt sichtbaren Teil deiner Seite. Alle Autoren von Artikeln sollten online eindeutig identifizierbar sein.

Zu einer guten User Experience gehört auch, dass jede Seite einen erkennbaren Call to Action hat. Bei einem Blog kann das einfach das Lesen eines Artikels sein (messbar über Verweildauer), bei einer Marketing-optimierten Lead Gen Seite ist es vielleicht der Registrieren-Button (messbar als Conversion).

Das Tool web.dev misst neben den o.g. Performance Werten auch Best Practice, Accessibility, SEO und gibt Hinweise zur Optimierung. Entsprechende Defizite werden in der Auswertung skizziert und können angegangen werden. Die gleiche Analyse wie bei web.dev kann auch mit jedem Chrome Browser durchgeführt werden.

lighthouse

Google stellt „UX Playbooks“ zur Verfügung, z.B. für News&ContentLead Gen,Healthcareund Retail. Darin werden Best Practice Ansätze für unterschiedliche Website-Kategorien detailliert dargestellt.

Im Rahmen der UX-Analyse sollte auch betrachtet werden, wie eine Seite bei deaktiviertem Javascript lädt. Die grundlegenden Inhalte sollten möglichst sichtbar bleiben.

Hochwertige Inhalte als Basis für SEO

Gute Inhalte sind die Basis für SEO-Optimierung. Was ist überhaupt qualitativ hochwertiger Content aus Sicht einer Suchmaschine? Google rät, u.a. folgende Fragen zur Beurteilung der eigenen Website aufzuwerfen:

  • Werden Themen von echten Interessen der Leser bestimmt oder generiert die Website Inhalte indem versucht wird, zu erraten, was in Suchmaschinen gut funktionieren könnte?
  • Enthalten Artikel Originalinhalte oder -informationen, Originalberichte, Originalrecherchen oder Originalanalysen?
  • Bietet die Seite im Vergleich zu anderen Seiten in den Suchergebnissen einen erheblichen Wert?
  • Wird ausreichende Qualitätskontrolle für die Inhalte durchgeführt?
  • Beschreiben Artikel alle Aspekte eines Themas?
  • Würde diese Site als maßgebliche Quelle anerkannt?
  • Ist dies die Art von Seite, die Nutzer als Lesezeichen speichern, mit einem Freund teilen oder empfehlen möchten?
  • Enthält ein Artikel viele Anzeigen, die vom Hauptinhalt ablenken oder ihn beeinträchtigen?
  • Würde man erwarten, diesen Artikel in einer gedruckten Zeitschrift, Enzyklopädie oder einem Buch zu sehen?
  • Werden die Seiten mit großer Sorgfalt und Liebe zum Detail erstellt?
  • Würden Kunden Ihre Kreditkarteninformationen an diese Site weitergeben?

Die Google Quality Guidelines geben einen tiefen Einblick, was gute Landing Pages und hochwertigen Content in unterschiedlichen Kategorien auszeichnet. Es macht Sinn, sich die Guidelines durchzulesen. Sie können hier heruntergeladen werden.

Ein Match mit der Intention der Suche ist wichtiger für das Ranking von Texten als die Textlänge. Vor dem Verfassen von Texten sollte deshalb immer auch eine Recherche zu den relevanten Suchbegriffen stehen, z.B. über Google Suggestion.

Daneben gelten die Grundregeln für gute Texte:

  • Kurze Sätze bilden,
  • Füllwörter und Phrasen vermeiden,
  • aktive Sprache,
  • soweit möglich kurze anstatt langer Worte,
  • korrekte Rechtschreibung und Zeichensetzung.

Insbesondere für Onpage-SEO bei sogenannten „Your Money – Your Life“ (YMYL) Themen sollte eine Website in besonderem Maße Expertise, Autorität und Vertrauen (E-A-T) repräsentieren. Ich habe zum SEO für YMYL einen eigenen Artikel geschrieben.

Bei YMYL-Seiten ist u.a. zu achten auf qualtitativ hochwertige Texte mit Quellenangaben inkl. weiterführende externe Links, Fachwissen und Reputation der Autoren, transparente „Über uns“-Seiten und Werberichtlinien.

Sinnvoll können Autorenseiten sein, auf denen Motivation, fachlicher Background, Kontaktdaten und Social-Media-Profile zu finden sind.

Selbstverständlich für guten Content sollte daneben die Einhaltung der DSGVO sein und das Vorhandensein von verständlichen und fairen allgemeinen Geschäftsbedingungen und Datenschutzhinweisen. Obschon für Suchmaschinenoptimierung nicht relevant.

Google News und Discover

Google News sind aggregierte Inhalte, die über die Suche oder news.google.com im Web oder mobil ausgespielt werden.

Eine Registrierung im sogenannten Publisher Center ist keine Voraussetzung für die Aufnahme in News, bietet aber Vorteile:

  • Es kann ein individuelles Branding und Erscheinungsbild festgelegt werden,
  • Verwendung von Paywalls sowie Monetarisierung über Google Werbung sind einfacher möglich,
  • Es werden Fehlermeldungen und Hinweise angezeigt.

Bzgl. Inhalten und Technik gelten die gleichen Voraussetzungen für die Aufnahme in Google News wie für Google Discover (s.u.). Natürlich sollten für die Optimierung hier auch alle anderen SEO-Grundlagen Beachtung finden.

Zudem sollten eine News Sitemap vorhanden sein (Aktualität spielt bei News natürlich eine besondere Rolle) und möglichst täglich neue Inhalte publiziert werden.

Das Ranking in Google News wird über einen einen Algorithmus auf Grundlage der folgenden Faktoren bestimmt:

  • Relevanz der Inhalte
  • Prominenz
  • Verlässlichkeit
  • Aktualität
  • Standort
  • Sprache

Mittels Google Discover dagegen werden Nutzern von Google Apps relevante Inhalte angezeigt. Soweit Inhalte in Discover funktionieren, kann das für eine Website viele zusätzliche Nutzer bringen. Inhalte können nicht für Discover „eingereicht“ werden, und lassen sich mit klassischen Methoden kaum optimieren. Google sucht sich entsprechende Artikel selbst mittels künstlicher Intelligenz. Folgende Voraussetzungen müssen für die Ausspielung erfüllt sein:

  • Repräsentative Seitentitel (kein Clickbaiting),
  • Bilder in hoher Qualität mit mindestens 1.200 px Breite. Die Einstellung max-image-preview:large muss in den Meta-Angaben aktiviert sein oder AMP verwendet werden,
  • Inhalte sollten zeitgemäß sein, eine interessante Geschichte erzählen oder einzigartige Einblicke bieten,
  • Inhalte dürfen nicht gegen die Richtlinien der Google Suche oder der Suchfunktionen verstoßen,
  • Der Anteil der Werbeinhalte sollte den Anteil der Nachrichteninhalte nicht überschreiten,
  • Mindestanforderungen an Transparenz müssen erfüllt sein (Autor:in, Impressum, Kontaktinformationen).

Damit Nutzer deiner Seite folgen können in den Google Apps, müsst ihr einen RSS- oder Atom-Feed bereitstellen. Aufrufe über Discover könnt ihr in der GSC verfolgen.

Keyword-Analyse

Neben diesen grundlegenden Fragen ist es wichtig für die Suchmaschinenoptimierung, Inhalte so aufzubauen, dass Besucher und Bots sie einfach erkennen und bewerten können.

Dazu ist es zunächst erforderlich, den inhaltlichen Rahmen einer Website abzustecken und wichtige Keywords bzw. Suchbegriffe zu verwenden, die Artikel thematisch repräsentieren und von Suchmaschinen verstanden werden.

Nach der Keyword-Recherche bietet sich für erfolgreiche Suchmaschinenoptimierung die Festlegung eines Fokus Keywords an, das bei der Erstellung eines anzulegenden Textes vor anderen passenden Keywords im Mittelpunkt steht.

Zunächst sollte vor diesem Hintergrund die SEO-Keyword Strategie reflektiert werden. Sie definiert den inhaltlichen und semantischen Rahmen einer Website, vergleichbar einem Inhaltsverzeichnis mit mehreren Ebenen.

Es wird in der SEO Optimierung grundsätzlich zwischen Short-Tail-Keywords (einzelne Begriffe) und Long-Tail-Keywords (kombinierte Begriffe oder Phrasen) unterschieden.

Informationsbezogene Keywords haben i.d.R. ein höheres Suchvolumen als transaktionsorientierte Suchbegriffe. Letztere sind wettbewerbsintensiver im SEO und führen zu besseren Conversions. Informationsorientierte Keywords stärken dagegen thematische Autorität und Brand Awareness.

In der GSC oder in Ahrefs kann nachgeschaut werden, für welche und wieviele Keywords deine Seite rankt. TOP3 und TOP10 Positionen können gefiltert werden, genauso wie Featured Snippets.

Wichtig zu wissen: Die Positionen 1 bis 10 in den Google SERPs vereinen 99,1% aller organischen Klicks auf sich. Fast 60% aller organischen Klicks entfallen dabei auf Position 1, rund 15% auf Position 2.

Falls identische Keywords auf verschiedenen Seiten einer Website ranken, spricht man von Keyword Kannibalisierung. Das muss nicht nachteilig für die Suchmaschinenoptimierung sein. Aber manchmal kann es sinnvoll sein, Seiten zusammen zu legen, oder Keywords auf einzelnen Seiten zu deoptimieren. Eine Anleitung für die Identifikation und Begrenzung von Keyword Kannibalisierung findet sich im Ahrefs Blog.

Häufig ist es für die SEO Optimierung sinnvoll, thematisch eng verwandte Seiten (near duplicate content) zusammenzuführen. Mehr dazu unter Content-Audit.

Der Anteil von Brand-Suchen am Suchvolumen kann Aufschluss geben, ob eine Website bereits als Marke wahrgenommen wird. Gleichzeitig kann es die organische Sichtbarkeit verzerren, wenn viele Besucher über die Eingabe des Markennamens auf die Website gelangen (vergleichbar eines direkten Ansteuerns).

Für die kostenlose Keyword-Recherche bietet sich neben Google Suggest das Keyword Tool an. Kostenpflichtige Keyword-Recherche-Tools sind wesentlich leistungsfähiger und besitzen überdies einen erweiterten Funktionsumfang.

Wettbewerberanalyse

Im Normalfall sind die Wettbewerber bekannt, aber vielfach werden Websites übersehen, die im SEO um ähnliche Themen konkurrieren. Erfolgreiche Webistes von Marktteilnehmern gewähren häufig Einblicke, die für die Suchmaschinenoptimierung deiner Seiten wichtige Erkenntnisse bringen können.

Ahrefs zeigt die wichtigtsten konkurrierenden Domains und Seiten anhand von Keyword-Überschneidungen (im Menüpunkt „Organische Suche“). Unter „Content Gap“ können Keywords aufgelistet werden, für die ein Wettbewerber rankt, man selbst aber nicht.

Es ist i.d.R. sehr interessant zu sehen, welche Wettbewerber und Artikel für eure Themen in den Google Rankings ganz vorne stehen. Da wird schnell die Intention von suchenden Nutzern deutlich. Und ihr seht, ob eure Inhalte wirklich einen Mehrwert ggü. den TOP-Platzierten bieten.

Leider nur in der bezahlten Version von Ahrefs werden alle Keyword Positionen und auch alle eingehenden Links für Wettbewerber aufgelistet. Gelegentlich finden sich Backlinks oder broken Links, die man über Nachfrage beim Betreiber der Website mit dem ausgehenden Link über eine freundliche E-Mail gewinnen kann.

Content-Audit

Beim Content-Audit werden vorhandene Inhalte unter SEO-Aspekten auf Nachhaltigkeit geprüft und optimiert. Im Rahmen eines effektiven Content Marketings muss für jeden Artikel grundsätzlich geklärt werden, ob er für Nutzer und Suchmaschinenoptimierung echten Mehrwert generiert.

Mit Hilfe des Screaming Frogs können zunächst Artikel identifiziert werden, die wenig Wörter haben (sog. Thin Content). Nachdem das Crawling beendet ist, filtert ihr unter dem „Internal“ Tab nach HTML und seht dann weiter rechts eine Spalte „Word Count“.

Eine Web Analytics Software verrät uns zusätzlich, welche Seiten kaum Besucher, eine hohe Absprungrate, keine Conversions und/oder eine geringe Verweildauer besitzen.

Schließlich sehen wir in der Search Console nach entsprechender Sortierung Seiten, die schlechte Rankings und/oder kaum organischen Traffic erhalten.

Nun könnt ihr Seiten identifizieren, die einer genaueren Betrachtung bedürfen. Kandidaten sind z.B. Artikel mit weniger als 300 Wörtern, Artikel mit weniger als 20 Besuchern oder organischen Besuchern in den letzten 28 Tagen und Seiten mit hoher Absprungrate (signifikant höher als die durchschnittliche Absprungrate).

Ihr solltet euch in Ahrefs und der Linkauswertung der Search Console vergewissern, ob die entsprechenden Seiten (externe) Backlinks haben.

Grundsätzlich ist es für die Suchmaschinenoptimierung im Sinne eines effizienten Crawl Budgets besser, weniger, aber gut performende Seiten zu haben, als viele mittelmäßig performende. Schlecht geschriebene Inhalte wirken sich negativ auf die Gesamtleistung einer Website aus. Ebenso sollten redundante Artikel und Duplicate Content vermieden werden.

Für die identifizierten Kandidaten gibt es unterschiedliche Optionen:

  • Zusammenlegen mit thematisch verwandtem Artikel (inkl. Redirect der obsoleten Seite).
  • Artikel löschen und URL weiterleiten.
  • Artikel inhaltlich optimieren, nach Keyword-Recherche verwandte Keywords ergänzen und interne Verlinkung stärken.

URLs mit extern eingehenden Links sollten tendenziell eher behalten und aufgebaut werden. Artikel zu löschen, fällt nicht immer leicht – kann aber tatsächlich sehr sinnvoll sein.

Auch etwaigen Kommentaren sollte Beachtung geschenkt werden. Sie werden von Suchmaschinen bei der Bewertung von Inhalten einbezogen. Minderwertige Kommentare deshalb gnadenlos löschen, grammatikalische Fehler korrigieren.

Eingehende Links von anderen Websites sind sehr wichtig für Offpage-SEO, da über externe Verlinkungen und Erwähnungen den eigenen Inhalten implizit ein Wert zugewiesen wird. Entsprechend wird in diesem Zusammenhang im Rahmen von Backlink-Audits auch häufig von Offpage-Optimierung gesprochen.

Ein Backlink-Audit kann in Ahrefs durchgeführt werden. Unter „Backlinks“ seht ihr alle eingehenden Links und könnt sie nach unterschiedlichen Kriterien sortieren.

ahrefs backlinks

Die Anzahl der externen Links ist weniger interessant als die Qualität. Schon wenige Backlinks von Websites mit hoher Autorität (z.B. große News Publisher) können euch einen ordentlichen Schub geben. Dagegen sind tausende von Links aus Foren möglicherweise völlig irrelevant.

Mehr Gewicht für die Suchmaschinenoptimierung haben naturgemäß Dollow Links. Nofollow Links können aber Signalwirkung haben und zudem Referrer Traffic bringen. Auch reine namentliche Erwähnungen deiner Website ohne Verlinkung können nützlich sein.

“A good link… so I mean the traditional good link is someone who comes across your website and thinks it’s a fantastic website and recommends it to other people with a link.”

John Muller, Google Search Advocate

Unnatürliche Backlinks sowie Links von Seiten mit sehr niedrigem Domain Rating bzw. URL Rating sind grundsätzlich Kandidaten für Optimierung über disavow (Abwertung).

Schau dir die Seiten an und frage dich, ob sie einen Mehrwert bieten, oder ob es sich um reine Linksammlungen, Spam, kaputte Seiten usw. handelt. Falls du dir sicher bist, kannst du URLs oder Domains im disavow Tool entwerten. Hier findest Du weitere Informationen zu Kandidaten für disavow.

Gekaufte Links sind tabu. Der Kauf oder Aufbau von unnatürlichen Backlinks wird den sogenannten Black-Hat-Methoden zugeordnet.

Der Effekt von disavow für die SEO-Optimierung ist umstritten. Google gibt an, selbst Spam Links gut erkennen zu können und dass sie deshalb keinen Schaden verursachen. Das Kaufen von externen Links kann hingegen manuelle Abstrafungen zur Folge haben.

Seht euch die Sektion „Broken Links“ an. Hier stehen Links auf Seiten, die es nicht mehr gibt. „Broken Links“ können durch das Anlegen entsprechender Ziel URLs und Weiterleitungen repariert werden und können echte Quick Wins im Linkbuilding sein.

In Suchmaschinen oder bei Google News könnt ihr nach Erwähnungen eures Unternehmens bzw. eurer Brand suchen. Häufig können Erwähnungen auf spannenden Websites durch einen Anruf oder eine E-Mail in einen Link umgewandelt werden

Seht euch außerdem Seiten an, die über Themen berichten, auf die ihr spezialisiert sein. Hier kann ein Link zu einem eurer Artikel ggf. eine sinnvolle Ergänzung sein. Fragen kostet nichts.

Natürlicher Linkaufbau wird durch die Erstellung hochwertiger Inhalte auf deiner Website gefördert.

Links über Social-Media-Kanäle bringt indessen nichts für den Link-Aufbau, kann aber u.U. zusätzlichen Traffic generieren.

Durchaus interessant für die SEO Optimierung kann auch die Historie der eigenen Domain sein, gerade wenn ihr eine Domain besitzt, die früher schon einmal in Gebrauch war. Zum einen finden sich Informationen online bei archive.org. Dort sind i.d.R. ältere Versionen der Website zu sehen. Zum anderen können bei Ahrefs ältere Backlinks und Ankertexte gesichtet werden.

Auch ausgehende Links sollten regelmäßig optimiert werden. Zum einen auf Vertrauenswürdigkeit der genannten Quelle, zum anderen auf Fehler (301 oder 404 Meldungen etwa). Das funktioniert einfach im Frog (Reiter „External“).

Logfile-Analyse

Eine Logfile-Analyse filtert die von eurem Server automatische geschriebenen Besucher-Logs nach Einträgen von Bots. Tools, die hier zur Anwendung kommen können sind etwa das Echtzeit-Analyse Tool GoAccess (Open Source) oder der SEO Log File Analyzer (kostenlos bis zu einem Projekt mit 1.000 Einträgen).

Ich nutze GoAccess um mir anzuschauen, welche Bots vorbeigeschaut haben und welche Ressourcen wie und wie oft gecrawlt wurden.

goaccess

Ressourcen die nicht (mehr) vorhanden sind, erscheinen mit 404-Status. Das sollten prozentual nicht zu viele sein – Immer versuchen, Fehler im Code zu fixen und tote HTML-URLs ansonsten weiterzuleiten.

Interessant im Rahmen der technischen Suchmaschinenoptimierung ist es außerdem, welche Seiten häufig gecrawlt werden und welche weniger häufig. Letztere können durch zusätzliche Links innerhalb deiner Website für den Crawler aufgewertet werden.

Weitere Ansätze zu Optimierungen über Logfile-Analyse hat die SEO-Expertin Aleyda Solis zusammengestellt.

Snippet Optimierung

Unter Snippets verstehe ich hier die Vorschau eurer Links zur Website in den Suchergebnissen. Das Snippet besteht grundsätzlich aus Title, Meta-Beschreibung (beide zusammen sind sogenannte Meta Tags) und Erweiterungen (definiert i.d.R. über Schema-Auszeichnungen). Diese Informationen sind als Metadaten nicht direkt auf der Website sichtbar, für die SEO-Optimierung aber sehr bedeutsam.

Sitelinks werden als Unterseiten unter dem Google-Eintrag der Website angezeigt.

Fehlende Title Tags und Descriptions findet ihr über den Screaming Frog. Jede Seite sollte diese Informationen besitzen, auch wenn Google gerade beim Einblenden der Descriptions in den SERPs häufig eigene Vorstellungen hat.

Die wichtigsten Keywords sollten unter SEO Aspekten möglichst gleich vorne im Title auftauchen. Die Gestaltung von Title und Description ist ansonsten stark abhängig von euren Inhalten und euren Nutzerintentenitionen. Emojis und Sonderzeichen mögen bei Reisblogs funktionieren, bei medizinischen Angeboten sind sie dagegen eher unangebracht.

Die Click Through Rate (CTR) auf der Ergebnisseite ist als Nutzersignal ein wichtiger Erfolgsfaktor für das Google Ranking eurer Inhalte. Durch das Testen unterschiedlicher Titles und Descriptions könnt ihr u.U. durch Verbesserung der Klickrate ein paar Positionen gut machen. Insbesondere Kandidaten auf Position 11-15 der Ergebnisse können durch Snippet Optimierung oft den Einstieg auf die Seite 1 schaffen.

In der Google Search Console könnt ihr eure Keywords nach Position und CTR filtern und geeignete Optimierungsmöglichkeiten finden. Die CTRs nehmen in den unteren Positionen stark ab, aber i.d.R. findet ihr Benchmarks im eigenen Keyword-Set der Search Console.

Für alle Inhalte sollten idealerweise Schema-Auszeichnungen vorhanden sein. Sie erleichtern Suchmaschinen das Verständnis deiner Website und können zudem ggf. auch in den SERPs erscheinen (z.B. FAQ-Snippets, Rich Snippets oder Artikel-Sitelinks bedingt durch Inhaltsverzeichnis/Sprungmarken).

Die Validität strukturierter Daten kann im Screaming Frog und in der Google Search Console untersucht werden, oder auch im Testtool für strukturierte Daten.

Für Websites mit stationärer Präsenz ist ein Eintrag bei Google My Business ratsam.

Seitenstruktur

Einen schnellen und bemerkenswert umfassenden Eindruck zu Struktur und Seiteninhalt könnt ihr euch über Seorch verschaffen – auch wenn definitiv nicht alle dort analysierten Aspekte relevant sind für das Ranking von Webseiten.

Um die gesamte Website zu analysieren, nutze ich auch hier das Schweizer Taschenmesser unter den SEO-Tools, Screaming Frog SEO Spider.

Zunächst schauen wir im Hinblick auf die Suchmaschinenoptimierung, ob H1, H2 und ggf. H3 korrekt verwendet werden. Gundsätzlich sollte jede HTML-Ressource neben dem Title eine H1-Überschrift besitzen, längere Artikel werden mit Zwischenüberschriften auf mehreren Ebenen (H2, H3) strukturiert. Doppelte H1 Überschriften sind zu vermeiden.

Fehlende Alt-Tags für Bilder werden ebenfalls vom Spider ausgegeben („Images“ nach „Missing Alt Text“ filtern). Ebenso können kanonische Links überprüft werden („Canonicals“).

Nach meiner Erfahrung macht es Sinn, die URL-Struktur einer Website thematisch zu organisieren. Also z.B. /blog/rot/xy.html, /blog/blau/zy.html. Das erleichtert die Auswertung und hilft den Besuchern deiner Webseite, die Stuktur einer Website zu verstehen.

Zudem sollte die Klick Tiefe möglichst flach organisiert sein, d.h. alle wichtigen Seiten müssen mit wenige Klicks von der Startseite aus erreichbar sein. Die Klick Tiefe sieht man im SEO Spider im rechten Fenster unter „Site Structure“.

Unter „Visualizations“ lässt sich zudem ein Crawl Diagramm erstellen, dass die Struktur und interne Verlinkung der Website grafisch aufbereitet.

crawl diagram

Interne Verlinkung

Die systematische Nutzung von internen Links ist ein wichtiger Bestandteil der Suchmaschinenoptimierung. Links sind zum einen nützlich für den Nutzer, zum anderen helfen weiterführende Links und Anchor Text (wie auch Alt Texte bei Bildern) Suchmaschinen dabei, Artikel und Inhalte besser zu verstehen.

Google wertet auf jeder Seite nur einen interner Link (der zuerst erscheinende). Weitere Links schaffen zusätzlichen Kontext. Verlinkungen von der Startseite und aus dem oberen Menu haben besonders viel Gewicht bei der Weitergabe von Link Juice. Anchor Texte von internen Links aus dem Text heraus geben über Anchors zusätzliche Infos und erleichtern zudem das Crawling für Suchmaschinen.

Wichtig bei der internen Verlinkung ist es, Anchor Text und Alt Text so auszuwählen, dass sie auf einzelne Artikel klar ausgerichtet sind. Sehr ähnliche Anchors sollten nicht für verschiedene Ziele verwendet werden, das verwirrt Nutzer und Suchmaschinen.

Gleichzeitig lässt sich mit geschickter Auswahl von Anchor Texten (Beschreibung eines Themas mit unterschiedlichen Worten) die Verlinkung optimieren und mehr Kontext herstellen. Beispielsweise können in der GSC bereits rankende Keywords für Seiten auf Positionen 5 bis 12 identifiziert werden. Diese Wörter oder Wortkombinationen sind geeignet als Anchor Text Variationen für interne Links. Das hilft bei der Suchmaschinenoptimierung.

Mit Hilfe von Breadcrumbs werden übergeordnete Seiten und Themen automatisch (rück-)verlinkt. Zwischen verschiedenen Themenfeldern würde ich grundsätzlich auch Links setzen, soweit inhaltlich passend. Hierzu gibt es jedoch unterschiedliche Ansätze (vgl. Siloing).

Kategorie- und Tag-Seiten helfen Nutzern bei der Orientierung und zudem dabei, den Link Juice gleichmäßig auf Artikel zu verteilen. Sie können aber bei übermäßiger Verwendung von Tags und Kategorien auch zum Ballast werden. Also (z.B. im Rahmen eines Content-Audits) prüfen, ob die Verteilseiten tatsächlich genutzt werden und ggf. sogar ranken. Ansonsten sind Kategorien und Tags bei kleineren Websites vielleicht auch verzichtbar.

Texte, die besonders gut von extern verlinkt sind und eine hohe Autorität besitzen, können genutzt werden um andere wichtige Seiten durch interne Verlinkung zu stärken.

Unter „verwaisten“ Seiten werden URLs verstanden, die intern nicht verlinkt sind. Sie sollten vermieden werden, oder aber auf noindex stehen (z.B. Success Pages).

Fragen und Feedback zur SEO-Optimierung?

Einige Website-Betreiber neigen dazu, ihre Webseite über zu optimieren. Klammert euch nicht zu sehr an Keyword-Dichte und hochoptimierten SEO-Content oder Links von anderen Webseiten. Behaltet vielmehr die Wünsche und das Verhalten eurer Website-Besucher bei eurer Online Marketing Strategie im Auge. Solltet ihr eine Beratung für Suchmaschinen-Optimierung suchen – ich helfe gerne bei der Ausarbeitung und Umsetzung einer erfolgversprechenden Content-Marketing-Strategie.

Falls ihr Fragen zur Suchmaschinenoptimierung oder zum Online Marketing habt oder ein Audit wünscht für die Google Optimierung eurer Rankings, schreibt mir an meine E-Mail-Adresse georg@pagenstedt.de. Ich unterstütze als Freelancer für SEO bzw. SEO Agentur und kümmere mich zudem auch um SEA und SEO-Texte. Nicht immer entstehen für eine erste Beratung gleich Kosten. Mehr über mich und meine Leistungen findet ihr hier.

Weiterlesen:







Nichts mehr verpassen.
Abonniere den RSS-Feed.