Suchmaschinenoptimierung

Hast du dir auch schon einmal überlegt wie du es schaffen kannst endlich mehr Traffic auf deine Website, deine Nischenseiten, deinen Blog (siehe: Blog erstellen), oder auch auf deinen Online Shop zu bekommen? Eine Möglichkeit sehr zielgruppenrelevanten und kostenlosen Traffic (abgesehen von deiner Arbeitszeit) zu erhalten lautet: SEO, oder auch Suchmaschinenoptimierung. Mit Hilfe der Suchmaschinenoptimierung ist es möglich die eigene Internetpräsenz bzw. die einzelnen Dokumente dieser so zu optimieren bzw. technisch auszuzeichnen, dass diese optimal von den Suchmaschinen verarbeitet und interpretiert werden können. Das Ziel der Suchmaschinenoptimierung ist, dass die eigenen Dokumente zu vordefinierten Suchphrasen (Keywords) sehr weit vorn in den Suchergebnissen (am Besten Platz 1 Seite 1) angezeigt werden, damit die User bzw. die potenziellen Zielgruppen auf diese klicken und anschließend die eigene Internetpräsenz besuchen (bzw. auf dieser Conversions generieren).

An dieser Stelle der wichtige Hinweis: Ich werde diesen Artikel regelmäßig überarbeiten und erweitern! Das Thema Suchmaschinenoptimierung ist sehr umfangreich, speziell und kann gleich mehrere Bücher füllen, daher werde ich dir dieses Thema hier umfassend und präzise erläutern. Damit du eine Vorstellung bzgl. des Umfangs und der Komplexität dieses Themas erhältst: Ich gebe z.T. 14 stündige SEO Seminare (siehe: SEO Seminar), in denen ich meinen Kunden und Teilnehmern das Thema SEO ganzheitlich erkläre, damit sie zukünftig bestmöglich von den Suchmaschinen profitieren können. Ich werde in diesem Artikel sowohl die SEO Grundlagen, als auch die fortgeschrittenen SEO Strategien aufzeigen, damit auch du zukünftig von der organischen Suche der Suchmaschine profitieren kannst. Mein SEO Know-how basiert übrigens nicht nur auf reiner Theorie, sondern auf wertvollen praktischen Erfahrungen, die ich täglich anwende. Ich wünsche dir viel Spaß beim lesen!

Suchmaschinenoptimierung im Wandel

Die Online Marketing Disziplin SEO hat sich in den letzten Jahren erheblich verändert. Während Suchmaschinen noch vor einigen Jahren sehr „statisch“ gearbeitet haben und auf die einfachsten technischen Mittel zurückgreifen mussten, sind diese heutzutage deutlich „intelligenter“ und in der Lage Kontext und Zusammenhänge zu erfassen, sodass die Suchergebnisse weiteraus hilfreicher und bedürfnisorientierter geworden sind. Diese komplexen Verhaltensweisen und technischen Fortschritte der Suchmaschinen spiegeln sich auch im Bereich Suchmaschinenoptimierung wider. Auch wenn zum Beispiel Keywords und Backlinks nach wie vor noch eine wichtige Rolle spielen um zielgruppenrelevanten Traffic über die organischen Suchergebnisse zu bekommen, liegen auch andere Faktoren wie z.B. holistischer und bedürfnisorientierter Content im Fokus zukünftiger SEO Maßnahmen.

Bevor ich mit dir die zukünftigen SEO Maßnahmen und Strategien im Detail durchgehen werde, möchte ich dir erst einmal zeigen, wie Suchmaschinen überhaupt arbeiten. Nur so kannst du eine Vorstellung davon bekommen, weshalb wir überhaupt für diese optimieren bzw. technische Auszeichnungen nutzen.

So arbeiten Suchmaschinen

Wer effektiv SEO betreiben möchte (siehe: SEO Seminar), der muss vor allem verstehen wie Suchmaschinen überhaupt funktionieren und wie diese arbeiten. Überall ist stets die Rede von Titles und Descriptions optimieren, Meta-Tags, robots.txt, indexieren, Crawler, Snippets und anderen SEO Fachbegriffen. Alle diese SEO Faktoren müssen anscheinend optimiert, verändert, ausgezeichnet, gelesen und bearbeitet werden, doch bleibt oft das „weshalb mache ich das?“ auf der Strecke. Vor allem Einsteiger und Hobbywebmastern fallen SEO Optimierungen häufig besonders schwer, da ihnen das nötige SEO-, Online Marketing Know-how und auch die relevanten Erfahrungen fehlen, weshalb sie überhaupt diese wichtigen SEO Faktoren berücksichtigen sollten (siehe auch: Relaunch). Im Folgenden werde ich dir erklären, weshalb du diese Bereiche optimieren solltest und weshalb diese SEO Auszeichnungen für die Suchmaschine so relevant sind.

Technisches SEO: Die Suchmaschine verstehen
Möchte man mit seiner Internetpräsenz online gefunden werden, dann liest man in sehr vielen Blogs, Büchern und Fachartikeln, dass Titles und Descriptions angepasst werden müssen, dass Keywords berücksichtigt werden müssen und dass man doppelte Inhalte (Duplicate Content) vermeiden soll. Doch wieso sollte man das tun? Stellt man einigen SEOs und Einsteigern diese Frage, dann kann diese oft nur sehr unzureichend beantwortet werden. Diese SEO Maßnahmen sind zwar korrekt und Titles und Descriptions sind in der Tat sehr relevant, aber mindestens genau so wichtig ist es zu verstehen, wieso man diese SEO Maßnahmen umsetzen soll und was diese im einzelnen bewirken. Möchtest du diese übrigens mit einem Tool intensiv prüfen lassen, dann sind die XOVI SEO Tools sehr zu empfehlen. Ich selbe nutze XOVI bereits seit vielen Jahren und bin sehr zufrieden mit dieser umfassenden Online Marketing Suite, aber das nur nebenbei.

Da das Thema Suchmaschinenoptimierung bzw. die Funktionlität von Suchmaschinen sehr komplex ist, versuche ich mich auf die wichtigsten Bereiche zu beschränken. Insgesamt gibt es ungefähr sechs wichtige Bereiche, die man sich genauer anschauen sollte. Hierbei handelt es sich um eine sehr vereinfachte Darstellung einer Suchmaschine

  • Crawler
  • Url-Server
  • Store-Server
  • Scheduler
  • Parser
  • Index

Man kann sich den Crawler einer Suchmaschine wie eine Spinne vorstellen, die Links von einem Dokument zum anderen folgt. Das eigentliche Ziel eines Crawlers ist die Erstellung eines Index. Crawler arbeiten systematisch Links ab, daher sollte man stets auf die interne Verlinkung achten, sodass der Crawler auch alle relevanten Dokumente finden kann. Crawler erhalten vom URL-Server URL-Listen, die abgearbeitet werden sollen. Diese Listen beinhalten wiederum URLs, die noch nicht in den Index aufgenommen wurden. Die Suchmaschinencrawler erhalten diese Listen von dem URL-Server  und arbeiten diese systematisch ab. Dabei speichern sie die Informationen in einer Datenbank (dem Repository).

Damit der Suchmaschinencrawler weiß welche URLs er als nächstes abrufen soll, erhält er diese relevanten Informationen vom Scheduler. Dieser Scheduler zieht aus dem URL-Index URLs heraus, die der Crawler als nächstes bearbeiten soll. Nach dieser Abarbeitung gibt der Crawler diese Informationen weiter an den Parser. Ein Parser ist ein sogenannter Zerteiler, was bedeutet, dass er die Inhalte so aufbereitet, dass diese später optimal weiterverarbeitet werden können. Der Parser zieht relevante Informationen heraus und übermittelt diese wiederum an den Store-Server. Der Store Server muss nun diese Informationen, die er von dem Parser erhalten hat, (die Informationen kann man sich vorstellen wie eine sehr einfaches Grundgerüst der Website) extrahieren.

Hierbei wird vor allem auf auch auf Veränderungen geachtet. Die Links, die noch nicht bekannt sind, werden wieder an den URL-Server übergeben. Die gefundenen Informationen werden anschließend in den Index übernommen. Dafür ist am Ende der Indexer zuständig. Er speichert die Informationen, die er erhalten hat, sehr detailliert ab, sodass eine spätere Durchsuchung der Dokumente stark vereinfacht wird. Am Ende steht dann noch der Searcher. Bei dem Searcher handelt es sich um das FrontEnd der Seite, also das, was der Nutzer sehen kann (das Suchfeld). Wenn nun der User eine Suchanfrage stellt, dann wird diese Suchanfrage mit den Inhalten des Index abgeglichen.

Der Index besteht aus drei Bereichen:

  • Lexikon (Hashtabelle aller im Web gefundenen Begriffe) Jeder Begriff erhält einen Verweis auf die sogenannte Hit-List
  • Hit-Lists (enthalten Verweise auf das Repository)
  • Repository (Datenbank, die Informationen erhält, die der Crawler sammelte)

Da es in diesem Artikel vorwiegend um Google geht, sollten wir uns zuerst anschauen, welche Google-Crawler es überhaupt gibt:

Crawler:

  • Googlebot für die Google Websuche
  • Googlebot-News für die Nachrichten
  • Googlebot-Images für die Bilder
  • Googlebot-Video für die Videos
  • Googlebot-Mobile für die mobilen Inhalte
  • Google Mobile AdSense für Adsense mobile
  • Google Adsense für Adsense
  • Google AdsBot für die Zielseiten-Qualitätsprüfung

Es gibt mehrere Möglichkeiten den Suchmaschinencrawlern Hinweise zu geben um deren Arbeit zu erleichtern und um diese zu steuern:

Die interne Verlinkung
Möchtest du dem Google-Crawler die Arbeit erleichtern, dann nutze die interne Verlinkung. Dokumente, die in sehr tiefen Ebenen zu finden sind, können vom Crawler teilweise nicht mehr erreicht werden. Aus diesem Grund nutze die interne Verlinkung, damit der Crawler auch die Dokumente erreichen kann, die in tieferen Ebenen zu finden sind, damit er diese Inhalte auch anschließend entsprechend interpretieren kann.

Meta-Tags
noindex: noindex bedeutet, dass der Crawler diese Inhalte nicht indexieren soll
nofollow: nofollow ist die Angabe, dass der Crawler dem Link nicht folgen soll

Die Sitemap
Möchtest du dem Crawler die Arbeit erleichtern, dann erstelle eine Sitemap, die der Crawler als Übersicht nutzen kann. Achte vor allem darauf, dass in der Sitemap nur die wichtigen Dokumente vorhanden sind, die auf jeden Fall gecrawlt und bewertet werden sollen. Es gibt nicht nur Sitemaps für Artikel, sondern auch:

  • Sitemaps für Videos
  • Sitemaps für Bilder
  • Sitemaps für Google News

Die robots.txt
Vielleicht hast du schon von der robots.txt gehört, wusstest jedoch nie so richtig, welche Funktion diese besitzt. Die robots.txt ist ein Werkzeug mit dem man Crawler steuern kann. Besucht der Google-Crawler deine Website, dann schaut er zuerst nach der robots.txt um zu erfahren, wie er sich verhalten soll. Es ist wichtig, dass sich die robots.txt im root-Verzeichnis befindet und dass dieser Dateiname komplett klein geschrieben wird. Beispiel: deinedomain.de/robots.txt

Für die robots.txt gibt es einige Befehle. Hier werden ein paar aufgeführt und erläutert:

User-agent: Googlebot
Disallow:

User-agent wird dazu genutzt um einem entsprechenden Crawler „anzusprechen“. In diesem Fall wird der Google Bot angesprochen. Der Befehl Disallow: bedeutet, dass alle Inhalte indexiert werden dürfen. Das erscheint seltsam, vor allem weil der Begriff Disallow eigentlich aus dem Englischen etwas ganz anderes bedeutet? Das ist korrekt, aber damit Inhalte vom Googlebot nicht indexiert werden, müsste der Befehl folgendermaßen lauten:

User-agent: Googlebot
Disallow: /

Der / nach Disallow: teilt dem Crawler mit, dass diese Inhalte nicht indexiert werden dürfen. Mit der robots.txt kann man den Crawlern sehr detailliert aufzeigen, was diese „dürfen“ und was nicht. Da es mittlerweile sehr viele Crawler gibt, wäre es zu mühsam alle Crawler in der robots.txt zu erwähnen, aus diesem Grund kann ein * genutzt werden. Dieses Zeichen sagt aus, dass alle Crawler angesprochen werden sollen. Über die robots.txt können auch einzelne Dateieindungen, oder auch Verzeichnisse vom Crawling ausgenommen werden.

Hier mal ein besonderes Beispiel, welches wir uns nun genauer anschauen werden:

User-agent: *
Disallow: /*.pdf$
Disallow: /crawl-mich-nicht/
Disallow: /ich-bin-ein-beispielartikel.html
Disallow: /archiv*/

Erklärung:
User-agent: * bedeutet, wie bereits oben beschrieben, dass alle Robots angesprochen werden sollen. Die unteren Befehle gelten also für alle Robots. Da wir nicht möchten, dass Crawler unsere .pdf-Dateien crawlen um diese ggf. anschließend in den Suchmaschinenindex aufzunehmen, schließen wir mit dem Befehl: /*.pdf$ alle .pdf-Dateien aus. Hier kann natürlich auch flexibel agiert werden und statt .pdf beispielsweise .png genutzt werden.

Disallow: /crawl-mich-nicht/ bedeutet, dass dieses Verzeichnis nicht gecrawlt werden soll. Wenn wir schon dabei sind zu erwähnen, was alles nicht gecrawlt werden soll, dann soll auch ein bestimmter Artikel nicht gecrawlt werden (genau: /ich-bin-ein-beispielartikel.html).

Vielleicht ist dir aufgefallen, dass bei archiv* ein * hinter dem Verzeichnis Archiv steht. Dieses * bedeutet, dass mehrere Archive nicht indexiert werden sollen (zum Bespiel archiv-1 und archiv-2). Des Weiteren kann in der robots.txt angegeben werden, wo sich die Sitemap auf der Seite befindet. Da die Crawler gleich zu Beginn die robots.txt abrufen, können diese gleich die Sitemap finden und auf diese zugreifen. In der Google Search Console gibt es die Möglichkeit die robots.txt zu testen. Hierzu gehst du auf den Bereich „Crawling“ und wählst „robots.txt-Tester“. Hier hast du im unteren Bereich nun die Möglichkeit deine robots.txt testen zu lassen und zwar von einem Google Crawler deiner Wahl. Du kannst aus folgenden Crawlern auswählen:

  • Googlebot
  • Googlebot-News
  • Googlebot-Images
  • Googlebot Videos
  • Google-Bot Mobile
  • Mediapartners-Google
  • Adsbot Google

Wenn eh gerade die Google Search Console betrachtet wird, dann findest du im oberen Bereich noch weitere relevante Informationen zum Thema „Crawling“.

  • Crawling Fehler
  • Crawling Statistiken
  • Abruf wie durch Google
  • robots.txt-Tester
  • Sitemaps

Im Bereich Crawling Fehler erhältst du wichtige Hinweise, ob der Google Crawler deine Inhalte auch korrekt verarbeiten kann, oder ob Fehler auftraten. Wenn Fehler aufgetreten sind, dann hast du die Möglichkeit dir diese anzeigen zu lassen und diese zu beheben. Du kannst so direkt mit der Suchmaschine kommunizieren und zusammen arbeiten. In den Crawling Statistiken kannst du sehen, wie Google deine Seite crawlt und welche Daten dafür aufgewendet worden sind. Hier kannst du sehen, wie aktiv der Googlebot auf deiner Seite in den letzten Tagen war.

„Abruf wie durch Google“ ist eine sehr interessante Option, die du dir auf jeden Fall genauer anschauen solltest. Hier kannst du eine URL angeben (beispielsweise die eines neuen Artikels, der sich noch nicht im Suchmaschinenindex befindet) und kannst diesen an den Index senden. Aus technischer Sicht wird diese URL dann an den URL-Server weitergegeben, der daraufhin dem Crawler wieder die Information in der URL-Liste mitgibt, sodass der Crawler daraufhin diese Seite abarbeitet.

Es kann Sinn ergeben, dass einige unwichtige Bereiche nicht gecrawlt werden sollen. Da jede Domain ein eigenes Crawling-Budget besitzt, gilt es die Ressourcen des Google-Crawlers optimal zu nutzen. Aus diesem Grund kann es sinnvoll sein nur Bereiche crawlen zu lassen, über die man sich einen wesentlichen SEO Vorteil erhofft. Auch hier gilt es wieder, wie bereits in anderen Artikel erwähnt: Prioritäten setzen! Die Google Search Console bieten jedoch noch wesentlich mehr Informationen. Nicht nur das Thema Crawling ist sehr relevant, sondern auch das Thema „Indexierung“. Aus diesem Grund findet man in der Google Search Console auch noch relevante Informationen zu dem Thema Indexierung. In der Navigation unter „Google-Index“ findest du den Menüpunkt: „Indexierungsstatus“. Hier erhältst du eine Statistik, wie deine Inhalte indexiert wurden.

Du fandest dieser Teil war sehr technisch und sehr anstrengend? Ja, da hast du absolut Recht, aber dieser Teil war sehr wichtig und notwendig, wenn es darum geht Suchmaschinenoptimierung zu verstehen. Ich persönlich lege großen Wert auf umfassendes SEO Know-how, daher möchte ich dir nicht nur erklären wie etwas funktioniert, sondern vor allem auch weshalb. Nachdem ich dir nun erklärt habe wie Suchmaschinencrawler Dokumente interpretieren, kommen wir nun zum interessanten Thema SEO Grundlagen.

SEO Grundlagen

Ist man als Unternehmen, oder als Betreiber einer eigenen Internetpräsenz im Internet vertreten, dann möchte man natürlich, dass die eigene Website, der eigene Online Shop, oder aber auch das eigene Produkt gefunden wird. Da heutzutage mehr und mehr Unternehmen festgestellt haben, dass es unabdingbar ist im Internet vertreten zu sein, entsteht so natürlich ein gewisser Konkurrenzdruck auch in den Suchmaschinen. Unternehmen ABC vertreibt im Internet beispielsweise Zahnbürsten, Unternehmen BCD ebenfalls. Da der Kunde allerdings nur eine Zahnbürste online kaufen möchte, muss er zwischen diesen beiden Unternehmen wählen. Beide Unternehmen betreiben einen sehr ähnlichen Online Shop und sind auf Zahnbürsten spezialisiert. Nun stellt sich die Frage: Welches Unternehmen wird nun die Zahnbürste online verkaufen?

Die Suchmaschine hilft
Heutzutage nutzen sehr viele Menschen regelmäßig die Suchmaschinen (überleg an dieser Stelle mal kurz wie häufig du heute schon gegooglet hast) um sich zu informieren, bevor sie ein Produkt kaufen.

Um das Beispiel von oben wieder aufzugreifen, könnte es sein, dass der User „Zahnbürste kaufen“ in die Suchmaschine eingegeben hat. Das hat wahrscheinlich drei Gründe:

  • Der User möchte sich informieren, welche Zahnbürste am Besten ist
  • Der User möchte Produkte miteinander vergleichen
  • Der User möchte online eine Zahnbürste kaufen

Nun gibt es natürlich noch weitaus mehr Unternehmen, die sich ebenfalls auf Zahnbürsten spezialisiert haben, dennoch bleiben wir erst einmal bei den zwei Beispielunternehmen. Nachdem der User nun in die Suchmaschine „Zahnbürste kaufen“ eingegeben hat, erhält er mehrere Suchergebnisse. Zum einen die bezahlten Suchergebnisse (Google AdWords) im oberen Bereich, zum anderen die nicht bezahlten (organischen) Suchergebnisse im unteren Bereich.

Die Wahrscheinlichkeit, dass sich der User für ein Suchergebnis auf der ersten Seite entscheidet ist relativ hoch. Er möchte sich jetzt informieren und eine Zahnbürste kaufen und wenn er die Suchergebnisse überfliegt, dann habe alle etwas mit genau diesem Thema zu tun. Aus diesem Grund klickt er auf das erste Suchergebnis mit folgendem Title und folgender Description:

Title: Zahnbürste kaufen – Topqualität schon ab 10€
Description: Sie möchten eine Zahnbürste kaufen? Jetzt gratis informieren und unter vielen Topprodukten auswählen. Hier klicken!

Genau diese Informationen hat der User gesucht und aus diesem Grund klickt er auf das erste Suchergebnis. Hier wird er dann voraussichtlich auf eine Landingpage vorfinden, die genau die von ihm gewünschte Thematike behandelt. Unternehmen BCD betreibt nämlich Suchmaschinenoptimierung, hat die Landingpage extra für diese Suchanfrage (Query) erstellt und bietet so dem potenziellen Kunden genau das, was er benötigt. Aus diesem Grund profitieren in diesem Fall beide Seiten. Der Kunde findet genau das Produkt, welches er benötigt und Unternehmen BCD hat online sein Produkt verkauft.

Doch was ist mit den anderen Unternehmen, die noch keine Suchmaschinenoptimierung betreiben? Haben diese in den Suchmaschinen keine Chance mehr?

Diese Frage kann man nicht allgemein beantworten! Bietet ein Unternehmen qualitativ hochwertige Informationen bzw. Content (siehe: Content Marketing) , dann wird dieser wahrscheinlich auch von der Suchmaschine korrekt verarbeitet und interpretiert werden, dennoch sollte man sich als Webmaster stets mit dem Thema Suchmaschinenoptimierung auseinander setzen, denn SEO sorgt auch dafür, dass man seinen Webauftritt strategisch ausrichtet.

Was ist damit gemeint?
Wenn man eine Website bzw. einen Online Shop erstellt, dann soll diese Onlinepräsenz in der Regel einen Zweck erfüllen. Entweder möchte man über diese Kunden ansprechen, man möchte informieren, man möchte verkaufen, man möchte präsent sein, oder man hat ein anderes Conversionziel (siehe: Conversionoptimierung) definiert.

Wenn man als Unternehmen Content im Internet anbietet, dann ist es essentiell, dass dieser der eigenen Zielgruppe Mehrwert bietet, dass dieser aktuell ist und dass dieser gepflegt und qualitativ hochwertig ist.  Das gilt selbstverständlich nicht nur für die Startseite, sondern auch für alle Unterseiten! Jede Unterseite sollte ebenfalls einen eigenen Zweck (Conversionziel) besitzen, z.B. zu informieren, zu verkaufen etc. Mit Hilfe der Suchmaschinenoptimierung ist es also möglich der Suchmaschine jeden thematischen Fokus einer bestimmten Unterseite (Dokument) technisch zu erläutern.

Strategische Ausrichtung über SEO
Suchmaschinenoptimierung bedeutet nicht nur, dass man dafür sorgt, dass die Suchmaschinencrawler die eigenen Inhalte optimal verarbeiten können. Das ist in diesem Fall der zweite Schritt. Der erste Schritt ist, dass man schaut, dass man selbst den User und auch die eigenen Zielgruppen versteht. Man muss analysieren welche Bedürfnisse die Kunden besitzen und wie man diese am Besten befriedigen kann. Wieso sollte man als Unternehmen ein Produkt online stellen, wenn niemand dieses Produkt benötigt und wenn es für dieses keine Nachfrage gibt? Als Suchmaschinenoptimierer (siehe: SEO Manager) kann man auf relevante Daten zurückgreifen, mit denen man die konkreten Bedürfnisse der eigenen Zielgruppen ermitteln kann (Suchvolumina). Bevor du also mit der SEO Optimierung beginnst, ist es essentiell, dass du eine ausführliche Keywordrecherche durchführst um zu ermitteln, ob es für diene Intention in Bezug auf Content eine konkrete Nachfrage deiner Zielgruppe gibt. Hast du diese konkreten Bedürfnisse in Form von Keywords ermittelt, dann kannst du anfangen den einzelnen Dokumenten einen Keywordfokus zuzuordnen und relevante SEO Onpage- und Offpage Faktoren zu nutzen um zukünftig mehr Traffic über die organische Suche der Suchmaschine zu erhalten.

Du möchtest jetzt sicher endlich wissen, welche SEO Faktoren besonders wichtig sind und welche du für seine zukünftigen SEO Optimierungen nutzen solltest. Im Folgenden findest du eine praktische Liste:

Title:

  • Nicht mehr als 70 Zeichen nutzen
  • Beinhaltet das wichtigste Keyword
  • Wichtiges Keyword steht möglichst weit vorn
  • Fasst den Inhalt der Seite zusammen
  • Bietet dem User Mehrwert
  • Weckt die Neugier des Users

Description:

  • Ca. 300 Zeichen nutzen (Neu: Desktop)
  • Ca. 200 Zeichen nutzen (Neu: Mobile)
  • Besitzt eine direkte Handlungsaufforderung (Call to action)!
  • Fasst den Inhalt des Dokuments zusammen
  • Beinhaltet das wichtigste Keyword
  • Bietet dem User Mehrwert

URL:

  • Sprechend (keine Zeichenketten, sondern Wörter (Keywords) nutzen)
  • Sinnvolle Verzeichnispfade wählen (Beispieldomain1.de/blog/dieses-ist-ein-beispielartikel/
  • Bindestriche statt Unterstriche wählen
  • Bietet dem User Mehrwert und fasst den Inhalt der Seite zusammen
  • Groß- und Kleinschreibung beachten

Überschriften:

  • Sinnvolle Überschriften wählen
  • Nur eine H1 Überschrift wählen
  • Überschriften sollten Longtail-Keywords enthalten
  • Mehrere H2, H3, H4 Überschriften sind möglich
  • Überschriften sollen den Lesefluss unterstützen

Weiterleitungen:

  • Korrekte Weiterleitungen nutzen
  • Statuscode 301 statt 302 verwenden (damit relevanter Backlinklinkjuice weitergegeben wird)
  • Weiterleitungsketten vermeiden

Canonical Tag:

  • Wird bei doppelten Inhalten genutzt (Festlegung von Prioritäten)
  • (siehe: ausführlicher Erklärung  im unteren Bereich)

Interne Verlinkung:

  • Damit der Crawler alle Seiten erreichen kann ist eine sinnvolle interne Verlinkung essentiell
  • Intern wird stets mit dem „Follow“-Attribut verlinkt
  • Durch die interne Verlinkung lassen sich intern Prioritäten von Dokumenten festlegen
  • Beschreibende keywordhaltige Anchortexte nutzen
  • Möglichst flache Hierarchien nutzen
  • Keywordfokus beachten
  • Intern absolut verlinken

Statuscodes:

  • Korrekte Statuscodes nutzen
  • Keine 404-Seite mit Statuscode 200 ausgeben

Bilder:

  • Alt-Tags nutzen um Bilder zu beschreiben
  • Fließtext um Bilder nutzen (Keywords)
  • Bild-Dateien korrekt benennen (Keywords)

Robots.txt

  • Sitemap in robots.txt angeben
  • Groß- und Kleinschreibung beachten
  • robots.txt gibt Crawlern nur Hinweise. Bei Sperrungen stets die .htaccess verwenden

Performance

  • Lange Ladezeiten vermeiden
  • Daten komprimieren
  • Caching nutzen
  • CSS Sprites nutzen
  • Http-Requests verringern
  • Javascript reduzieren

SSL-Verschlüsselung nutzen

  • https:// verwenden
  • Intern direkt auf https:// verlinken
  • https:// Sitemap anpassen
  • Canonicals beachten

Mobile Darstellung

  • Optimierte Darstellung auf mobilen Endgeräten
  • Responsive-Lösung empfohlen

Strukturierte Daten

  • Strukturierte Daten nutzen
  • Rich Snippets fördern
  • z.B. Bewertungen implementieren

Backlinks

  • Ausschließlich thematisch relevante Backlinks erhalten
  • Natürliches Verhältnis Follow/NoFollow beachten
  • Keine harten Anchortexte (Keywords) nutzen / erhalten
  • Aus dem Text heraus verlinkt werden
  • Aus dem sichtbaren Bereich verlinkt werden
  • Beschreibender Anchortext wichtig (siehe: Backlink Qualität)
  • Möglichst wenig andere ausgehende Links auf dem Dokument
  • Backlinks bringen zielgruppenrelevanten Traffic

Content

  • Ausführlicher und mehrwerthaltiger Content
  • Content muss die Bedürfnisse der eigenen Zielgruppe befriedigen
  • Content muss einzigartig sein
  • Das zur gewünschten Suchanfrage relevanteste Dokument werden

Im Folgenden habe ich für dich einzelne SEO Faktoren noch einmal detaillierter erläutert:

Ladezeiten verringern – SEO Performance Optimierung

Nutze das Browser-Caching
Du kannst ein sogenanntes Browser-Caching für statische Ressourcen festlegen, sodass diese bei jedem Seitenaufruf nicht neu vom Server geladen werden müssen, sondern über die lokale Festplatte geladen werden können. Das Ablaufdatum der Ressourcen kannst du in den entsprechenden HTTP-Headern festlegen. Ein sogenannter Cache-Validierer kann dir zudem helfen zu ermitteln, ob die Cache-Ressourcen auch optimal genutzt werden.

Reduziere dein JavaScript
Du kannst JavaScript komprimieren, sodass du auch hier einige Bytes sparen kannst. Vor allem werden diese Bytes nicht nur beim Herunterladen gespart, sondern auch beim Parsen und bei der Ausführungszeit. Achte zudem darauf, dass zu Beginn des Seitenaufbaus nur das JavaScript geladen wird, welches auch wirklich benötigt wird. Nicht benötigtes JavaScript kann zu einem späteren Zeitpunkt nachgeladen werden. Desweiteren sollte JavaScript möglichst spät geparst werden.

Ein Inhalt, eine URL
Achte darauf, dass du nicht mehrere Ressourcen für beispielsweise ein Bild besitzt. Achte darauf, dass es sich dabei um eine konsistente URL handelt, über die das Bild abgerufen werden kann.

Komprimiere deinen HTML Code
Inline-Javascripts und CSS können genau wie der HTML Code meist noch weiter komprimiert werden, sodass deine Website, dein Blog bzw. dein Online Shop noch schneller geladen werden kann, da die Größe der zu herunterladenden Daten verringert wurde.

Minimiere die Anzahl der Weiterleitungen
Weiterleitungsketten, sogenannte Redirect Chains kosten oft Zeit. Vermeide die Anzahl der Weiterleitungen vor allem auch die sogenannten „Redirect Chains“. Bei diesen Redirect Chains handelt es sich um Weiterleitungsketten. Es wird also nicht gleich auf das korrekte Weiterleitungsziel in Form einer URL weitergeleitet, sondern diese URL wird anschließend erneut weitergeleitet.

Ein Beispiel:
Dokument 1 -> Weiterleitung 301 -> Dokument 2 -> Weiterleitung 301 -> Dokument 3 -> Weiterleitung 301 -> Dokument 4. Weiterleitungsketten stören nicht nur die User, sondern auch die Suchmaschinencrawler, daher achte darauf, dass du immer gleich das korrekte und finale Linkziel verlinkst.

Komprimierung von JavaScript und CSS
Du kannst mittels gzip JavaScript und CSS komprimieren, sodass so die Ladegeschwindigkeit verbessert wird.

Optimiere deine Bilder
Du kannst deine Bilder komprimieren, sodass diese noch schneller geladen werden können. Nutze möglichst komprimierte und „kleine“ Bilder, sodass diese entsprechend schneller vom Server heruntergeladen werden können. Wichtig ist auch, dass du diese bereits skaliert zur Verfügung stellst, sodass die Skalierung nicht noch im Nachhinein geschehen muss. Es ist zusätzlich hilfreich auch gleich die Höhe und die Breite der Bilder anzugeben, sodass ebenfalls Ladezeit gespart werden kann. Handelt es sich um sehr viele Bilder in einem Dokument, dann sollten die Bilder zu sogenannten CSS-Sprites kombiniert werden. Hier werden alle Bilder zusammengefügt, sodass am Ende „nur ein Bild“ geladen werden muss. Es wird jedoch nur ausschließlich der Teil des CSS Sprites angezeigt, der auch wirklich benötigt wird. So kann die Anzahl der Http-Requests reduziert werden, was ebenfalls zur Folge hat, dass die Ladezeit verringert wird.

Mobile SEO

In vielen Fällen dominiert bereits der mobile Traffic, daher ist es essentiell, dass diese Entwicklung auch im Bereich der Suchmaschinenoptimierung berücksichtigt wird. Im Folgenden werde ich dir zeigen, welche mobile SEO Lösungen es dafür gibt.

Letztendlich hast du mehrere Möglichkeiten deine Internetpräsenz optimal für deine Zielgruppen auf mobilen Endgeräten zugänglich zu machen. Hier die zwei gängigsten:

1.) Responsive Design
2.) Eine mobile Version deiner Seite

Responsive Design
Beim responsive Design wird deine Onlinepräsenz wie z.B. dein Blog, oder auch deine Website entsprechend an das Endgerät angepasst, was bedeutet, dass deine Inhalte im besten Fall auf jedem Endgerät optimal lesbar sind. Letztendlich sollte bedacht werden, dass es oft nicht sinnvoll ist, auf einem Smartphone all die Elemente und Informationen darzustellen, die auch auf der Desktop Version dargestellt werden, denn das User-Verhalten am Smartphone (und wahrscheinlich auch die Intention) ist voraussichtlich eine andere, als auf dem Desktop. Wer das Smartphone nutzt hat meist weniger Zeit bzw. eher eine kürzere Aufmerksamkeitsspanne als z.B. ein Desktopuser, daher sollten auf dem Smartphone nur die wichtigsten Elemente und Informationen zusammengefasst und auch zentrale Conversionelemente entsprechend angepasst werden (beispielsweise der „Buchen“- und „Kaufen-Button“). In diesem Fall bleibt die URL der Seite identisch (wichtig!).

Die Mobile Version der Internetpräsenz
Die mobile Version einer Onlinepräsenz ist eine Version, die extra für mobile Endgeräte erstellt wurde. Wenn die Desktopversion aufgerufen wird, dann wird der User-Agent ermittelt. Handelt es sich bei dem User-Agent um ein mobiles Endgerät, dann wird entsprechend auf die mobile Version der Onlinepräsenz weitergeleitet. Meist wird dazu eine Subdomain eingerichtet, wie m.dasisteinebeispielseite1.de. Hier gilt es zu bedenken, dass alle URLs unterschiedlich sind und es so sozusagen doppelte Inhalte geben kann.

Wichtige Tipps für die mobile Version:

  • Leite auch hier mittels des Statuscode 301 weiter (so wird Backlinkjuice weitergegeben)
    Die Google Search Console gibt dir mittlerweile auch Hinweise bezüglich deiner mobilen Version
  • Achte auf die Ladezeiten, die durch Weiterleitungen entstehen
  • Setze auf deinen mobilen Seiten Canonicals auf die entsprechenden „Desktop-URLs“
  • Vermeide Inhalte auf deiner Seite einzubauen, die Smartphones nicht abspielen können
  • Leite Nutzer nur auf eine mobile Unterseite, wenn es auch ein entsprechend Pendant gibt
  • Erstelle auch für deine mobile Version eine eigene Sitemap (diese kannst du dann in der Google Search Console einreichen)
  • Stelle sicher, dass der Googlebot auch deine mobile Onlinepräsenz crawlen kann (passe deine robots.txt entsprechend an)
  • Nutze „rel alternate“ um auf deine mobile Website hinzuweisen
  • Vermeide Werbung auf der mobilen Seite, sondern beschränke dich auf das Wichtigste

Suchmaschinenoptimierung und Duplicate Content

Häufig liest man als Webmaster im Bereich Suchmaschinenoptimierung von dem „Canonical Tag“, meist in Verbindung mit Duplicate Content, also doppelten Inhalten. Das Canonical-Tag ist eine Angabe im <head> Bereich des Quelltexts eines Dokuments. Mit Hilfe des Canonical Tags ist es möglich Suchmaschinen mitzuteilen, dass von einem Dokument mehrere sehr ähnliche btw. identische Versionen jedoch mit unterschiedlichen URLs existieren. So kann die Suchmaschine leichter identifizieren welches Dokument zukünftig zu einer entsprechenden Suchanfrage herangezogen werden soll.

Erklärung Duplicate Content:
Suchmaschinen haben die Intention ausschließlich einzigartige und mehrwerthaltige Dokumente in ihren Suchmaschinenindex aufzunehmen. Wenn du nun als Webmaster mehrere sehr ähnliche bzw. identische Unterseiten besitzt, dann kann es sein, dass die Suchmaschine diese als doppelte Inhalte identifiziert, da die Unterschiede im Quelltext zu gering ausfallen.

Sollte das der Fall sein, dann fällt es der Suchmaschine schwer das Dokument zu ermitteln, welches zu entsprechenden Suchanfragen herangezogen werden soll. Somit besitzt man als Webmaster ein „Duplicate Content Problem“, welches zur Folge haben kann, dass es zu erheblichen Keywordschwankungen kommt, da die Suchmaschine versucht herauszufinden, welches der sehr ähnlichen Dokumente für entsprechende Suchanfragen am relevantesten ist.

Mit Hilfe des Canonical-Tag können Webmaster der Suchmaschine im Quelltext mitteilen, welche Version die „Originalversion“ eines Dokuments ist und welches von der Suchmaschine zu Suchanfragen herangezogen werden soll. Die anderen Versionen werden von der Suchmaschine nicht in den Index aufgenommen.

Um die Notwendigkeit des Canonical-Tags besser darstellen zu können, findest du im unteren Bereich einige Beispiele, die verdeutlichen werden, wann das Canonical-Tag genutzt werden sollte. Bei diesen Beispielen könnte es ohne Canonical-Tag zu einem Duplicate Content Problem kommen:

Druckansichten 
www.beispieldomain.de/beispielartikel.html
www.beispieldomain.de/beispielartikel_print.html

IDs zum Beispiel-Session IDs-URls 
www.beispieldomain.de/produktname
www.beispieldomain.de/produktename?session_id=123

Startseite ist unter verschiedenen Versionen aufrufbar
www.beispieldomain.de
www.beispieldomain.de/index.html
beispieldomain.de
beispieldomain.de/index.html

Https und Http Versionen vorhanden:
(http:)//www.beispieldomain.de
(https:)//www.beispieldomain.de

Parameter-URLs
www.beispieldomain.de/beispielprodukt
www.ihreseite.de/beispielprodukt?tracking_id=xyz

Doppelte Inhalte durch Groß- und Kleinschreibung
www.beispieldomain.de/Artikel/
www.beispieldomain.de/artikel/

URLs mit und ohne Trailingslash vorhanden
www.beispieldomain.de/artikelname
www.beispieldomain.de/artikelname/

Das Canonical bei PDF-Dateien
Möchtest du als Website-Betreiber deinen Lesern die Möglichkeit anbieten bereits erschienene Artikel als .pdf-Datei herunterzuladen, dann verursacht die .pdf Datei aus Sicht der Suchmaschine (sofern die .pdf Datei gecrawlt und indexiert wird) Duplicate Content, da der Inhalt dieses Dokuments identisch ist mit dem bereits veröffentlichten Artikel. Aus diesem Grund sollte man als Webmaster im Http-Header das Canonical angeben.

Die Arbeit mit dem Canonical-Tag in der Schnellübersicht

  • An welchen Stellen ist ein Duplicate Content Problem vorhanden?
  • Welche Version soll indexiert werden bzw. ranken?
  • Welche ähnliche Dokumente sind vorhanden?
  • Einbindung des Canonical-Tags bei den „doppelten Versionen“.

Das Canonical- Tag ist eine gute Möglichkeit Suchmaschinencrawler darauf hinzuweisen, dass es mehrere sehr ähnliche Versionen eines Dokuments gibt (mit unterschiedlichen URLs), sodass Duplicate Content leicht vermieden werden kann. Da es sich bei dieser Angabe um eine sehr schwerwiegende Änderung handelt ist es essentiell, dass man sich als Webmaster intensiv mit dem Canonical-Tag auseinandersetzt und dieses korrekt implementiert. Wird dieses falsch eingebunden (wird z.B. http :// statt https:// genutzt), dann kann dieser Feher dazu führen, dass z.T. die komplette Website bzw. der eigene Online Shop deindexiert wird und du wichtige Suchmaschinenrankings verlierst. Bitte arbeite daher sehr genau und sorgfältig mit dem Canonical Tag!

Suchmaschinenoptimierung – Nachhaltige Tipps

Damit du zukünftig noch mehr Traffic über die organische Suche der Suchmaschine erhalten kannst, werde ich dir im Folgenden noch ein paar konkrete Tipps für deine Suchmaschinenoptimierung geben:

Brandbuilding
Möchtest du deine Website, deine Nischenseite (siehe: Nischenseite eBook), deinen Online Shop, oder auch deinen Blog für die Suchmaschinen optimieren, dann solltest du vor allem dein Grundverständnis bzgl. deiner Onlinepräsenz ändern. Deine Website mag aktuell „nur eine Homepage“ sein, jedoch wird diese Definition in Zukunft voraussichtlich nicht mehr ausreichen um als Autorität in den Suchmaschinen wahrgenommen zu werden. Denke nicht mehr in „Website“, denke in „Brand“! Du musst deine Onlinepräsenz dahingehend optimieren, dass diese ein Brand wird bzw. deinen persönlichen Brand optimal widerspiegelt. Deine Inhalte müssen so unique und einzigartig sein, dass zukünftig genau deine Internetpräsenz im Internet eine Autorität darstellt. Deine Inhalte müssen nicht nur mehrwerthaltig und einzigartig sein, sondern sie müssen auch eine persönliche Note besitzen. Dein Content muss etwas besitzen, dass ihn so auszeichnet, dass nicht nur die User, sondern auch die Suchmaschine feststellen können, dass diese Inhalte nur von dir stammen können.

Um genau das zu erreichen solltest du dir folgende Fragen stellen:

  • Worin unterscheidet sich meine Onlinepräsenz in Bezug auf andere?
  • Welchen USP (Unique Selling Point) besitzt meine Website?
  • Welches Ziel verfolge ich mit meiner Internetpräsenz?
  • Spiegeln die Inhalte, die ich veröffentliche, genau das wider, was ich auch erreichen möchte?
  • Warum sollten User Zeit auf meiner Onlinepräsenz verbringen?
  • Warum sollten sich User den Namen meiner Website bzw. Blog merken?
  • Gibt es etwas, was User mit meiner Website assoziieren können?
  • Bieten meine Inhalte überhaupt soviel Mehrwert, dass User später erneut meine Website bzw. meinen Online Shop besuchen werden?
  • Werde ich von anderen Webmastern erwähnt, weil ich z.B. Experte auf meinem Gebiet bin?
  • Wie wird meine Seite von anderen Experten wahrgenommen?
  • Können meine Inhalte genau meiner Seite zugeordnet werden, oder könnten diese auch auf anderen Websites erscheinen?

Letztendlich geht es mir darum, dass deine Internetpräsenz mehr ist als nur ein Informationsmedium. Deine Website benötigt eine Art Persönlichkeit, die so einzigartig ist, dass nicht nur deine Inhalte begeistern, sondern auch die Art und Weise, wie diese von Usern wahrgenommen werden. Wie sind sie geschrieben? Wie sind diese angereichert (durch Brandvideos, Bilder, Infografiken..). Lege Wert darauf dich aktiv im Markt zu positionieren und lass dich nicht positionieren. Es geht nicht nur um den Inhalt an sich, sondern wie dieser mit deiner Website, deinem Online Shop, oder auch deinem Blog in Verbindung gebracht wird.

Ein Beispiel:
Du lässt Content produzieren (siehe: Content Marketing) und veröffentlichst diesen dann in der Hoffnung, dass dieser dann „gut rankt“ und du so zielgruppenrelevanten Traffic für deine Website generierst (siehe: Reichweite steigern). Dabei lässt du völlig außer Acht, dass genau dieser Inhalt bereits thematisch auch schon auf sehr vielen anderen Websites erschienen ist. Warum sollte also genau dein Inhalt gelesen werden, wenn in diesem genau das nachzulesen ist, was auch schon seit langer Zeit auf vielen anderen Websites erschienen ist?

Fehler:
Natürlich gibt es Inhalte, die sich thematisch sehr dicht an anderen Inhalten orientieren, dennoch fehlt deinem Inhalt in diesem Fall die persönliche Note. Dein Content ist zwar unique, nicht aber von der Art wie dieser geschrieben wurde. Dieser könnte genau so kopiert und auf einer anderen Website eingefügt werden. Es würde keinen Unterschied machen!

Lösung:
Du musst deine Internetpräsenz dahingehend branden, dass diese eine einzigartige Note erhält. Gebe deinen Inhalte eine einzigartige Struktur, brande diese durch Logos, Bilder und Animationen und lege den Schwerpunkt dabei stets auf inhaltliche Qualität. Wenn du einen Artikel veröffentlichst, dann darf das Ziel in Zukunft nicht mehr lauten: „Gut ranken“, sondern dass dieser von deinen Zielgruppen gelesen wird, weiterempfohlen wird und dass deine Marke und Autorität durch diesen nachhaltig ausgebaut wird. Überzeuge nicht mehr die User von deinem Artikel, sieh deine Internetpräsenz als Gesamtprodukt und überzeuge deine Zielgruppe durch dein Gesamtangebot und nicht mehr nur durch lediglich „einen Inhalt“.

Weshalb ist diese Maßnahme im Bereich Suchmaschinenoptimierung so wichtig?
Suchmaschinen legen mehr und mehr Wert auf Autoritäten, also auf Experten Know-how. Wenn du nun auf deinem Gebiet mit herausragendem Content herausragende Arbeit leistest, dann wirst du langfristig in diesem Gebiet von den Suchmaschinen als Autorität anerkannt werden, was wiederum bedeutet, dass du zu den Keywords deines Themas „besser ranken“ wirst.

Es ist an dieser Stelle wichtig zu erkennen, dass du deinen Zielgruppen und den Suchmaschinen mehr bieten musst, als lediglich gute Inhalte. Biete ein umfassendes Expertenwissen, welches nicht nur exakt ein Problem lösen kann (durch z.B. einen Artikel), sondern gleich mehrere. Berate deine potenziellen Kunden und User möglichst umfassend und ausführlich und befriedige deren Bedürfnisse.

Aus diesem Grund langt es heutzutage i.d.R. bei weitem nicht mehr lediglich 400 Wörter zu einem Thema zu schreiben und zu hoffe, dass man mit diesem gute Ergebnisse in den Suchmaschinen erzielen wird. Als Webmaster muss man dafür sorgen, dass mit den eigenen Inhalten interagiert wird.

Aus diesem Grund achte darauf, dass dein Content:

  • Für deine Zielgruppen geschrieben wird
  • Ein Problem umfassend behandelt
  • Keine Rechtschreibfehler aufweist
  • Nicht durch Werbung in den Hintergrund gerät
  • Angereichert wird (Bilder, Videos, Infografiken, Tabellen..)
  • Interne Links zu thematisch ähnlichen Artikeln besitzt
  • Leicht in den sozialen Netzwerken geteilt werden kann
  • Wirklichen Mehrwert bietet
  • Ein Ziel verfolgt, welches auch gemessen werden kann (KPI)
  • Dich beim Brandbuilding unterstützt
  • Technisch sauber ausgezeichnet wurde (Mircrodata/Onpageoptimierung)

Semantisches Markup und strukturierte Daten
Vielleicht hast du dir gerade eben gedacht: „Was genau ist mit Microdata gemeint“ und was bedeutet „Technisch sauber auszeichnen“? Es ist möglich den Suchmaschinencrawlern noch detaillierte Hinweise zu geben um was genau es sich in einem Dokument handelt. Das gelingt mit Hilfe der sogenannten Microdata, die z.B. mittels schema.org ausgezeichnet werden können.

So kannst du zum Beispiel mit den Auszeichnungen von schema.org der Suchmaschine mitteilen um was es sich in deinem Artikel thematisch handelt. Handelt es such beispielsweise um ein Rezept, eine Veranstaltung, oder um Person? Du kannst mit Hilfe der strukturierten Daten dafür sorgen, dass die Suchmaschinencrawler deine Dokumente thematisch besser interpretieren und einordnen können. Diese Einordnung von Inhalten wird in Zukunft voraussichtlich eine noch größere Rolle spielen (z.B. aufgrund der Voice Search) aus diesem Grund ist es sinnvoll die eigenen Inhalte optimal auszuzeichnen.

Auszeichnungen, die sehr häufig genutzt werden:

  • Events
  • Reviews
  • Rezepte
  • Videos
  • Personen
  • Orte
  • Bewertungen
  • Produkte

Vielleicht stellst du dir gerade die Frage: „Können nur die Suchmaschinencrawler diese Auszeichnungen sehen, oder haben diese auch noch einen anderen Effekt?“. Hauptsächlich werden voraussichtlich die Suchmaschinen von diesen Informationen profitieren, dennoch profitieren auch oft Webmaster und User von diesen Auszeichnungen. So findet man Bewertungen beispielsweise auch in den Suchmaschinenergebnissen (Rich Snippets).

Suchmaschinenoptimierung – Vermeide diese Fehler

Es gibt einige technische SEO Fehler, die dafür sorgen können, dass man in den Suchmaschinen nicht optimal gefunden wird. Das kann einzig und allein daran liegen, dass man keinen Überblick über die eigenen Inhalte besitzt, oder aber dass sich nicht ausreichend mit dem Thema SEO beschäftigt wurde. Wenn du über die organische Suche der Suchmaschine zielgruppenrelevanten Traffic erhalten möchtest, dann solltest du folgende Fehler vermeiden:

Du kennst deine Inhalte nicht
Wenn du keinen Überblick mehr hast, welche Inhalte du besitzt und wie diese von den Suchmaschinen indexiert wurden, dann solltest du dich intensiver mit dem Thema „Indexierung“ auseinander setzen. Nutze dazu am Besten die Site-Abfrage: „site:deinedomain1.de“ um im Google Index zu schauen, welche deiner Inhalte bereits in den Suchmaschinenindex aufgenommen wurden. Wenn du feststellst, dass sich im Suchmaschinenindex Inhalte befinden, die deinen Zielgruppen und auch der Suchmaschine keinen Mehrwert bieten, dann lass diese ggf. wieder deindexieren. Du solltest deine Inhalte kennen und auch wissen, welche sich im Index befinden. Denk bitte zudem daran, dass du jedem Dokument deiner Internetpräsenz ein eigenes Fokuskeyword zuweist. Bei dem Fokuskeyword handelt es sich um den Suchbegriff zu dem dieses Dokument in den Suchmaschinen gefunden werden soll.

Du nutzt nicht die Google Search Console
Wie im oberen Bereich bereits geschrieben findest du in der Google Search Console wichtige Hinweise zum Thema Crawling, Sitemaps, robots.txt und Indexierung. Hier bekommst du nicht nur Hinweise und Tipps, sondern du kannst auch Fehler und Probleme erkennen und entsprechend auf diese reagieren. Zudem kannst du Dokmente (URls) einreichen, die gecrawlt werden sollen, deine Sitemaps einreichen und deine robots.txt testen lassen. Diese SEO Tools solltest du nutzen um der Suchmaschine wesentliche Hinweise zu geben und um mit dieser zu interagieren.

Du nutzt Meta-Tags falsch oder gar nicht
Meta-Tags sind eigentlich nicht kompliziert, vor allem nicht, wenn man zum Beispiel WordPress benutzt. Zudem sind diese ein sehr hilfreiches Mittel, wenn es darum geht Suchmaschinencrawlern Hinweise in Bezug auf die Suchmaschinenoptimierung zu geben. Aus diesem Grund solltest du diese nutzen und dich genauer mit den Meta-Tags beschäftigen.

Du machst Fehler in der robots.txt
Wenn du dich noch nicht so gut mit der robots.txt auskennen solltest, dann solltest du dich diesbezüglich unbedingt weiter einlesen, vor allem wenn du diese für SEO nutzen möchtest. Die robots.txt ist ein wichtiges Werkzeug, wenn es um die Steuerung von Crawlern geht. Machst du allerdings in dieser Fehler, dann kann es sein, dass die Inhalte deiner Seite nicht mehr indexiert werden, oder dass essentielle Bereiche nicht mehr gecrawlt werden können. Hier kann bereits ein / zur Folge haben, dass deine Seite nicht mehr gefunden wird. Aus diesem Grund solltest du, wenn du die robots.txt nutzen möchtest, dich intensiver mit dem Thema befassen.

Deine Inhalte sind intern unzureichend verlinkt
Wenn du möchtest, dass die Suchmaschinencrawler auch Inhalte deiner Seite findet, die sich in sehr tiefen Ebenen befinden, dann solltest du die interne Verlinkung nutzen um ihm diese zugänglich zu machen. Crawler nutzen Links um neue Seiten zu erkennen, daher solltest du diese Links nutzen um den Crawlern die Arbeit zu erleichtern. Vor allem solltest du auch die interne Verlinkung nutzen um mit keywordhaltigen Anchortexten deine Dokumente zu verlinken (Fokuskeyword).

Du verschwendest Crawling-Budget
Jede Domain verfügt über ein bestimmtes Crawling Budget, was bedeutet dass der Google Crawler nur bestimmte Ressourcen für deine Domain investiert. Diese Ressourcen solltest du unbedingt effizient nutzen! Doppelte Inhalte, oder sehr unwichtige Inhalte verschwenden Crawling-Budget und Indexierungsbudget, welches für wichtige Dokumente hätte aufgewendet werden können. Aus diesem Grund achte darauf, dass du dein Crawling-Budget effizient und sinnvoll einsetzt.

Unwichtige URLs in der Sitemap
Angenommen du hast eine Sitemap erstellt, diese in der Google Search Consoe eingereicht und sogar noch in der robots.txt angegeben, dann hast du schon einiges richtig gemacht. Du solltest allerdings darauf achten, dass sich in der Sitemap nur URLs befinden, die auch wirklich relevant sind. Hast du in dieser auch URLs angegeben, die eigentlich „unwichtig“ sind, dann hast du dem Crawler unnötige Informationen gegeben, die er allerdings trotzdem verarbeiten muss. Achte deshalb darauf, dass die Informationen in der Sitemap auch alle relevant, korrekt und wichtig sind.

Ich hoffe sehr, dass dir dieser umfangreiche Artikel gefallen hat! Ich werde diesen zukünftig regelmäßig überarbeiten, verbessern und erweitern, sodass dieser immer hilfreich für dich bleiben wird.

Sollte er dir gefallen haben, dann empfiehl ihn gern weiter!

Danke dir und beste Grüße
Dein Kevin

Weitere interessante Artikel

Online Geld verdienen
Social Media Marketing
E-Mail Marketing
Snapchat

Rating: 4.8/5. Von 16 Abstimmungen.
Bitte warten...