3 wichtige Fakten zum SEO Kurs!

  1. Diese SEO-Kurs Website ist in Form eines Buches gestaltet. Sie kann locker mit einem ausführlichen SEO Buch mithalten, wenn nicht sogar übertreffen! 
  2. Du wirst alles lernen, was für eine moderne Suchmaschinenoptimierung relevant ist. Im SEO Kurs wird kein Wissen verheimlicht!
  3. Schaue dich in Ruhe um und such dir die Kapitel aus, die du lernen möchtest. Wir empfehlen aber den kompletten Kurs von Anfang bis Ende zu lesen. Nur so wirst du wirklich alles über SEO lernen, was es zu lernen gibt.

Free-Version

Bieter dir eine kostenlose Alternative
Macht dich zum Fortgeschrittenen
✓ Ist in Textform

Startet unten

Pro-Version

Garantiert 100% mehr Besucher!
✓ Geld zurück Garantie
Macht dich vom Einsteiger zum Experten
Ist die ideale Begleitung zur Free-Version
✓ In Videoformat

Pro-Version ansehen

Definition von SEO

SEO steht für Search Engine Optimization (dt.: Suchmaschinenoptimierung). Dabei werden bestimmte Merkmale (Rankingfaktoren) einer Webseite so gestaltet, dass eine Suchmaschine (z.B. Google) die Webseite besonders weit oben anzeigt, wenn jemand nach dem Thema der Seite googelt.

Inhaltsverzeichnis des gratis SEO-Kurses

Vorwort zum SEO Kurs

  1. Basics
    • Welche Suchmaschinen gibt es
    • Grundlagen Links
    • Aufbau & Funktionsweise einer Suchmaschine
    • Der sichtbare Teil einer Suchmaschine
    • Das Nutzerverhalten
    • Wie lange dauert SEO und wie schwierig wird es?
    • Vor Google
    • Larry Page und Sergey Brin
    • Der PageRank
    • Die PageRank Formel
    • Updates und Manipulationsmethoden
    • RankBrain
  1. Die Vorbereitung
    • Keywords
    • Seitenstruktur
  1. Der Hauptteil des SEO Kurses: Die Rankingfaktoren und wie man sie optimiert
    • Faktorengruppen
    • Übersicht über die Rankingfaktoren
    • Die Optimierung
      • Content
        • Text
        • Design
        • Bilder
        • Videos
        • PDFs
      • Referenzen
        • Backlinks
          • Do-Follow
          • No-Follow
          • Backlinkoptimierung
          • Profile
        • User Signals
        • Social Signals
      • Technik
      • Trust
      • Negative Signale
        • Content
        • Referenzen
        • Technik
        • Anti-Trust
  1. Der Optimierungsprozess & Local SEO
    • Wo anfangen und wie vorgehen?
    • Aktualität beachten!
    • Wann auf Veränderungen reagieren?
    • Allgemeine lokale Optimierung
    • Google MyBusiness Optimierung
    • Homepageoptimierung
  1. Tools

SEO Lexikon

SEO Kurs zur eigenen Optimierung 

Vorwort zum kostenlosen SEO Kurs

Google ist heute nicht wie gestern, und morgen wird es nicht wie heute sein, auch wenn es auf den ersten Blick so aussieht. Im Schnitt werden zwei Updates pro Tag an dem Google Algorithmus vorgenommen. Wer die Grundprinzipien dieser Updates nicht versteht, wird im SEO langfristig kein Erfolg haben.

Die Zeiten in denen man verbotene Methoden anwenden konnte, um eine Website in Google nach oben zu bringen, sind definitiv vorbei. Die Grundprinzipien dieser Manipulationsmethoden sind allerdings in den Köpfen vieler SEOs geblieben.

Falls Sie sich schon mal mit SEO beschäftigt haben, vergessen Sie On- und Off-Page Optimierung und konzentrieren Sie sich darauf referenzenfreundlichen Mehrwert vertrauenswürdig zu präsentieren. Wir werden dies in diesem kostenlosen SEO Kurs Schritt für Schritt besprechen.

Sollten Sie sich zuvor noch nie mit SEO beschäftigt haben, ist dies überhaupt kein Problem. Dieses Buch fängt mit den absoluten Grundlagen an und endet mit einer Schritt für Schritt Anleitung für die Optimierung. Alles mit der Absicht referenzenfreundlichen Mehrwert vertrauenswürdig zu präsentieren.

Sollten Sie einen Begriff nicht verstehen können Sie im Lexikon nachsehen (wichtige Begriffe wurden immer verlinkt, wenn sie das erste mal auftauchen).

Viel Spaß mit dem kostenlosen online SEO Kurs von So geht SEO!

 

1.SEO Kurs Grundlagen

1.1 Welche Suchmaschinen gibt es

In diesem Kapitel des Kurses möchte ich ihnen ein paar Suchmaschinen vorstellen die es sich zu kennen lohnt.

Es gibt zahlreiche Suchmaschinen die bekannteste und größte ist Google, gefolgt von YouTube, was auch zu Google gehört. Weitere Suchmaschinen die ihnen bekannt sein dürften sind Yahoo! und Bing. Vor allem die Suchmaschine Bing von Microsoft, konnte in den letzten Jahren, in den USA, immer mehr Marktanteile für sich gewinnen. Dort kommt Google auf einen Marktanteil von knapp 70%, Bing kann 20% für sich beanspruchen und Yahoo! 10%.

Weltweit hat Google einen Marktanteil von ca. 90%. In Deutschland sind es knappe 94%. Deshalb werden wir  im diesem Buch uns auf die Optimierung für Google beschränken. Trotzdem möchte ich ihnen gerne noch ein paar alternative Suchmaschinen vorstellen.

Startpage

StartPage

 

Zum einen gibt es die Suchmaschine StartPage. Diese Suchmaschine legt sehr viel Wert auf Datenschutz. Sie ist die einzige Suchmaschine die mit dem Europäischen Datenschutz-Gütesiegel EuroPriSe ausgezeichnet ist. Weder erfasst sie IP-Adressen noch verwendet sie Cookies. Wenn Sie Wert auf Datenschutz legen könnte StartPage eine willkommene Alternative für sie sein. StartPage wird von dem Holländischen Unternehmen Surfboard Holding B.V. geleitet und existiert bereits seit 2006. Das Unternehmen betrieb bis 2016 noch eine zweite Suchmaschine Namens Ixquick. Um dem Suchenden bessere Ergebnisse zu bieten wurde 2016 die beiden Suchmaschinen Ixquick und StartPage vereint. StartPage hat weltweit ca. 6 Millionen Suchanfragen täglich, davon ca. 2,5 aus Deutschland. Im Vergleich, Google hat weltweit ca. 5,5 Milliarden Suchanfragen pro Tag.

DuckDuckGo

DuckDuckGo

Eine weitere Alternative ist die Suchmaschine DuckDuckGo. DuckDuckGo hat weltweit rund 3 Millionen Suchanfragen täglich und existiert seit 2008. Die Suchmaschine ist allerdings noch nicht zu 100% auf den deutschen Markt abgestimmt, weshalb immer wieder Englische Seiten in den SERP (Suchergebnisseiten) auftauchen.

Ecosia

Ecosia

Die dritte Suchmaschine die ich ihnen vorstellen möchte stammt aus Deutschland und wurde 2009 gegründet. Ecosia nennt sich diese Suchmaschine. Das Besondere an ihr ist ihr ökologisches Engagement. Ecosia spendet 80% der Einnahmen an gemeinnützige Naturschutzorganisationen. Bis zum jetzigen Zeitpunkt (17. August 2017) konnten durch die Spenden 12.110.080 Bäume gepflanzt werden. Ecosia zeigt die Anzahl der gepflanzten Bäume direkt auf der Startseite an (ecosia.org). Ecosia bezieht die Daten für die Suchergebnisse von Bing, sie sind also von hoher Qualität. Ein Nachteil von Ecosia könnte sein, dass sie ihre Daten an andere Suchmaschinen weitergeben. Aber das dürfte Google Nutzer nicht besonders stören.

Benefind

Benefind

Eine weitere Suchmaschine die sozial engagiert ist heißt Benefind. Benefind spendet rund 70% seiner Einnahmen. Im Gegensatz zu Ecosia, die ihre Spenden Naturschutzorganisationen zu gute kommen lassen, kann man bei Benefind selber bestimmen welche Wohltätigkeitsorganisationen die Spenden zugutekommen sollen. Die Suchergebnisse sind auch bei Benefind von guter Qualität, da diese ihre Daten von Yahoo! beziehen.

Suchmaschinen für Kinder

Neben den Suchmaschinen die ich ihnen eben vorgestellt habe, gibt es noch eine Reihe anderer Suchmaschinen. Beispielsweiße gibt es Suchmaschinen die speziell für Kinder gemacht wurden z.B. FragFINN, Blinde Kuh und Helles Köpfchen. Diese Suchmaschinen bieten Kindern einen sicheren Raum für die Internet Recherche. Die Suchmaschine FragFINN wird unter anderem von Google, Microsoft, 1&1, GMX, Super RTL und der Telekom unterstützt. Die Suchmaschine Blinde Kuh wird durch das Bundesministerium für Familie, Senioren, Frauen und Jugend unterstützt. Das Wissensportal Helles Köpfchen, welches eine Kindergerechte Suchmaschine Integriert hat, wird zusätzlich durch Werbung finanziert.

Weitere Suchmaschinen

Natürlich gibt es auch Suchmaschinen die für andere Dinge gemacht sind als das Web zu durchsuchen. Zum Beispiel hat auch Amazon eine Suchmaschine integriert, zum durchsuchen ihrer Produkte. Der App Store hat auch eine Suchmaschine integriert. Suchmaschinen sind in nahezu jedem Onlineshop und in fast jeder größeren Website integriert.

Wie Sie jetzt wissen gibt es einige Suchmaschinen die eine gute Alternative zu Google bieten. Weil diese, noch relativ unbekannten Suchmaschinen, in Sachen Qualität der Suchergebnisse dem Giganten Google in keiner weiße nachstehen und auch deutlich mehr auf den Datenschutz achten, ist es gut möglich das diese Suchmaschinen deutlich an Marktanteil dazugewinnen könnten. Wenn es irgendwann mal so weit sein sollte, dann müssen wir uns wohl auf die Optimierung mehrerer Suchmaschinen einstellen, aber zum jetzigen Zeitpunkt reicht es vollkommen aus, wenn wir uns auf die Optimierung in Google konzentrieren.

Ich habe mal zum Spaß das Keyword (Keyword nennt man den Suchbegriff) “Suchmaschine“ in den verschiedensten Suchmaschinen eingegeben. Ich wollte wissen welche Suchmaschine selbst das beste Ranking in anderen Suchmaschinen erzielt. In fast jeder Suchmaschine war Yahoo! auf Platz eins, ein paar Plätze dahinter war Google und Startpage. Auch oft auf der ersten Seite waren die Suchmaschinen DeuSu und Suchmaschine.com. Die Suchmaschine DeuSu stammt aus Deutschland und gibt an vollkommen Werbefrei zu sein, allerdings fand ich die Qualität der Suchergebnisse nicht überzeugend. Die Suchmaschine Suchmaschine.com lieferte zwar gute Ergebnisse, aber ich fand den Gesamteindruck dieser Suchmaschine nicht überzeugend, weil schon Werbeanzeigen im Such-Interface (Startseite einer Suchmaschine) angezeigt werden und in den SERP (Suchergebnisseiten) werden Werbeanzeigen fast nicht Sichtbar gekennzeichnet.

Die Suchmaschine Bing war übrigens in keiner Suchmaschine auf der ersten Seite zu finden. Es dürfte wohl jedem klar sein, dass das Ranking einer Suchmaschine in anderen Suchmaschinen nichts über die Qualität der Suchmaschinen aussagt. Es war nur reine Neugier zu wissen was dabei rauskommt.

1.2 Grundlagen Links

Wer sich mit SEO beschäftigt kommt um eines nicht rum, Links, besser gesagt Backlinks. Auch wenn Google Backlinks immer weniger Bedeutung zuschreibt, sind sie immer noch ein Rankingfaktor den man nicht außer Acht lassen sollte. Deshalb werden wir uns in diesem Kapitel mit den Grundlagen  von Links beschäftigen. Es geht hier noch nicht um die Optimierung von Links, das machen wir später. Hier geht es erstmal um die Grundlagen die jeder kennen sollte bevor er sich an die Optimierung der Links macht.

Grundlagen Links

Wenn es um Links geht kommt es immer darauf an aus welcher Position wir einen Link betrachten. Je nachdem aus welcher Sichtweiße wir über einen Link reden, hat er einen anderen Namen. Wenn wir beispielsweiße von einem Backlink sprechen, dann ist gemeint, dass ein Link von einer anderen Website auf unsere Seite führt. (Der Unterschied zwischen einer Website und einer Webseite ist, dass eine Webseite immer nur eine einzelne Seite innerhalb der Website ist. Eine Website dagegen kann aus mehreren Webseiten bestehen. Die Website beinhaltet also eine oder mehrere Webseiten). Unser eben genannte Backlink ist, für die Seite auf der unser Backlink platziert ist, natürlich kein Backlink. Für die Seite die unseren Backlink trägt ist dies ein externer Link (auch ausgehender Link genannt). Das gleiche gilt auch andersrum. Wenn wir einen Link auf unserer Website platzieren, der auf eine andere Website führt, dann ist dieser Link für uns ein externer Link (ausgehender Link) und für die Website auf die der Link führt, ist es ein Backlink. Ich denke jetzt weiß jeder was der Unterschied zwischen einem externen Link und einem Backlink ist, nämlich die Sichtweiße aus der man den Link betrachtet.

Aber was ist, wenn ein Link von einer Webseite auf eine andere Webseite innerhalb der Website führt? Einen Link der unsere Website nicht verlässt, nennen wir internen Link. Ein interner Link verbindet also zwei Webseiten innerhalb der gleichen Website.

Die Seite auf der sich der Link befindet (ganz egal welche Art Link) heißt Referer. Die Schreibweiße mir einem r (Referer) ist übrigens ein anerkannter Schreibfehler. In dem Dokument, wo die Bezeichnung Referrer bzw. Referer in Zusammenhang mit Links das erste Mal auftaucht, wurde dieser Schreibfehler begangen und später einfach beibehalten. Ich werde mich dem anschließen und ab jetzt nur noch Referer schreiben. Die Seite auf die ein Link führt nennen wir übrigens Zielseite. Auch hier ist es egal um welche Art von Link es sich handelt, die Seite auf die ein Link führt heißt immer Zielseite.

Deep Link

Einen Link, der auf eine Unterseite führt, nennen wir Deep Link. Ein interner Link, der innerhalb der Website, von der Startseite auf eine Unterseite führt, nennt man internen Deep Link. Innerhalb einer Website kann ein interner Deep Link dazu verwendet werden um eine Unterseite besser ranken zu lassen. (Mit besser ranken meine ich besser in Google platziert zu sein). Wieso das funktioniert sehen wir ins im vierten Kapitel an. Der Deep Link, der von einer anderen Website kommt, ist natürlich auch ein Backlink. Wenn dieser Link auf die Startseite unserer Website führen würde, wäre es nur ein Backlink und kein Deep Link. Bei einem Deep Link kommt es auf die Zielseite an. Ist die Zielseite eine Unterseite, sind alle Links die auf sie führen, Deep Links bzw. interne Deep Links.

Ein verlinktes Bild nennen wir (überraschender Weiße) Bildlink. Wenn in einem Video ein Link gesetzt ist, dann nennen wir dies ein Videolink. Bildlinks und Videolinks werden von Google weniger stark gewertet als Links in Texten (aufs Ranking bezogen).

Einen Link aus einem Sozialen Netzwerk (Facebook, Twitter, Google+, usw.) bezeichnen wir als Sociallink. Sociallinks sind fast immer No-Follow Links, d.h. Google folgt diesen Links nicht. Er wird zwar erkannt und Google weiß auch wo er hinführt, aber er wird nicht in die Berechnung des PageRanks mit einbezogen. (Der PageRank ist eine Methode, um die Stärke der Backlinks die auf eine Seite führen, zu messen. Wir besprechen das im zweiten Kapitel genauer.)

Wie eben schon erwähnt gibt es Links denen Google folgt und Links denen Google nicht folgt. Generell sind alle Links Do-Follow Links (Links denen Google folgt). Sie können allerdings mit einem No-Follow Befehl ausgestattet werden. Google berücksichtigt diese No-Follow Links nicht für die Bewertung der Seite, laut Google jedenfalls nicht. Es wurde aber von mehreren SEOs bewiesen, dass No-Follow Links von bestimmten Seiten eine positive Wirkung auf das Ranking haben können. Was genau Sie beachten müssen, damit No-Follow Links eine positive Wirkung auf ihre Website haben, besprechen wir im vierten Kapitel. Für den jetzigen Standpunkt reicht es aus zu wissen, dass es Do- und No- Follow Links gibt.

Früher war es möglich mit so genannten Linkfarmen eine Seite besser ranken zu lassen. Eine Linkfarm ist eine Website die extra dazu gemacht wurde um Backlinks für andere Webseiten zu sammeln. Linkfarmen sind allerdings laut den Google Richtlinien für Webmaster verboten und haben deshalb einen negativen Einfluss auf das Ranking.

Trashlinks sind Links die eine negative Wirkung auf das Ranking einer Webseite haben. Links aus einer Linkfarm sind zum Beispiel Trashlinks. Auch Links aus Autorenboxen (Autorenboxen sind in Foren und Blogs zu finden, in diesen werden Angaben zu dem Autor veröffentlicht) die nicht zu einer Autorenseite (Seite über den Autor) führen, sind Trashlinks. Welche Links noch alle schädlich sind besprechen wir im vierten Kapitel.

Wenn sie auf einen Link klicken, dann klicken sie auf den Ankertext des Links, d.h. der Text welcher verlinkt ist wird als Ankertext bezeichnet. Typische Ankertexte sind „“Hier klicken, “mehr erfahren“ oder auch einfach nur die URL der Webseite. Ankertexte werden auch als Anchortext (Englisch für Ankertext) oder Linktext bezeichnet. Ankertexte haben einen relativ großen Einfluss auf das Ranking. Wir besprechen sie im vierten Kapitel (Unterkapitel 4.3.2.1. Backlinks).

Den nächsten Link, den Sie kennen sollten, ist der iframe Link. iframe Link ist die Abkürzung für “Inlineframe Link“. Ein iframe Link wird benutz um Inhalt von einer Seite auf einer anderen Seite einbinden zu können, d.h. die Seite (oder ein Teil der Seite) kann über die Seite benutzt werden, auf der sich der iframe Link befindet. Einfach ausgedrückt, wird die Zielseite (bzw. ein Teil der Zielseite) als Ankertext benutzt. Meistens sind das Videos, es kann aber auch jeder andere Inhalt als iframe Link eingebunden werden. Wenn sie Videos in ihre Webseite einfügen wollen, dann sollten sie das Video auf YouTube hochladen und mit einem iframe Link auf ihrer Webseite einbinden. Das erhöht die Ladezeit der Seite, was gut für das Ranking ist. Auf YouTube können sie ganz einfach einen iframe Link erstellen indem sie auf Teilen, dann auf Einbetten klicken, den Link kopieren und auf ihrer Webseite einfügen.

iframe Link

1.3 Aufbau & Funktionsweise einer Suchmaschine

In diesem Abschnitt werden wir uns die funktionsweiße von Suchmaschinen ansehen. Dabei werde ich die Details auf die grundlegendsten Eigenschaften beschränken. Eine Suchmaschine ist ein sehr komplexes Werk. Hier geht es nur um das allgemeine Verständnis einer Suchmaschine, nicht um die technischen Details. Über den Aufbau einer Suchmaschine gibt es auch ein Video. Sie finden es unter https://sogehtseo.com/aufbau-suchmaschinen/ 

Ganz einfach Ausgedrückt besteht eine Suchmaschine aus mehreren Komponenten, diese sind: Die Crawler, der Scheduler, der Parser, der Store Server, der Index, das Such-Interface und die SERP.

Aufbau einer Suchmaschine

Crawler

Die Crawler nennt man auch Bots, Spider oder Robots. Bei Google werden sie Googlebots genannt. Man kann sie mit einem Browser wie Chrome oder Firefox vergleichen, nur das sie von automatischen Programmen gesteuert werden. Sie durchsuchen rasend schnell das Web indem sie die Links benutzen um von Webseite zu Webseite zu gelangen. Jedes Mal wenn ein Bot auf eine Webseite kommt kopiert er diese und erstellt eine Liste mit allen Links die es auf dieser Seite gibt. Wie Sie sicher gerade gemerkt haben braucht eine Webseite mindestens einen Backlink um von den Googlebots gefunden werden zu können. Allerdings ist es am Anfang überhaupt kein Problem einen Backlink für die eigene Seite zu bekommen. Wie Sie das genau machen zeige ich ihnen später. Es dauert für gewöhnlich eine Weile bis Google einen neuen Backlink und somit auch eine neue Webseite findet. Je nachdem wie gut der Backlink auffindbar ist kann dies drei Tage bis mehrere Wochen dauern. Wenn sie zu ungeduldig sind und wollen dass ihre Seite möglichst schnell in Google auffindbar ist, können Sie sie auch direkt an Google senden. Die Seite zum indexieren neuer Webseiten finden sie unter https://www.google.de/intl/de/submit_content.html

Weil Google sich aber nicht darauf verlässt, dass jeder seine Seite einreicht, macht Google sich selber auf die Suche nach neuen Seiten oder neuen Inhalten auf alten Seiten. Um das möglichst effektiv zu machen hat Google verschiedene Arten von Robots. Unter anderem:

  • Freshbots
  • Deepbots
  • Newsbots
  • Bilderbots
  • Videobots

Um neue Websites möglichst schnell in den Index aufnehmen zu können hat Google die so genannten Freshbots entwickelt, deren einzige Aufgabe es ist neue Websites ausfindig zu machen. Sobald sie eine neue Website gefunden haben kopieren sie diese und senden diese an den Index. Dann machen sie sich direkt wieder auf die Suche nach neuen Sites. Freshbots schicken nur die Startseite an den Index, diese sind sozusagen das Vorzeigeschild der Website.

Die Deepbots beschäftigen sich länger mit einer Website, sie durchsuchen die Website so genau es nur geht und finden auch Unterseiten die sich in der letzten Ecke einer Website befinden. Die Deepbots durchsuchen sozusagen jeden noch so kleinen Teil einer Website. Trotzdem, wenn eine Unterseite nur mit sehr vielen Klicks von der Startseite aus erreichbar ist, ist es auch für die Deepbots schwer diese zu erreichen. Weil diese immer per Zufall einen Link auswählen dem sie folgen, können sie so leicht vom Weg zu einer bestimmten Unterseite abgebracht werden. Die Deepbots brauchen also mehrere Versuche um auch die letzte Unterseite zu finden. Eine gut aufgebaute Seitenstuktur kann u.a. auch dabei helfen. Wir besprechen dies in Kapitel 3.2. Seitenstruktur.

Deepbots

Dann gibt es noch spezielle Bots für Nachrichten, sie werden Newsbots genannt. Weil Nachrichten möglichst dann in den Google Suchergebnissen auftauchen sollten, wenn sie noch aktuell sind, gibt es diese Newsbots. Sie treiben sich nur auf Nachrichtenseiten rum und geben auch nur die kleinste Änderung an den Google Index weiter. Das hat zu Folge, dass Nachrichten kurz nach der Veröffentlichung in Google auffindbar sind.

Dann gibt es noch spezielle Bots die sich auf das Aufspüren neuer Bilder oder Videos spezialisiert haben. Sie ignorieren alle anderen Sachen auf einer Webseite und suchen nur nach Bildern die der Seite neu hinzugefügt wurden. Die Bilderbots dienen nur dazu, dass Bilder schneller im Index von Google erscheinen. “Normale“ Bots können aber auch Bilder oder Videos indexieren, die Bilderbots dienen nur zur Unterstützung.

Parser

Jedes Mal wenn ein Bot auf eine Seite kommt kopiert er diese (außer Bilderbots, diese Kopieren nur die Bilder) und gibt sie an den Parser weiter. Dieser zerlegt die Webseiten in ihre Einzelteile, also in Texte, Bilder, Videos, PDFs und ähnliches. Das macht er, damit auch diese einzelnen Dateien in Google gefunden werden können. Beispiele sind die Google Bildersuche und die Videosuche. Bilder und Videos, die sich auf Webseiten befinden, können so auch einzeln in den speziellen Suchen (Bildersuche & Videosuche) gefunden werden. In der “normale“ Google-Suche (die, die man üblicherweise verwendet) sind all diese Spezial Suchen vereint. Deshalb ist diese auch mit “Alle“ gekennzeichnet. Unter Maps sind nur Einträge aus Google Maps zu finden, unter Bilder nur Bilder, usw. Dies ist für die Suchmaschinenoptimierung sehr wichtig, weil eine Webseite auch durch die speziellen Suchen gefunden werden kann. Ab Kapitel vier besprechen wir, wie Sie ihre Website für all diese Suchen optimieren.

 

Store Server

Der Parser gibt dann die einzelnen Dateien an den Store Server weiter. Dieser vergleicht die Dateien mit den bereits Indexierten und aktualisiert diese.

Index

Der Index ist, wie eben schon angedeutet, der Ort an dem alle Dateien gespeichert werden. Der Index ist sozusagen eine Kopie des Webs. Im Index werden die Dateien dann auf ihre Relevanz zu bestimmten Keywords untersucht und nach Qualität sortiert. Zur Berechnung der Relevanz werden über 200 Rankingfaktoren verwendet, die wir weiter hinten im Buch besprechen werden.

Scheduler

Der Scheduler steuert die Crawler. Das dient dazu, dass sich die Crawler gleichmäßig im Web verteilen und sich nicht zufällig in einer Ecke sammeln. Wenn zum Beispiel eine Webseite keinen einzigen ausgehenden Link beinhaltet, wäre es für einen Crawler unmöglich diese Webseite zu verlassen. (Die Crawler bewegen sich ja über Links durchs Web). Nach einer Weile wären alle Crawler auf Webseiten ohne ausgehenden Link gefangen und könnten das Web nicht mehr durchsuchen. Damit dies nicht passiert folgen die Crawler nur mit einer Wahrscheinlichkeit von ca. 85% einem Link. Mit einer Wahrscheinlichkeit von ca. 15% brechen sie die Suche ab und beginnen die Suche auf einer anderen Seite von neuem. Diese Seite wird dem Crawler dann vom Scheduler vorgegeben. Der Scheduler hat eine eigene Datenbank in der die Adresse (URL) jeder Webseite die sich im Google Index befindet gespeichert ist. So kann er die Crawler gleichmäßig im Web verteilen.

Wenn eine Seite zum Beispiel nur einen einzigen Backlink hat, aber relativ oft erneuert wird, wird es zu lange dauern bis ein Crawler auf den Backlink zu dieser Seite stoßt. Deshalb merkt sich der Scheduler wie oft eine Webseite aktualisiert wird und schickt dann einen Crawler vorbei wenn zu lange keiner mehr da war. Das bedeutet, wenn Google eine neue Seite findet wird kurz darauf (vielleicht am nächsten Tag) wieder ein Crawler auf dieser Seite vorbeischauen und nachsehen ob sich etwas an dieser geändert hat. Wenn sich was geändert hat wird der Crawler (bzw. ein anderer Crawler, je nachdem wen der Scheduler gerade zur Verfügung hat) seine Besucherfrequenz beibehalten. Falls sich nichts mehr verändert wird der Crawler seine Besucherfrequenz reduzieren.

Such-Interface & SERP

Damit der Nutzer auch Zugang zu der Suchmaschine hat, gibt es das so genannte Such-Interface. Das ist die Startseite, die sie sehen, wenn sie auf Google gehen.  Nachdem Sie den Suchbegriff dort eingegeben haben wird der Index nach diesem Begriff durchsucht. Die Seite auf der die Ergebnisse der Suche angezeigt werden nennt man SERP (Search Engine Result Pages). Wie genau die SERP aufgebaut sind, besser gesagt welche Arten von Suchtreffern es gibt, sehen wir uns im nächsten Kapitel an.

Was macht Google so schnell

Sie haben gerade gelernt, dass Google nicht bei jeder Suchanfrage das gesamte Web durchsuchen muss. Vielmehr hat Google das Web schon vorher durchsucht und sortiert. Es muss nur noch der Index nach dem Keyword durchsucht werden. Genau deswegen braucht Google auch nur selten länger als eine halbe Sekunde um die Suchergebnisse anzuzeigen. Müsste Google bei jeder Suchanfrage das gesamte Web durchsuchen könnten sie lange auf die Ergebnisse warten.  

Google legt sehr viel Wert auf Geschwindigkeit. Es zeigt sogar bei jeder Suchanfrage die Zeit an, die es zum Finden der Ergebnisse benötigt hat (siehe Bild unten). Die Geschwindigkeit war bzw. ist eines der Erfolgsgeheimnisse von Google. Geschwindigkeit und Qualität ist das oberste Gebot bei Google und deshalb auch fürs SEO!

Das Deep Web

Googlebots bewegen sich ja über Links durchs Web. Es soll aber auch Seiten geben die man nicht über einen Link erreichen kann, eben weil sie keinen Backlink haben. Solche Seiten sind demnach nicht in Google zu finden. Alle Seiten die nicht über einen Link zu erreichen sind bilden zusammen das Deep Web. Das Deep Web soll laut Experten mindestens genauso groß sein wie das normale Web.

Deep Web

Jetzt wissen Sie wie Suchmaschinen grundlegend funktionieren. Die Crawler die das Web durchsuchen werden vom Scheduler organisiert. Der Parser zerlegt die Webseite in ihre Einzelteile und der Store Server vergleicht diese Einzelteile mit den bereits vorhandenen Daten. Alle Daten werden dann im Index gespeichert.

1.4 Der sichtbare Teil einer Suchmaschine

Wir sehen uns jetzt den Sichtbaren Teil einer Suchmaschine etwas genauer an. Dies ist ein wichtiger Punkt, weil unsere Seiten auf verschiedenste Arten in Suchmaschinen angezeigt werden können. Um eine Webseiten in den SERP (Suchergebnisseiten) gut positionieren zu können, muss man erst mal wissen welche Bereiche es in den SERP gibt und wie man dort hinkommt.  

Das Such-Interface

Das Such-Interface besteht bei den meisten Suchmaschinen, allen voran Google, aus einem Suchschlitz und dem Logo der Suchmaschine. Einige Suchmaschinen setzten dabei auf einen anschaulichen Hintergrund, wie z.B. Bing, Ecosia und StartPage. Andere halten das Such-Interface eher schlicht und setzten auf einen weißen Hintergrund (z.B. Google und DuckDuckGo). Eher selten aber auch vorkommend werden auf dem Such-Interface auch Nachrichten oder Werbung angezeigt.

Die SERP

Die Snippets auf den SERP können unterschiedlicher Art sein. Die Snippets sind die einzelnen Teile die einem Informationen über die Webseiten geben. Sie bestehen bei Google aus dem Titel der Seite (in blauer Schrift), der URL (in grüner Schrift) und einer Meta-Description (in grauer Schrift).

SEO Kurs Snippet Erklärung

Es gibt verschiedene Snippetarten, wobei eine Snippetart unterschiedlich gestaltet sein kann. Wir werden uns die wichtigsten einmal ansehen.

Bezahlte Anzeigen

Die ersten sind Anzeigen für die der Seitenbesitzer zahlt wenn ein Nutzer sie anklickt. Diese Anzeigen werden an den höchst bietenden vergeben. Die Anzeige an sich ist kostenlos, der Seitenbetreiber zahlt erst, wenn ein Nutzer auf das Snippet klickt. Diese Abrechnungsmethode nennt man PPC (Pay per Click). Der durchschnittliche Preis pro Klick liegt bei etwa 50 Cent. Allerdings sind die Preise in den verschiedenen Branchen weit gestreut, deshalb ist fast jeder Preis möglich, von 10 Cent bis über 10 Euro. Für Betreiber eines Online Shops ist es möglich Produkte direkt auf der Suchtrefferseite anzeigen zu lassen. Diese werden dann auch mit dem PPC Verfahren abgerechnet. Allerdings haben diese Anzeigen nichts mit SEO zu tun, da ausschließlich der höchst bietende als erstes angezeigt wird, ist es nicht möglich eine Webseite für diese Anzeigen zu optimieren. Bei Google werden maximal vier PPC Anzeigen geschaltet. Diese stehen generell ganz oben in den SERP und sie sind auch entsprechend gekennzeichnet.

Organische Suchtreffer

Zweitens gibt es die Organischen Suchtreffer, diese stehen im Mittelpunkt der SEO Arbeit. Die Snippets aus den Organischen Suchtreffern sind auch als die “normalen“ Suchtreffer bekannt. Diese Snippets können zusätzlich noch mit einem Bild, einem Video, einer Sternebewertung oder so genannten Sitelinks ausgestattet sein. Ist dies der Fall, nenne wir sie Rich Snippets. Ein Sitelink ist ein zusätzlicher Link der unter dem dazugehörigen Suchtreffer angezeigt wird. Diese Sitelinks führen dann zu einer anderen Webseiten, die zu der gleichen Website gehören wie die Webseite die sich hinter der eigentlichen Anzeige des Snippets verbergen. Google bietet diese Seitelinks an um den Suchenden zusätzliche Relevante Informationen zu bieten.

Die Snippets werden übrigens nur Snippets genannt, wenn sie auf einem Desktop bzw. Laptop angezeigt werden. Auf mobilen Endgeräten werden sie Cards bzw. Rich Cards genannt. Die Darstellung ist allerdings die gleiche, nur der Name ist anders.

Beispiel ansehen

Sternebewertung Beispiel

Answer Box

Die dritte Suchergebnisart ist die Google Answer Box. Sie wird immer zwischen den PPC Anzeigen und den Organischen Suchtreffern angezeigt. Google erstellt diese Box aus einer gut rankenden Webseite oder die Daten stammen von Google selbst. Beispiele dafür bekommen Sie, wenn Sie bei Google nach dm in cm umrechnen, Dax oder was ist SEO suchen.

Beispiel ansehen

Knowledge Graph

Der Google Knowledge Graph ist sozusagen eine eigene Suchmaschine für Personen, Orte, Unternehmen, Organisationen, Sehenswürdigkeiten, Filme, Musiker und Tiere. Die Ergebnisse des Google Knowledge Graph werden rechts neben den normalen Ergebnissen angezeigt. Suchen sie einfach mal nach einem Ort, Musiker oder was anderem eben genannten und Sie werden es sehen.

Die Daten des Knowledge Graph bezieht Google aus Wikipedia oder anderen beliebten Seiten, aber auch aus seinen eigenen Diensten wie Google+, Google MyBusiness oder Google Maps. Der Knowledge Graph wird automatisch mit angezeigt wenn man nach einem Begriff sucht für den der Knowledge Graph Informationen zu Verfügung hat.

Beispiel ansehen

 

News Box

In der News Box werden aktuelle Nachrichten zu dem Suchwort angezeigt. Dies passiert automatisch, wenn Google passende Meldungen zur Verfügung hat. Die News stammen von vertrauenswürdigen Nachrichtenagenturen.

Beispiel ansehen

Local Box

Die local Box wird bei ortsbezogenen Suchanfragen eingeblendet. Sie gibt Auskunft über die Lage von Geschäften und Firmen. In diesem Beispiel habe ich “Pizzeria Berlin“ eingegeben und mir wurden drei Orte angezeigt an denen ich Pizza essen kann. Wir werden die Optimierung für die local Box in einem extra Kapitel besprechen. Für Geschäfte ist die lokale Optimierung ein wichtiger Punkt, weil die local Box immer über den organischen Suchergebnissen angezeigt wird. Deshalb bringt es nicht besonders viel, wenn ein Geschäft in den organischen Suchergebnissen gut positioniert ist, es muss in der local Box gute Rankings erzielen.

Beispiel ansehen

Sie haben jetzt die SERP etwas genauer kennengelernt. Als nächstes wäre es sinnvoll, wenn Sie wüssten wie sich der Nutzer in den SERP verhält. Besser gesagt, wie sich der Nutzer allgemein bei der Internetrecherche verhält. Ein SEO (jemand der SEO betreibt) der weiß wie sich Nutzer verhalten, kann seine Website auf das Verhalten der Nutzer abstimmen. Sie werden es im Verlauf dieses Buches noch merken, im Endeffekt dreht sich alles darum, dem Nutzer das zu bieten was er gerade haben will.

1.5 Das Nutzerverhalten

Ziel der SEO Arbeit ist es eine möglichst gute Platzierung in den SERP zu erreichen. Der Sinn von SEO bzw. der Sinn einer guten SERP Platzierung ist, dass man mehr Besucher auf die Seite bekommt. Um möglichst viele Besucher auf die eigene Seite (oder auf die Seite ihres Kunden) zu bekommen, müssen wir wissen wie sich die Nutzer von Suchmaschinen verhalten. Wenn wir wissen wie sich ein Nutzer bei der Suche verhält, können wir unsere Website so optimieren das sie den Bedürfnissen der Nutzer optimal angepasst ist.

Wir können das Verhalten des Nutzers in folgenden drei Stufen analysieren:

  1. Verhalten im Such-Interface
  2. Verhalten in den SERP
  3. Verhalten auf einer Webseite

Wir werden uns jetzt die einzelnen Stufen jeweils genauer ansehen.

Das Verhalten im Such-Interface

Alle Suchanfragen kann man eine der drei folgenden Kategorien zuordnen:

  1. Informationssuche
  2. Produktsuche
  3. Markensuche

Der Großteil der Suchanfragen, ca. 80% sind Suchanfragen zur Beschaffung von Informationen. Suchende dieser Kategorie haben generell keine Kaufabsicht, sie wollen sich nur über eine bestimmte Sache informieren und brechen die Suche ab sobald die die nötige Information gefunden haben. Der Suchende hat in der Regel nur eine geringe Vorstellung davon wie die Antwort auf seine Frage lauten könnte, deshalb wird er eher in den oberen Suchergebnissen nach der Antwort bzw. der Information suchen.

Untersuchungen haben ergeben, dass Suchende den oberen Ergebnissen in den SERP mehr Vertrauen schenken, weil sie sozusagen Google das Vertrauen schenken, die Ergebnisse mit dem größten Mehrwert weiter oben zu listen. D.h. die Suchenden geben mit höherer Wahrscheinlichkeit ein genaueres Keyword ein, anstatt sich die zweite Seite der SERP anzusehen.

Keyword die der Informationssuche zugeordnet sind, haben nur selten PPC anzeigen. Das hat den einfachen und logischen Grund, dass kein Unternehmen dafür bezahlen würde um seine Informationen loszuwerden. 

Die zweite Kategorie in die eine Suchanfrage zugeordnet werden kann ist die Produktsuche. Ca. 10% aller Suchanfragen sind dieser Kategorie zuzuordnen. Logischerweise hat der Suchende schon eine Vorstellung von dem Produkt für das er sich interessiert (sonst würde er es nicht googeln). Deshalb ist zu erwarten, dass der Suchende so lange die Webseiten in den SERP durchsucht, bis er das Produkt gefunden hat, welches am ehesten seinen Vorstellungen entspricht.

Viele Online Shops versuchen deshalb mit einer großen Auswahl an Produkten die Besucher davon abzuhalten in einem anderen Shop weiterzusuchen. Wenn sie z.B. “Damenschuhe kaufen“ eingeben, ist der erste Treffer in den Organischen Anzeigen z.Z. von Zalando. Auf Zalando haben sie dann eine Auswahl über 392 Seiten an Damenschuhen. Der Suchende bzw. die Suchende hat also genug Auswahl um den Schuh ihrer Vorstellung zu finden und es gibt (zu mindestens Theoretisch) keinen Grund zu einem anderen Shop zu wechseln.

Keywords die eine Kaufabsicht beinhalten sind auch der beliebteste Platz für PPC Anzeigen. Außerdem sind Webseiten auf der ersten Seite meist gut Suchmaschinenoptimiert, weshalb es schwierig (aber nicht unmöglich) ist für diese Keywords zu ranken.

Die dritte und letzte Kategorie in die eine Suchanfrage fallen kann, ist die Markensuche. Auch in diese Kategorie fallen ca. 10% der Suchanfragen. Suchende die ein Markenbezogenes Keyword eingeben, haben eine genaue Vorstellung von dem was sie suchen, nämlich die Marke die sie gerade gegoogelt haben. 

Für diese Keyword zu ranken dürfte wohl das schwierigste sein was es in der SEO gibt, wenn nicht sogar unmöglich (bei großen Unternehmen zu Beispiel). Wenn sie z.B. Zalando googeln, dann ist die erste Seite der SERP komplett mit Webseiten von Zalando belegt, auf Seite zwei hat es gerade Mal eine Webseite geschafft die nicht zu Zalando gehört.

Zu Marken Keywords werden auch eher selten PPC Anzeigen geschaltet. Es ist einfach nicht notwendig, da die gesuchte Marke meist auf Platz eins Rankt. Mir ist jedenfalls kein Fall bekannt bei dem dies nicht der Fall ist.

Ich fasse nochmal kurz zusammen: Zu den drei Kategorien der Suchanfragen kommt folgende Verteilung:

  1. Informationssuche 80%
  2. Produktsuche 10%
  3. Markensuche 10%

PPC Anzeigen werden hauptsächlich in der zweiten Kategorie geschaltet. Dabei ist aber zu beachten, dass erfahrene Nutzer ihre Recherche direkt bei den Organischen Suchtreffern beginnen und nicht, oder nur selten, auf PPC Anzeigen klicken. D.h. um möglichst viele Besucher auf eine Webseite zu bekommen, reicht es nicht PPC Anzeigen zu schalten. Eine gute Platzierung in den organischen Suchtreffern ist langfristig gesehen die beste Wahl, und auch die günstigste.

Die am einfach zu rankenden Keywords gibt es in der ersten Kategorie, gefolgt von der zweiten Kategorie, und am schwersten ist es in der dritten Kategorie. Woran man genauer erkennen kann wie schwierig es ist für ein bestimmtes Keyword  zu ranken sehen wir uns auch noch an.

Keyword Arten

Es gibt so genannte “Short Tail Keywords“ und “Long Tail Keywords“. Long Tail Keywords bestehen aus mehreren Wörtern, Short Tail Keywords aus nur einem Wort. In den letzten Jahren ist die Anzahl an Long Tail Keywords deutlich angestiegen. Nur ca. 14% aller Suchanfragen bestehen aus nur einem Wort.

Weitere Angaben zur Verteilung der Keywordlänge:

  1. 1-Wort-Keywords = 14%
  2. 2-Word-Keywords = 25%
  3. 3-Wort-Keywords = 22%
  4. 4-Wort-Keywords = 20%
  5. 5-Wort-Keywords oder mehr = 19%

86% aller Suchanfragen die bei Google eingehen bestehen aus mehr als einem Wort. Der Grund wieso die meisten Suchanfragen aus mehr als einem Wort bestehen ist eigentlich ziemlich logisch. In den letzten Jahren haben die Suchergebnisse von Google deutlich an Qualität dazugewonnen. Die Nutzer haben dies natürlich mitbekommen und wissen jetzt, dass sie ihre gewünschten Ergebnisse schneller bekommen, wenn sie ihren Suchbegriff genauer Formulieren.

Der zweite Grund ist die Funktion, per Spracheingabe googeln zu können. Wer die Sprachfunktion von Google nutzt formuliert seine Suchanfrage meist deutlich genauer als man es beim Tippen machen würde. Oft werden Suchanfragen die per Sprachfunktion getätigt werden in ganzen Sätzen formuliert. Dies ist wahrscheinlich auch der Grund, weshalb 20% aller Suchanfragen so noch nie zuvor gestellt wurden. Also 20% aller Suchanfragen bekommt Google zu aller ersten Mal gestellt.

Das Verhalten in den SERP

Wie eben schon mal angedeutet klicken erfahrene Suchmaschinennutzer eher selten auf gekaufte PPC Anzeigen. Sie haben gelernt dass sie das gewünschte Resultat schneller finden, wenn sie ihre Suche direkt bei den organischen Suchtreffern beginnen. Für uns SEOs ist das ein willkommenes Verhalten, denn die Organischen Suchtreffer ist das, was wir mit unserer Arbeit beeinflussen können.

Wie oft ein Snippet geklickt wird können wir anhand der CTR erkennen. CTR steht für Click-Through-Rate und bedeutet so viel wie Klickrate. Die CTR gibt an, wie oft ein Snippet angeklickt wird, im Verhältnis dazu, wie oft es angezeigt wurde. Wenn ihre Webseite zum Beispiel bei zehn Suchanfragen 10-mal auf Platz eins angezeigt wird und 5-mal angeklickt wird, dann ist die CTR ihrer Webseite 50%. Wenn sie 10-mal angezeigt wird, aber kein einziges Mal angeklickt, dann ist die CTR 0%. Im Durchschnitt hat die Webseite auf Platz eins in Google eine CTR von 42%. Insgesamt verteilt sich die CTR folgendermaßen:

Position 1: 42%

Position 2: 14,25%

Position 3: 10%

Position 4: 7,5%

Position 5: 5,5%

Position 6: 3,25%

Position 7: 2,5%

Position 8: 2%

Position 9: 1,75%

Position 10: 1,5%

  1. Seite gesamt: 7,5%, pro Snippet auf Seite 2 ca. 0,75%
  2. Seite gesamt: 2,2%, pro Snippet auf Seite 3 ca. 0,22%

Insgesamt klicken 99,95% der Nutzer sich höchstens bis zur dritten Seite in den SERP durch, um das zu finden was sie gerade suchen. 0,05% verteilen sich auf die restlichen Seiten der SERP. Das heißt, so gut wie jeder Nutzer gibt spätestens nach der dritten Seite ein genaueres Keyword ein.

Viele Fragen sich jetzt bestimmt wieso nicht alle auf das erste Ergebnis klicken, in der Statistik sind es ja nur 42%. Das liegt daran, dass wenn ein Nutzer das erste Ergebnis angeklickt hat und nicht gefunden hat was er sucht, dann geht er auf die SERP zurück und klickt vermutlich das zweite Ergebnis an. In diesem Moment wo der Nutzer das zweite Ergebnis anklickt, wird das erste ja auch angezeigt (und eben nicht angeklickt).

Es gibt mehrere Möglichkeiten die CTR zu erhöhen. Alleine die Darstellung eines Rich Snippets erhöht die CTR um ca. 5%. Der Grund dafür ist, dass ein Rich Snippet mehr auffällt, im Vergleich zu normalen Snippets.

Wir können die Aufmerksamkeit des Nutzers aber auch anders auf sich ziehen. Indem wir in den Titel und in die Meta-Description kleine Symbole und Pfeile einbauen, heben wir uns von den anderen Snippets ab. Auch die Verwendung von Zahlen im Titel hat gezeigt, dass die CTR leicht ansteigt. Das hat den einfachen Grund, dass Zahlen aus einem Text herausstechen. Natürlich sollte auch der Text des Titels den Nutzer ansprechen und die Meta-Description etwas über die Webseite aussagen. 

Um die Aufmerksamkeit des Nutzers in den SERP auf unser Snippet zu ziehen, müssen wir unser Snippet irgendwie von den anderen abheben. Dabei dürfen wir aber nicht übertreiben. Zu auffällig gestaltet Snippets können unseriös wirken und werden deshalb weniger oft angeklickt. (Wir werden dies im vierten Kapitel, wenn es um die Optimierung geht, genauer besprechen.)

Das Verhalten auf einer Webseite

Wenn der Besucher einer Webseite den Eindruck hat, die gesuchte Information oder das Produkt auf dieser Webseite nicht finden zu können, wird er diese verlassen und auf einer anderen Seite weiter suchen. Sobald der Besucher diesen Eindruck hat ist es egal ob das Gesuchte vielleicht doch auf der Seite ist. Er wird den Glauben an die Qualität der Seite verlieren und sie verlassen. Er hat schließlich genug andere Möglichkeiten.

Damit wir dies verhindern können, müssen wir wissen wie sich ein Nutzer bzw. ein Besucher auf einer Webseite verhält. Wenn wir wissen an welchen Merkmalen ein Besucher entscheidet, ob er einer Webseite das Vertrauen schenkt, die gesuchte Information oder das gesuchte Produkt zu finden, dann können wir diese Merkmale optimieren und so das Nutzerverhalten auf unserer Webseite verbessern.

Das Nutzerverhalten ist für Google ein wichtiger Faktor um die Qualität einer Webseite zu messen. Sie sollten daher alles dafür geben, den Besucher auf ihrer Webseite zu halten.

Den Bereich einer Webseite den man sieht, wenn man sie gerade geöffnet hat nennt man “Above the Fold“. Damit ist der Sichtbare Bereich gemeint den man ohne runter zu scrollen sehen kann. Der Above the Fold Bereich sorgt für den ersten Eindruck einer Webseite.

Das aller wichtigste ist es, dafür zu sorgen, dass das auffälligste Element im Above the Fold eine Relevanz zum Keyword hat, über das der Besucher auf die Seite gelang ist. Das Element kann eine Überschrift sein, eine Tabelle, ein Logo, ein Bild, ein Video oder irgendein anderes Element. Wenn der Besucher zum Beispiel, zuvor im Such-Interface das Keyword “Damenschuhe kaufen“ eingegeben hat und dann in den SERP auf ein Snippet geklickt hat, dann aber auf der Webseite “Herrenschuhe kaufen“ liest, wird dieser die Seite ohne zu zögern verlassen.

Selbst wenn die Überschrift der Seite “Schuhe kaufen“ heißt, ist dies weniger Relevant als die Überschrift “Damenschuhe kaufen“. Am besten wären natürlich direkt ein paar Bilder von Damen Schuhen.

Wenn sie rausfinden wollen welches Element das auffälligste im Above the Fold ihrer Webseite ist, dann zeigen Sie die Webseiten jemanden und fragen Sie ihn, was ihm zuerst aufgefallen ist. Generell kann man aber sagen, dass der erste Blick genau in die Mitte des Bildschirmes fällt. Auf dem Smartphone fällt er meist auf den obersten Bereich.

Sie können die Aufmerksamkeit der Besucher auch steuern. Elemente die sich unregelmäßig bewegen, können nicht ignoriert werden. Es liegt in der Natur des Menschen die Aufmerksamkeit auf eine sich plötzlich bewegenden Sache zu richten. Wenn sie die Aufmerksamkeit z.B. auf einen Button lenken wollen, dann sorgen sie dafür dass er sich unregelmäßig bewegt.

Eine der wichtigsten Dinge die es bei einer Webseite zu beachten gilt, ist die Ladezeit. Wenn ihrer Webseite länger als fünf Sekunden zum Laden braucht, verlieren sie schon einen Großteil ihrer Besucher, noch bevor dieser ihre Seite überhaupt gesehen hat. Sie sollten darauf achten das die Ladezeit ihrer Webseite möglichst unter zwei Sekunden bleibt, besser wäre unter einer Sekunde. Sie können die Ladegeschwindigkeit ihrer Webseite u.a. unter http://page-speed.info/ messen.

Eines der meist überschätzten Rankingsignale ist die Länge des Textes. Es ist bewiesen, dass lange Texte im Internet nur selten komplett durchgelesen werden. Die meisten Besucher einer Webseite, die einen langen Text enthält, überfliegen diesen höchstens oder schauen sich nur die Überschriften an und suchen sich die interessanten Stellen raus. Google weiß das natürlich auch und bewertet die Länge eines Textes nur als schwaches Rankingsignal. Allerdings sollte jede Webseite zu mindestens einen kurzen Text (ca. 150 Wörter) beinhalten um Google mitteilen zu können worum es auf dieser Seite geht.

Wieder zurück zum Nutzerverhalten.

Es hat sich gezeigt, dass Tabellen, Listen und Grafiken sich deutlich besser eignen um die Aufmerksamkeit der Besucher zu bekommen. Kurze knackige Listen mit 3-5 Punkten und darüber eine aussagekräftige Überschrift, dazu ein paar detailliertere Tabellen oder Grafiken mit einem aussagekräftigen Beschreibungstext, ergeben wohl mehr Sinn als ein endlos langer Text. Sollten Sie doch Mal gezwungen sein einen Längeren Text auf einer Webseite einbinden zu müssen (etwas weil sie keine Listen, Tabellen oder Grafiken zu Verfügung haben), dann achten die darauf den Text in möglichst viele Abschnitte zu unterteilen. Untersuchungen haben gezeigt, dass Texte die in kurze Absätze unterteilt sind häufiger gelesen werden als lange Texte ohne Absätze. Sie können auch ruhig mehr Überschriften als üblich verwenden, diese bilden dann so was wie eine Liste und ziehen die Aufmerksamkeit der Besucher auf sich.

Ich fasse nochmal die wichtigsten Punkte dieses Kapitels zusammen.

Verhalten im Such-Interface:

  • Nur 14% aller Suchanfragen sind Short Tail Keywords.
  • Optimierung auf Long Tail Keywords ist einfacher.
  • 20% aller Suchanfragen in Google wurde so zuvor noch nie gestellt.
  • Es gibt drei Arten von Suchanfragen, die häufigste ist, mit 80%, die Informationssuchanfrage.

 

Verhalten in den SERP

  • Fast jeder Nutzer gibt spätestens nach der dritten Seite ein genaueres Keyword ein.
  • Erfahrene Nutzer klicken nur selten auf PPC Anzeigen.
  • Die CTR kann mit Hilfe von Rich Snippets und anderen Maßnahmen erhöht werden.

 

Verhalten auf einer Webseite

  • Lange Texte werden nur selten gelesen, meistens werden nur die Überschriften überflogen und dann eventuell einzelne Absätze gelesen.
  • Ladezeit ist extrem wichtig!
  • Dem Besucher muss das auffälligste Element im Above the Fold, mit einer Relevanz zum vorher eingegebenen Keyword präsentiert werden.
  • Unregelmäßig bewegende Elemente können nicht ignoriert werden.
  • Listen, Tabellen und Grafiken werden von Besuchern geliebt.

Ich hoffe ich konnte ihnen in diesem Kapitel die wichtigsten Erkenntnisse des Nutzerverhaltens verständlich erklären. Im nächsten Kapitel werden wir uns ansehen wie lange SEO überhaupt dauert und woran man erkennt wie schwierig es ist für ein bestimmtes Keyword zu ranken.

1.6 Wie lange dauert SEO und wie schwierig wird es?

In diesem Kapitel werden wir besprechen woran man erkennen kann wie schwierig es ist für ein bestimmtes Keyword zu ranken. Danach werden wir uns ansehen wie lange es dauern wird die gewünschte Position in den SERP zu erreichen.

Zuerst Mal sei gesagt, dass der SEO Prozess niemals komplett endet. Selbst wenn ihre Website für alle ausgewählten Keywords auf Platz eins rankt, müssen sie dafür sorgen dass dies auch so bleibt. Das ist mit Sicherheit weniger Arbeit als sie dort hin zu bringen (deutlich weniger), aber ganz von alleine bleibt sie auch nicht dort. Sie sollten in Sachen SEO immer auf den neusten Stand sein. Im Durchschnitt nimmt Google zwei Änderungen pro Tag an seinem Algorithmus vor. (Ein Algorithmus ist eine Handlungsvorschrift, man könnte auch Schritt für Schritt Anleitung sagen. Z.B. ein Koch-Rezept, Bauanleitung oder auch ein bestimmtes Computerprogramm). Aber um die Frage zu klären wie lange man braucht um auf die erste Seite oder unter die ersten drei Positionen zu kommen, müssen wir uns zuerst ansehen wie schwierig es ist für ein bestimmtes Keyword zu ranken.

Keyword Schwierigkeit

Die Schwierigkeit eines Keywords erkennen Sie an den folgenden 7 Punkten:

  1. Wie gut sind die Seiten auf Top Positionen, auf das zu rankende Keyword abgestimmt (Relevanz)
  2. Backlinks der Konkurrenz
  3. Anzahl der Konkurrenten
  4. Wie hoch ist das Suchvolumen
  5. Wie lange ist das Keyword
  6. Ist ein Video weit vorne
  7. Ist ein Frageportal oder ein Forum weit vorne

Wir besprechen jetzt jeden Punkt etwas genauer.

  1. Wie gut sind die Seiten auf Top Positionen, auf das zu rankende Keyword abgestimmt

Wenn das Keyword googeln für das sie ranken wollen und sich die Webseiten in den SERP genauer anschauen, können sie feststellen ob eine Seite auf dieses Keyword optimiert wurde oder ob sie eigentlich für ein anderes Keyword erstellt wurde. Achten sie dabei einfach darauf, wie oft und an welchen Stellen das Keyword (für das sie ranken wollen) vorkommt. Wir besprechen dies in vierten Kapitel noch genauer. Jetzt sei nur gesagt, dass wenn das Keyword nicht im Titel, nicht in der Meta-Description, nicht in der URL und nur selten im Text vorkommt, dann sollte es nicht besonders Schwierig sein diese Seite zu überholen. Sie können so alle Seiten in den Top 10 (oder auch mehr) überprüfen. Umso früher sie auf Seiten stoßen die nicht gut auf dieses Keyword optimiert sind, desto einfacher wird es für sie zu ranken.

  1. Backlinks der Konkurrenz.

Es gibt zahlreiche Tools um die Backlinks einer Seite zu checken, im siebten Kapitel habe ich ihnen einige aufgelistet. Je hochwertigere Backlinks ihre Konkurrenten haben, desto schwieriger wird es diese zu überholen. Woran sie die Qualität der Backlinks erkennen besprechen wir auch noch, in Kapitel vier.

  1. Anzahl der Konkurrenten.

Wenn es weniger Konkurrenten gibt, dann ist es auch leichter zu ranken. Logisch oder? Google zeigt bei jeder Suchanfrage an wie viele Webseiten für das Keyword gefunden wurden. Wenn sie ihr Keyword in Anführungszeichen setzen, zeigt Google ihnen an, wie viele direkte Konkurrenten es für das Keyword gibt.

In Fall “Damenschuhe kaufen“ sind es zur Zeit 441.000 direkte Konkurrenten. Ich würde ihnen jetzt gerne genauer sagen, ab wie vielen Konkurrenten es leicht ist und ab wie vielen es schwer ist, aber diese Methode alleine kann wenig darüber aussagen wie schwierig ein Keyword ist. Man muss schon mehrere Methoden anwenden, um eine Aussage treffen zu können. Das einzige was ich ihnen sagen kann ist, das es besser wäre wenn es weniger als 441.000 wären.

  1. Suchvolumen

Keywords die ein hohes Suchvolumen haben sind beliebter und somit auch schwieriger zu ranken. Das Suchvolumen eines Keywords kann man mit mehreren Tools ermitteln. Welche das sind, besprechen wir im siebten Kapitel, da geht es dann ausschließlich um Tools.

 

  1. Keywordlänge

Diese Regel gilt so gut wie immer: Je länger das Keyword ist desto einfacher ist es für dieses Keyword zu ranken. Aber dabei ist auch zu beachten, dass umso länger ein Keyword ist desto weniger oft wird es gegoogelt. Wir wissen ja schon dass ca. 20% der Suchanfragen, die bei Google eingehen, so noch nie zuvor eingegeben wurden. Dazu kommt noch, dass es umso mehr Möglichkeiten gibt, je mehr Wörter das Keyword enthält. Soll heißen,  es gibt insgesamt mehr Keyword mit fünf Wörtern als es Keywords mit zwei Wörtern gibt. Da ist es kein Wunder das ein bestimmtes fünf-Wort-Keyword weniger oft bei Google eingegeben wird als ein Zwei-Wort-Keyword, auch wenn insgesamt mehr Fünf-Wort-Keywords gesucht werden. Das optimale Verhältnis zwischen Keywordlänge und Suchvolumen haben wohl die zwei und drei Wort Langen Keywords.

  1. Videos

Wenn ein Video in den Top 10 ist, also auf der ersten Seite der SERP ist, dann haben sie sehr gute Chancen eine Top Position für dieses Keyword zu erreichen.

  1. Frageportal & Foren

Das gleiche gilt, wenn ein Frageportal wie zum Beispiel gutefrage.net oder irgendein Forum auf der ersten Seite zu finden ist. Sie sollten dann keine Probleme damit haben, eine gute Position zu erreichen.

Sie kennen jetzt alle Methoden, mit denen man testen kann, wie schwierig es wird für ein bestimmtes Keyword zu ranken. Um jedoch eine möglichst genaue Vorhersage treffen zu können, sollten sie alle Methoden anwenden. Wie immer fasse ich nochmal kurz zusammen:

Es wird einfacher wenn…

  • weniger Seiten auf dieses Keyword abgestimmt wurden,
  • die Konkurrenten wenig bzw. keine guten Backlinks haben,
  • es weniger Konkurrenten es gibt,
  • das Suchvolumen gering ist,
  • das Keyword länger ist,
  • Videos und Frageportale weit vorne platziert sind.

Es wird schwieriger wenn…

  • viele Seiten auf dieses Keyword optimiert wurden,
  • die Konkurrenten viele und gute Backlinks haben
  • es viele Konkurrenten gibt,
  • das Suchvolumen hoch ist,
  • man für ein Short Tail Keyword ranken will,
  • es keine Videos oder Frageportale auf den ersten Seiten der SERP gibt.

Wie lange dauert der SEO Prozess

Wir haben ja schon festgestellt, dass der SEO Prozess niemals komplett endet, (weil man immer auf dem neusten Stand in Sachen SEO bleiben sollte und weil man die Seite aktuell halten sollte). Deshalb werde ich mich auf die Frage “wie lange dauert es bis man die gewünschte Position erreicht hat“ beziehen. Es ist ja selbsterklärend, dass die Zeit die man benötigt, um auf Top Positionen zu ranken, stark von der Schwierigkeit des Keywords abhängt.

Ich werde jetzt gleich drei Beispiele nenne, die eine ungefähre Auskunft über die Dauer geben sollen. Dabei gehe ich von einem einfachen Keyword, einem mittelschweren Keyword und einem extrem schweren Keyword aus. Die Beispiele sollen auch nur als Orientierung dienen. Es ist unmöglich genau vorherzusagen wie lange der Aufstieg dauern wird.

Bevor wir mit den Beispielen beginnen möchte ich mit ihnen zwei Tatsachen besprechen, die die Zeit zum Aufstieg beeinflussen. Davon abgesehen das alle Rankingfaktoren (die wir uns später noch ansehen) die Zeit zum Aufsteigen in Google beeinflussen, gibt es zwei Dinge die uns beim Start einer Webseite helfen können schneller gut zu ranken.

Erstens kommt es darauf an ob wir eine komplett neue Website erstellen oder nur eine neue Webseite innerhalb einer bereits bestehenden Website anlegen. Wenn wir eine komplett neue Website bzw. Domain (die Domain ist der Name der Website) anlegen, wird es etwas länger dauern bis wir eine gute Position erreichen. Das liegt daran, dass Google die Website erst einmal finden, komplett crawlen und vertrauen muss.

Die zweite Sache, die die Zeit des Aufstiegs beeinflussen kann ist, ob man bereits eine andere gut rankende Website hat oder nicht. Wenn man bereits eine Website besitzt, kann man von ihr auf die neue Website verlinken und sie so nach oben pushen. (Backlinks sind ein wichtiger Rankingfaktor.)

  1. Beispiel – Einfaches Keyword:

Wir finden auf der ersten Seite ein Video auf Platz 7 und eine Frage aus einem Frageportal auf Platz 8. Die Top 3 Platzierungen haben das Keyword für welches es zu ranken gilt nur im Titel und ein paar Mal im Text. Mit einem Backlinkanalysetool haben wir festgestellt, dass die Seiten auf den ersten drei Positionen nur Backlinks von mittelmäßiger Qualität habe. Die Anzahl der Konkurrenten die uns Google anzeigt liegt bei 37.000. Wir haben noch keine Website und müssen eine komplett neue erstellen. Nach diesen Angaben sollte es ca. 5-10 Wochen dauern um in die Top 3 zu kommen. Dann nochmal 1-3 Wochen für Position 1.

  1. Beispiel – Mittelschweres Keyword:

In unserem zweiten Beispiel gehen wir davon aus, dass wir keine Videos oder Frageportale auf den ersten Seiten der SERP finden können und dass alle Seiten in den Top 10 für genau dieses Keyword optimiert wurden. Die ersten drei Plätze haben eine halbwegs anständige Backlinkstruktur. Google zeigt uns dazu noch 750.000 Konkurrenten an. Mit dem Wissen aus diesem Buch und ein paar guten Backlinks braucht man ca. 4-8 Monate um in die Top 10 zu kommen. Wenn man schon eine Website hat und nur noch eine neue Seite hinzufügen muss, sollte es etwas schneller gehen.

  1. Beispiel – Extrem Schweres Keyword:

Bei Extrem Schweren Keywords (wir reden jetzt vom absoluten Profi Bereich)reicht es nicht mehr aus nur eine Webseite zu erstellen und sie zu optimieren. Hier ranken nur bekannte Marken auf der ersten Seite der SERP. Wir müssten schon selber eine Marke aufbauen um überhaupt eine Chance zu haben (Markensignale sind mittlerweile ein wichtiger Rankingfaktor). Google zeigt uns 161.000.000 Konkurrenten an und das Linkprofil der Websites auf der ersten SERP Seite lässt nichts zu wünschen übrig. Dieser Fall geht schon weit über SEO hinaus, wir müssten eine Marke aufbauen um überhaupt eine Chance zu haben. SEO im großen Stil ist nur ein Teil des Marketings. Wer für Top Keywords ranken will, braucht eine Marke und ein Team. Wie lange es in diesem Fall dauert bis wir Top Positionen erreichen liegt daran wie schnell wir ein Unternehmen aufbauen können und wie gut unser Team ist. Wenn wir davon ausgehen, dass wir nicht selber für dieses Keyword ranken wollen, sondern für ein Kunden optimieren und dieser zuvor noch nichts in Sachen SEO unternommen hat. Dann brauchen wir mindestens 12 Monate um eine Webseite in die Top 10 zu bekommen.

SEO im großen Stil hängt unmittelbar mit den anderen Bereichen des Unternehmens zusammen. Als einzelne Person für ein Keyword wie “Schuhe“ zu ranken ist unmöglich. Ohne ein funktionierendes Unternehmen das Schuhe verkauft, ist es nicht möglich für dieses Keyword zu gut ranken. Keywords die nicht in die Kategorie Produktsuche fallen sind auch für Privatpersonen rankbar. Wenn keine Kaufabsicht in dem Keyword steckt reicht eine gut optimierte Webseite aus um gute Rankings zu erzielen.

In den eben genannten Beispielen bin ich immer davon ausgegangen, dass wir nur für ein Keyword ranken wollten. In der Praxis ist dies selten der Fall, wir versuchen stets für mehrere relevante Keywords aus unserer Branche zu ranken (mit mehreren Webseiten)! Alles über Keyword und wie man den SEO Prozess vorbereitet besprechen wir im dritten Kapitel.

  1. Die Algorithmen Geschichte von Google und wie die Suchergebnisse damals manipuliert werden konnten

Nachdem wir jetzt die Grundlagen der Suchmaschinenoptimierung kennen gelernt haben, werden wir uns jetzt die Entwicklung des Google Algorithmus genauer ansehen. Wir haben ja schon gelernt, dass Google im Durchschnitt zwei Mal täglich eine Änderung am Algorithmus vornimmt. Diese Änderungen sind allerding für uns SEOs und die Nutzer von Google nicht wahrnehmbar, da es sich nur um minimale Verbesserungen handelt. Es kommen jedoch regelmäßig größere Updates die das Ranking stärker beeinflussen.

Diese Updates haben den Zweck die Qualität der Suchergebnisse zu erhöhen. Das kann entweder durch das Hinzufügen eines neuen Rankingfaktors geschehen oder einer Methode die Spamseiten (Webseiten von schlechter Qualität) herabstufen soll. Die Kriterien nach denen Spamseiten beurteilt wird nennt man negative Rankingfaktoren.

Vor allem Black Hat SEOs haben vor solchen Updates zu fürchten, denn diese können ihre Seite nach einem Update auch schon mal 100 Plätze weiter hinten in den SERP wiederfinden. Sie sind gut beraten wenn man ihnen sagt, dass sie sich besser an die Google Richtlinien für Webmaster (https://support.google.com/webmasters/answer/35769?hl=de) halten sollten.

Der Grund wieso wir die bekanntesten Updates von Google hier besprechen werden ist, dass wenn man die Updates versteht, versteht man auch die Rankingfaktoren und das ist es ja was wir alle wollen. Der zweite Grund ist, dass wir dann verstehen weshalb damals bestimmte Webseiten stark im Ranking abgefallen sind und wir daraus lernen können wie wir dies für unsere Webseiten verhindern können.

2.1 Vor Google

Google war nicht die erste Suchmaschine die es gab. Bevor Google gegründet wurde existierten bereits zahlreiche anderen Suchmaschinen, allerdings war die Qualität der Suchergebnisse nicht mit den heutigen von Google vergleichbar. Man konnte damals stundenlang die SERPs durchsuchen, ohne das zu finden was man eigentlich suchte. Der Grund dafür war die geringe Anzahl an Rankingfaktoren. Damals wurde nur der Titel der Seite und die Anzahl der Keywords im Text zur Bewertung der Webseite herangezogen.

Man ging damals davon aus, dass wenn das Keyword häufiger auf der Webseite vorkommt, dass diese dann auch relevanter für dieses Keyword ist. Das mag auch stimmen, allerdings konnte man so die Suchergebnisse auch auf einfachste Art manipulieren. Indem man das Keyword einfach 100 Mal aneinanderreihte konnte man eine gute Position, in den SERP der damaligen Suchmaschinen, erreichen. Da war es kein Wunder das Seiten mit nützlichem Inhalt schlechter rankten als Seiten die einfach nur endlos das Keyword aneinandergereiht hatten.

Es machte sich auch keiner Gedanken darüber wie man dieses Problem lösen konnte. Damals wusste niemand wie man mit einer Suchmaschine Geld verdienen konnte, also versuchte auch niemand diese zu verbessern.

2.2 Larry Page und Sergey Brin

Larry Page und Sergey Brin arbeiteten 1995 an einem Forschungsprojekt für die Stanford Universität in Kalifornien. Ziel war es die Organisation großer Datenmengen zu verbessern. Dabei versucht man ein Muster innerhalb einer Datensammlung zu finden und dieses dann zur Organisation der Daten zu verwenden. Die beiden begaben sich ins Internet und begannen mit der Suche nach diesem Muster.

Sie bemerkten das Webseiten die zu einem bestimmten Thema relevant waren auf anderen Webseiten verlink wurden. Die Webseiten mit dem größten Mehrwert wurde dabei am häufigsten  verlinkt. Sie bekamen so ein eindeutiges Feedback darüber welche Webseiten am beliebtesten waren und welche keinen Mehrwert boten.

Die beiden begannen sofort mit der Programmierung der Software, die die Verlinkungsstruktur des Webs  selbständig analysieren sollte, um mit Hilfe der schon zuvor eingesetzten Keyworddichte eine bessere Sortierung der Suchergebnisse zu ermöglichen.

2.3 Der PageRank

Der Algorithmus der die Verlinkungsstruktur des Webs analysierte war der so genannte PageRank. Der PageRank zählt aber nicht einfach nur die Links die auf eine Webseite führen, sondern er berechnet die Wahrscheinlichkeit mit der man auf diese Webseite gelangt. Was das genau bedeutet sehen wir uns gleich an. Zuvor möchte ich ihnen noch erklären wieso man nicht einfach die Links zählen konnte um eine Webseite zu bewerten.

Der Grund ist eigentlich genau der gleiche wie bei der Keyworddichte. Man könnte eine Webseite erstellen und auf dieser 10.000 Links platzieren, die auf die Webseite führen, die ranken soll. Es wäre also ein Kinderspiel den Rankingfaktor Backlinks zu manipulieren. Deshalb entschieden sich die beiden für eine andere Methode.

Wir erinnern und daran, dass ein Algorithmus eine Handlungsvorschrift bzw. eine Schritt für Schritt Anleitung ist. Im Fall des PageRank führt der extra dazu Programmierte Algorithmus eine Mathematische Formel aus, die berechnet wie hoch die Wahrscheinlichkeit ist das ein Crawler sich auf genau dieser Webseite befindet, wenn man seine Position zu einem zufälligem Zeitpunkt abfragt.

Die PageRank-Formel ist der Mathematische Teil und der PageRank-Algorithmus ist das Programm das die Formel berechnet. Das Ergebnis der PageRank-Formel nennt man einfach nur PageRank. Man könnte auch PageRank-Wert sagen, macht aber niemand.

Wenn man den PageRank einer Webseite wissen möchte, muss man die Wahrscheinlichkeit berechnet mit der sich ein Crawler auf diese Webseite befindet. (Die Crawler haben die Aufgabe das Web zu durchsuche und den PageRank Algorithmus mit den nötigen Daten zu versorgen). Wenn sich z.B. ein Crawler auf einer Webseite mit vier Links befinden und einer dieser Links auf ihre Webseite führt, dann ist die Wahrscheinlichkeit das der Crawler auf ihre Seite gelangt 25%.

PageRank Erklärung

Wenn sich auf dieser Webseite nur ein einziger Link befindet, dann ist die Wahrscheinlichkeit 100%, dass der Crawler auf ihre Seite kommt.

PageRank 100%

Wenn zwei Links auf dieser Seite sind ist die Wahrscheinlichkeit das der Crawler auf ihre Seite kommt 50%.

PageRank 50 50

Sie sehen, dass der PageRank ihrer Seite davon abhängt wie viele andere Links sich auf der gleichen Seite befinden wie ein Backlink ihrer Seite.

Um aber auf ihre Seite kommen zu können, muss der Crawler erst Mal auf die Seite kommen auf der sich der Backlink ihrer Seite befindet. Das bedeutet, der PageRank ihrer Seite hängt vom PageRank der Seite ab auf der sich ihr Backlink befindet. Also wenn die Seite auf der sich ihr Backlink befindet einen hohen PageRank hat, dann wird der PageRank ihrer Seite auch größer. Anders gesagt, der PageRank kann vererbt werden.

PageRank vererbung

Die Seiten C und D haben jeweils nur einen Link. Wenn sich ein Crawler auf einer diesen beiden Seiten befindet, wird er anschließend auf die Seite A gelangen, zu 100%. Auf Seite A befinden sich zwei Links, einer davon führt auf ihre Seite. D.h. wenn der Crawler auf Seite A ist wird er zu 50% auf ihre Seite kommen. Und das heißt auch er wird 50% des PageRanks mitbringen der sich auf Seite A befindet. Wenn jetzt z.B. Seite C und D nicht existieren würden, könnte der Crawler nicht auf Seite A gelangen. Wenn kein Crawler auf Seite A gelangen kann, kann dieser auch keinen PageRank mitbringen. Und wenn Seite A kein PageRank hat, kann von dieser auch kein Pagerank auf ihre Seite kommen. Der PageRank der über einen Link auf ihre Seite kommen kann, hängt also vom PageRank ab, auf der sich ihr Backlink befindet. Der PageRank wird auf diese Weise durchgehend durchs Web vererbt. Die Seite die den meisten PageRank abbekommt, ist am relevantesten zu ihren Keywords.

Dies bedeutet aber nicht, dass der PageRank ihrer Seite weniger wird wenn sie auf andere Seiten verlinken, weil dies würde ja nicht die Wahrscheinlichkeit ändern mit der sich der Crawler auf ihrer Seite befindet. Der PageRank berechnet sich nur aus der Wahrscheinlichkeit die ein Crawler hat um über einen Link auf ihre Seite zu kommen. Die Möglichkeiten die der Crawler hat um ihre Seite wieder zu verlassen, haben keinen Einfluss auf den PageRank.

Sie wissen jetzt, dass der PageRank über Links vererbt werden kann. Das zählt natürlich auch für interne Links. Wenn sie also auf ihrer Seite von der wir die ganze Zeit reden, einen Link auf eine ihrer Unterseiten setzen, wird PageRank an diese Unterseite vererbt. Der PageRank dieser Unterseite kann natürlich auch wieder an eine andere Seite vererbt werden, wenn Sie einen Link auf ihr platzieren.

Wenn Sie auf ihrer Starseite einen externen und einen internen Link platzieren, dann wird nur die Hälfte des PageRank an ihre Unterseite weitergegeben. D.h. um möglichst viel PageRank an ihre Unterseiten weitergeben zu können, lohnt es sich auf der Hauptseite keine externen Links zu platzieren.

Sie merken sicher gerade, dass man auf diese Art die PageRank Verteilung auf der eigenen Website steuern kann. Mit dem No-Follow Attribut für Links geht das noch besser. Über Links die mit dem No-Follow Attribute ausgestattet sind wird nämlich kein PageRank vererbt. Diese PageRank Vererbung wird auch Link Juice genannt. (Man kann den PageRank (die Rankingpower der Links) wie Saft (Juice) durch eine Website fließen lassen = Link Juice)

Bevor sie sich jetzt auf dem Weg machen die interne Verlinkung ihrer Webseite umzustrukturieren, möchte ich nochmal erwähnen, dass dieser Algorithmus schon vor über 20 Jahren entwickelt wurde. Im Laufe der Zeit sind viele weitere Rankingfaktoren hinzugekommen und es bringt nichts mehr den PageRank mit Hilfe von übertriebener interner Verlinkung und No-Follow Links durch die Seite fließen zu lassen. Der PageRank Algorithmus wurde in den Jahren natürlich so weiter entwickelt, dass er nicht mehr so einfach zu manipulieren ist.

Die Crawler (und somit den PageRank) auf der eigenen Webseite einzusperren, indem man keine externen Links setzt, macht heute auch keinen Sinn mehr. Externe Links die dem User einen Mehrwert bieten, werden heute als positives Rankingsignal gewertet. No-Follow Links innerhalb einer Website machen Google misstrauisch und können sich deshalb negative auf das Ranking auswirken.

Wenn sie allerdings eine Unterseite besser ranken lassen wollen, dann macht es immer noch Sinn von der Startseite auf diese Unterseite zu verlinken (für gewöhnlich hat die Startseite den höchsten PageRank innerhalb einer Website).

2.4 Die PageRank Formel

Ich möchte ihnen jetzt noch zeigen wie die PageRank Formel genau funktioniert. Wer eine natürliche Abneigung gegen die Mathematik hat, wird diesen Teil des Buches leicht abschreckend finden. Aber ich habe die einzelnen Teile der Formel, so gut und genau erklärt wie ich es nur konnte.

Sie können diesen Teil überspringen, wenn es sie nicht interessiert. Das was man über den PageRank wissen muss, um optimieren zu können wissen sie schon.

PageRank(A)   =   (1-d)/N   +   d   (PageRank(T1) / Links(T1)   +   …   +   PageRank(Tn) / Links (Tn))

Ich werde jetzt jeden Teil dieser Formel ausführlich erklären. Wir gehen dabei Schritt für Schritt vor und fangen mit dem an, dass sie schon über den PageRank wissen.

PageRank(A) steht für den PageRank ihrer Seite. Diesen wollen wir berechnen. Sie wissen ja bereits, dass die Höhe des PageRanks der Seite, auf der sie einen Backlink haben, ausschlaggebend für die Höhe ihres PageRanks ist. Und sie wissen auch, dass wenn sich auf der Seite, auf der sich einer ihrer Backlinks befindet, noch andere Links sind, weniger PageRank an ihre Seite weitergegeben wird.

Genau das wird mit diesem Teil PageRank(T1) / Links(T1) der Formel, berechnet. PageRank(T1) steht für den PageRank der Seite, auf der sich ihr Backlink befindet. Links (T1) steht für alle Links, die sich auf dieser Seite befinden. Wenn wir jetzt den PageRank dieser Seite gleichmäßig an alle verlinkten Seiten vererben wollen, teilen wir den PageRank durch die Anzahl der Links, also PageRank(T1) / Links(T1). Aus diesem Teil der Formel erfahren wir, wie hoch der PageRank ist, der diese Seite an ihre Seite weitergibt.

Da ihre Seite wahrscheinlich mehrere Backlinks hat, müssen wir diese Berechnung für jede Seite, auf der Sie einen Backlink haben, wiederholen. Dies geschieht mit dem hinteren Teil dieser Formel.

PageRank(Tn) / Links (Tn)

Ihnen fällt auf, dass anstatt T1 jetzt Tn in den Klammern steht. Dieses n bedeutet, es kann durch jede beliebige Zahl ersetzt werden. Also das n ist ein Platzhalter für eine beliebige Zahl.

Wir hatten ja zuvor, die Seite auf der sich ihr Backlink befindet, T1 genannt. Auf dieser Seite befand sich ihr erster Backlink, deshalb T1. (Die Seite, auf der sich ihr zweiter Backlink befindet, wird in der Formel mit T2 abgekürzt.) Sie erinnern sich, wir können das n aus dem hinteren Teil der Formel, durch jede beliebige Zahl ersetzen. 

Wir ersetzten es aber nicht durch die 2 (was wir mit der 2 machen, sage ich ihnen gleich). Wir ersetzten das n, genau durch die Anzahl der Backlinks die ihre Seite hat. Wenn ihre Seite 5 Backlinks hat, ersetzten wir das n durch die 5. Wenn ihre Seite 9 Backlinks hat durch die 9. Und wenn ihre Seite 100 Backlinks hat, ersetzen wir das n durch die 100.

Angenommen ihre Seite hat wirklich 5 Backlinks, dann würden wir das n, im hinteren Teil der Formel, durch die 5 ersetzten. Die Formel würde dann so aussehen:

PageRank(A)   =   (1-d)/N   +   d   (PageRank(T1) / Links(T1)   +   …   +   PageRank(T5) / Links (T5))

Es ist die gleiche Formel, nur das wir das n durch die 5 getauscht haben. Die drei Pünktchen, in der Formel, bedeuten, dass wir die Formel mit den nötigen Teilen auffüllen dürfen. Sie kennen das. Ein Beispiel: Was bedeutet das für sie?

1 2 3 4 … 10 ?

Es ist die Zahlenfolge von 1 bis 10, nur durch Punkte abgekürzt. Haben sie sicher schon mal gesehen. Das gleiche wurde auch bei der Formel so gemacht. Ausgeschrieben sieht die Formel also so aus:

PageRank(A)   =   (1-d)/N   +   d   (PageRank(T1) / Links(T1)   +  PageRank(T2) / Links(T2)   +   PageRank(T3) / Links(T3)   +   PageRank(T4) / Links(T4)   +   PageRank(T5) / Links (T5))

Sie hat jetzt leider nicht mehr in eine Reihe gepasst.

Ich wiederholde nochmal kurz. Der folgende Teil der Formel sagt ihnen, wie viel PageRank sie von der Seite bekommen, auf der sich ihr erster Backlink befindet: PageRank(T1) / Links(T1)

Dieser Teil sagt ihnen, wie viel PageRank sie von der Seite bekommen, auf der sich ihr zweiter Backlink befindet: PageRank(T2) / Links(T2)

Dieser Teil sagt ihnen, wie viel PageRank sie von der Seite bekommen, auf der sich ihr dritter Backlink befindet: PageRank(T3) / Links(T3)

Dieser Teil sagt ihnen, wie viel PageRank sie von der Seite bekommen, auf der sich ihr dritter Backlink befindet: PageRank(T4) / Links(T4)

Und dieser Teil sagt ihnen, wie viel PageRank sie von der Seite bekommen, auf der sich ihr dritter Backlink befindet: PageRank(T5) / Links (T5)

Wenn Sie alles zusammen addieren, bekommen Sie fast den PageRank ihrer Seite. Wir müssen nur noch den ersten Teil der Formel bestimmen:

(1-d)/N   +   d

Dieser Teil gibt etwas an, dass Sie noch nicht kennen (von mir jedenfalls nicht). Ich möchte ihnen kurz erklären was damit gemeint ist.

Sie wissen ja bereits, dass die Crawler sich über Links durchs Web bewegen und Sie wissen auch, dass sie von Scheduler organisiert werden. Zur Wiederholung: Wenn ein Crawler auf eine Webseite kommt, auf der sich kein ausgehender Link befindet, dann kommt er von dieser Seite nicht mehr runter, er ist also auf ihr gefangen.

Damit dies nicht passiert, folgt der Crawler nur mit einer Wahrscheinlichkeit von 85% einem Link. Zu den restlichen 15%, startet er von einer neuen Webseite aus, die ihm der Scheduler vorgibt. Der Crawler bricht seine Suche also mit einer Wahrscheinlichkeit von 15% ab und startet von einer anderen Seite vom neuen. Dies soll verhindern, dass eine Crawler auf einer Webseite gefangen sein kann. Wenn sich der Crawler auf solch einer Seite, ohne ausgehenden Link befindet, hat er immer noch die Möglichkeit von einer anderen Seite neu zu starten.

Das bedeutet aber auch, dass wenn sich der Crawler auf einer Webseite befindet, auf der Sie einen Backlink haben, und sich auf dieser Seite keine anderen Links befinden, dann wird nur 85% des PageRanks an ihre Seite weitergegeben. Wenn sich auf dieser Seite ihr Backlink und noch ein anderer Link befindet, dann wird nur 42,5% des Pageranks an ihre Seite vererbt.

Es wird also immer nur 85% des PageRanks, an die Seiten vererbt, die dort verlinkt sind. (Die restlichen 15% werden an alle Seiten im Google-Index gleichmäßig verteilt.)

Dieser Prozess wird in der Formel mit d abgekürzt. d steht also für die Wahrscheinlichkeit, dass der Crawler einem Link folgt, also zu 85%. Wir schreiben für das d also 0,85.

(0,85 ist das gleiche wie 85%. Weil wenn 1, ein Ganzes ist, dann sind 0,85, 85% von einem Ganzen. Und weil ein ganzes immer 100% hat, ist 0,85 das gleiche wie 85%.)

PageRank(A)   =   (1-d)/N   +   0,85   (PageRank(T1) / Links(T1)   +  PageRank(T2) / Links(T2)   +   PageRank(T3) / Links(T3)   +   PageRank(T4) / Links(T4)   +   PageRank(T5) / Links (T5))

 

Wir hatten ja besprochen, dass der Crawler zu 15%, eine zufällig ausgewählte Seite aufruft. Da dies jede Seite im Google-Index sein könnte, werden die 15% auf alle Seiten gleichmäßig verteilt. Die Anzahl der Webseiten im Google-Index wird in der Formel mit N abgekürzt. Die 15%, die auf all diese Seiten verteilt werden, werden mit (1-d) abgekürzt.

PageRank(A)   =   0,15/N   +   0,85   (PageRank(T1) / Links(T1)   +  PageRank(T2) / Links(T2)   +   PageRank(T3) / Links(T3)   +   PageRank(T4) / Links(T4)   +   PageRank(T5) / Links (T5))

Das Ergebnis dieser Formel würde den PageRank ihrer Seite ergeben.

Sie verstehen jetzt wie die PageRank-Formel funktioniert. Herzlich Glückwusch dazu, das kann nicht jeder von sich behaupten. Jetzt wollen Sie bestimmt noch wissen, wie hoch der PageRank ihrer Seite ist. Um das zu berechnen, muss man die gesamte Verlinkungsstruktur des Webs analysieren. Keine Sorge ich rechne ihnen das jetzt nicht vor, ich könnte das auch gar nicht. Es gibt ca. 50 Milliarden Webseiten im Web und mindestens doppelt so viele Links. Das kann kein Mensch berechnen. Man braucht also einen Algorithmus der dies berechnet.

Es gibt einige Unternehmen die ein Tool anbieten, dass den PageRank einer Webseite berechnet. Oder zu mindestens einen Wert der dem PageRank nachempfunden ist. Ich habe ein extra Kapitel (Kapitel 7) über die verschiedensten Tools für die Suchmaschinenoptimierung angelegt. Da stelle ich ihnen auch einige Tools vor die einen PageRank ähnlichen Wert berechnen. Ich möchte nochmal erwähnen, dass der PageRank vor über 20 Jahren entwickelt worden ist und so in der Form heute nicht mehr viel über das Rankingpotential einer Webseite aussagen kann. Es gibt noch zahlreiche andere Faktoren die ebenfalls einen Einfluss auf das Ranking haben. Wir werden viele davon noch besprechen. In diesem Kapitel arbeiten wir uns langsam an die Funktionsweiße des heutigen Googels heran.

2.5 Updates und Manipulationsmethoden

Google hat seinen Algorithmus in den nachfolgenden Jahren immer weiter verbessert. Mit so gennannten Google-Updates nahmen sie Änderungen an dem Algorithmus vor. Die Updates kann man in drei Kategorien einteilen:

  1. Updates zum Abwerten von Spam und Manipulationsmethoden
  2. Updates um Suchanfragen besser verstehen zu können
  3. Updates die neue Rankingsignale einbringen oder sie anders Gewichten

Google gibt natürlich nicht alle Änderungen der Öffentlichkeit preis. Vor allem um Änderungen die einen neuen Rankingfaktor mit sich bringen macht Google ein großes Geheimnis. Bei Updates die zum Abwerten von Spam dienen sieht dies anders aus. Sie sind sozusagen eine Kampfansage an die Black Hat SEO Gemeinde und betroffene werden diese Updates an den eigenen Rankings spüren. Heute kann man sagen das Google diesen Kampf haushoch gewonnen hat. Minderwertige Webseiten haben in Google keine Chance mehr.

Doch dies war nicht immer so. In den Anfangsjahren von Google bewertete die Suchmaschine die Webseiten nur mit dem PageRank und der Keyworddichte. Webseitenbetreiber merkten schnell, dass es Sinn machte möglichst viele Links im Web zu verteilen, da jeder Link den PageRank mehr oder weniger erhöhte. Webseitenbetreiber sträubten sich auch nicht davor Texte aus anderen Webseiten zu kopieren und sie auf der eigenen Seite einzubinden. Oder sie erstellten Texte die möglichst oft das Keyword enthielten, für das sie rankten wollten.

Die durch die Erfindung des PageRank gut sortierten Ergebnisse wurden schnell wieder von skrupellosen Webseitenbetreibern durcheinander gebracht, die mit allen Mitteln in Google eine gute Position erreichen wollten. Google begann Verbesserungen an dem bisherigen Algorithmus zu unternehmen.

Sie erweiterten den Algorithmus so, dass er es erkannte, wenn mit Hilfe von übertriebener interner Linksetzung der PageRank durch die Unterseiten vererbt werden sollte. Seitenbetreiber verlinkten damals oft alle ihre Unterseiten untereinander und brachten keine externen Links auf ihren Webseiten an, um möglichst viel PageRank an die eigenen Seiten weitergeben zu können. Google gefiel diese irreführende Querverlinkung natürlich nicht und entwickelte deshalb einen Algorithmus, der diese übertriebene Querverlinkungen erkannte und die besagten Webseiten abstrafte, also von den Top Positionen auf die hinteren Plätze verschob. Das Update folgte im Februar 2003 und nannte sich Boston. Die Google Updates haben übrigens immer tolle Namen.

Ein anderer Trick um den eigenen Seiten einen höheren PageRank zu verschaffen war es alle Websites die man besaß untereinander zu verlinken, auch wenn diese nicht Themenrelevant zu einander waren. Solche Links hatten natürlich keinen Mehrwert für die Besucher und stellten auch keine Reputation der Seiten dar. Google entwickelte daraufhin einen Algorithmus der die IP-Adressen der Webseiten verglich. Wenn es Anzeichen dafür gab das zwei Webseiten den gleichen Besitzer haben und für völlig verschiedene Keywords rankten, aber trotzdem aufeinander verlinkten, dann strafte Google diese Webseiten ab. Dieser Algorithmus wurde auch im Februar 2003 geupdatet und nannte sich Cassandra.

Um die Black Hat Methode des Keyword Stuffings (dabei bringt man ein Keyword häufiger als üblich im Text unter, um Google so vorzugaukeln die Seite wäre relevanter als andere) zu unterbinden, kam im November 2003 das Florida Update. Dieses erkannte, wenn die Keyworddichte überoptimiert wurde und strafte diese Seiten ab.

Im Februar 2004 kam dann das Brandy Update, von da an konnte Google Synonyme und verwandte Begriffe erkennen.

Mit diesen und paar weiteren kleineren Updates war die alte Ordnung in den SERP wieder hergestellt und die Nutzer bekamen wieder die besten Ergebnisse auf den Top Positionen zu sehen und keine durch Manipulationen hoch gepuschte Seiten.

Natürlich reichten so ein paar Updates nicht um die Black Hats zum Aufgeben zu bringen. Wenn sie schon keine Spamlinks (Links die keinen Mehrwert bieten) auf ihren eigenen Seiten platzieren konnten, mussten eben andere Seiten dafür herhalten. Blogbetreiber “freuten“ sich daraufhin auf zahlreiche Kommentare unter ihren Artikeln. Es begann ein regelrechter Massentrend, Blogs mit Backlinks voll zu spammen. Die Suchmaschinen Google, Yahoo! und Bing reagierten darauf mit der Einführung des No-Follow Attributes. Das No-Follow Attribute, mit dem Links ausgezeichnet werden können, verhindert die Vererbung von PageRank an die Seite auf die verlinkt wird. Das Backlinks setzten auf Blogs wurde somit wieder unattraktiv. Dieses Update wurde im Januar 2005 eingeführt und trug den spektakulären Namen No-Follow Update.  

Im Juni 2005 personalisierte Google die Suchanfragen. Google erkannte welche Seiten ein bestimmter Nutzer bevorzugt und positionierte diese dann bei weiteren Suchanfragen besser.

Die nächste Idee, auf die Webmaster (Webseitenbetreiber) kamen, war der Linktausch. Sie suchten sich themenrelevante Webseiten und boten ihnen an sie zu verlinken, wenn sie ebenfalls einen Link setzen würden. Google sah diese Linktauschs natürlich nicht als ein natürliches Votum an und entwickelte deshalb einen passenden Algorithmus der Linktauschs erkannte und diese für die Berechnung des PageRanks nicht beachtete. Dieses Update fand im Oktober 2005 statt und nannte sich Jagger.

Im Mai 2007 wurden in den SERP auch Bilder, Videos und PDFs in den “normalen“ Suchergebnissen angezeigt. Man musste nicht extra in die Bilder oder Videosuche wechseln.

Auch wenn bis dahin der Grundstein für die Bekämpfung von Spamlinks und minderwertigem Content gelegt war, gab es noch ein großes Problem. Viele große Konzerne sahen keinen Grund ihre Webseiten für Suchmaschinen zu optimieren. Weshalb Webseiten die von kleineren Firmen oder gar Privatleuten optimiert wurden besser rankten als die Webseiten großer Unternehmen. Google wollte natürlich, dass Seiten mit dem größten Mehrwert auf den Top Positionen zu finden waren und das waren in der Regel die Seiten von großen Unternehmen. Google führte daraufhin die Markensignale ein. Das erste Markensignal was Google einführte war das Suchvolumen einer Marke. Wenn mehrere Leute nach einer Marke und einem Keyword das der Branche zuzuordnen ist, suchten, erkannte der dazu entwickelte Algorithmus in welcher Branche ein Unternehmen tätig war und lies es dann für die entsprechenden Keywords dieser Branche besser ranken. Wenn zum Beispiel öfters die Suchanfrage “ING DiBa Kredit“ kam erkannte Google das ING DiBa eine Bank sein muss und rankte sie daraufhin für einzelne Keyword der Bankenbranche besser. Anhand des Suchvolumens von “ING DiBa“ wusste Google wie beliebt die Bank war und konnte sie somit an der entsprechenden Position in den SERP platzieren. Dieses Update kam im Februar 2009 und nannte sich Vince.

Es gab aber noch ein großes Problem. Bis dahin war es möglich mit vielen guten Backlinks und schlechtem Content eine bessere Position zu erreichen, als mit wenigen Backlinks und dafür gutem Content. Aus diesem “Fehler“ wurde ein eigenes Geschäftsmodell entwickelt. Es wurden Unternehmen gegründet deren Website mit vielen Backlinks ausgestattet wurde, dafür wurde an der Erstellung guten Contents gespart. (Es gab natürlich immer noch Methoden um den PageRank künstlich zu erhöhen, die gibt es heute noch, aber es war nicht mehr ganz so einfach. Wir besprechen sie später.) Webmaster kopierte damals einfach einen Text von einer fremden Webseite und nutzte diesen für die eigene oder man schrieb nur schnell einen Text den Google einem Keyword zuordnen konnte, der aber keinen Mehrwert für die Besucher bot. Alleine wegen der guten Backlinks rankten diese Seiten der Unternehmen besser als Seiten die dem Nutzer wirklich einen Mehrwert boten. Google wollte daraufhin kleineren Websites eine Chance geben, die sich die Mühe machten ihren Besuchern einen echten Mehrwert zu bieten. Sie werteten das Rankingsignal der Backlinks ab und entwickelten einen Algorithmus, der erkannte wie viel Mehrwert eine Seite bot. Die Unternehmen die sich auf den Aufbau von Backlinks und minderwertigem Content spezialisiert hatten, waren von einem Tag auf den anderen nicht mehr in Google zu finden und gingen Bleite, wenn sie nicht den nötigen Content produzieren konnten. Dieses Update wurde dem Google Algorithmus im Mai 2010 hinzugefügt und nannte sich MayDay.

Um die Manipulationsversuche der Google Suchergebnisse weiter zu bekämpfen, entwickelte Google einen Algorithmus der nach dem Google Mitarbeiter Navneet Panda benannt wurde. Das so genannte Panda Update machte es endgültig unmöglich mit minderwertigem Content eine gute Google Position zu erreichen. Ein übliches Geschäftsmodell war es damals Websites mit Texten zu erstellen die für den Algorithmus als relevant eingestuft wurden, die aber keinen großen Mehrwert für die Besucher boten. Diese Websites wurden dann mit einem anständigen Linkprofil ausgestattet und erzielten so gute Rankings. Die Websites wurden dann mit Werbung ausgestattet und verdienten eine Menge Geld. Google wertete diese Websites ab, indem sie Nutzer Signale in das Ranking mit einbezogen. An dem Verhalten der Nutzer auf diesen Websites erkannte Google den tatsächlichen Mehrwert des Contents dieser Seiten. Das Panda Update richtete sich vor allem an ganze Websites, also an Unternehmen deren Geschäft es war minderwertigen Content in Google nach oben zu bringen. Seit der Einführung im Februar 2011 wurde das Panda Update immer weiterentwickelt und überprüft heute jede einzelne Webseite im Index.

Das nächste Problem dass es in Google gab, war die Aktualität von Nachrichten. Es liegt auf der Hand, dass es keinen Sinn macht, Seiten die über Aktuelle Nachrichten berichten erst einmal Backlinks aufbauen zu lassen, bevor man sie gut ranken lässt. Bis sie die Position erreicht hätten, damit ein Nutzer sie lesen kann, wären sie schon veraltet und nicht mehr interessant. Google änderte dies mit dem Freshness Update im November 2011. Von da an wurden Webseiten mit einem Zeitlichen Bezug nicht mehr oder nur sehr wenig mit Backlinks als Rankingfaktor bewertet. News konnten jetzt innerhalb weniger Minuten nach der Erstellung auf Platz eins in Google gefunden werden.

Im Januar 2012 kam das Page Layout Update, es sollte Webseiten mit zu viel Werbung einen Rankingnachteil geben.

Das zweite große Update nach dem Panda Update kam im April 2012 und nannte sich Penguin Update. Es sollte die Manipulation von Backlinks endgültig untersagen. Vor diesem Updates war es in der Black Hat SEO Gemeinde üblich Backlinks zu kaufen und auch zu verkaufen. Für Betreiber von großen Blogs und auch anderen großen Websites war es damals ein gutes Geschäft sich dafür bezahlen zu lassen, einen Backlink auf ihrer Seite unterzubringen. Es gab damals einige Unternehmen die Seiten mit gutem Content erstellten (dies war seit dem Panda Update unumgänglich) und sich Backlinks einkauften. Diese gekauften Backlinks waren natürlich keine ehrliche Reputation der Webseiten. Google beendete diese Vorgehensweißen mit dem Penguin Update. Es analysiert das Linkprofil einer Website und kann so erkennen, ob die Links natürlich aufgebaut wurden oder nicht. Wenn zum Beispiel sehr viele Links von Themenfremden Seiten kommen ist es naheliegend, dass diese Links gekauft wurden. Auch wenn eine Website durchschnittlich, in einer Woche, fünf neue Backlinks bekam, aber dann plötzlich und unerwartet 50 neue Backlinks pro Woche dazu kamen, deutet dies auf gekaufte Links hin. Ein weiteres Zeichen war die überoptimierung von Ankertexten. Wenn sehr viele Backlinks das Keyword als Ankertext enthalten, ist es für Google ein weiteres Zeichen von einem unnatürlichen Linkprofil. In solchen Fällen des Linkkaufs wurden durch das Penguin Update beide Seiten, also der Verkäufer und der Käufer mit einer deutlichen Abwertung in den Suchergebnissen bestraft. Das Penguin Update beschränkte sich aber nicht nur auf Links, es konnte auch eine Überoptimierung durch Keyword Stuffing erkennen und bestrafte dies ebenfalls. Das Penguin Update wird genauso wie das Panda Update stetig weiterentwickelt und ist in der Lage auch kleinere Manipulationsversuche zu erkennen.

Im August 2012 wurden dann Seiten, die gegen das Urheberrecht verstoßen, abgestraft.

Das Exact Match Domain (Keyword als Domainname) Update im September 2012, sollte die Manipulationsmethode, das Keyword direkt als Domain Name zu verwenden, abschwächen. Davon nicht betroffen waren Markennamen. Man kann davon ausgehen, dass der Markenname in der Domain ein starkes Rankingsignal für Markensuchanfragen ist. Für “normale“ Keywords, also für Wörter die kein Unternehmen repräsentieren ist die Exact Match Domain ein weniger starkes Rankingsignal.

Im August 2013 kam das Hummingbird (Kolibri) Update. Das Hummingbird Update war das bis dahin stärkste Update in der Google Geschichte. Es beeinflusste 90% aller Suchergebnisse. Im Vergleich, bei dem zweit größten (Panda) waren 12% der Suchergebnisse betroffen und beim Penguin Update 3%. Der Unterschied zu den meisten anderen Updates war, dass Hummingbird keinen Spam bekämpfte und auch kein neues Rankingsignal mitbrachte. Hummingbird versteht die Suchanfragen besser, in dem es die Syntax analysiert. Vor Hummingbird wurden die Suchanfragen anhand der Keyword erkannt. Anders gesagt, um für ein Keyword überhaupt ranken zu können, musste die Webseite das Keyword mindestens einmal enthalten. Hummingbird dagegen interpretiert die Suchanfrage und sucht nicht nur nach Keywords auf einer Webseite. Google konnte jetzt auch Webseiten für ein bestimmtes Keyword ranken lassen, ohne dass dieses Keyword auf der Webseite überhaupt vorkommt. Google bzw. das Hummingbird Update macht das, indem es Synonyme besser erkennt und die Bedeutung der Wörter mit den Absichten des Suchenden abgleicht. Das Hummingbird Update zeigte seine volle Wirkung bei Long Tail Suchanfragen, vor allem aber bei Suchanfragen die durch die Spracheingabe gestellt wurden, also Suchanfragen die in Dialogform gestellt wurden.  

Mit dem Pigeon Update im Juli 2014 wollte Google kleineren Lokalen Unternehmen die Chance geben in Google besser gefunden zu werden. Google werteten abermals den Rankingfaktor der Backlinks (PageRank) ab. Diesmal war es sozusagen ein lokaler Bonus, wenn eine Suchanfrage mit einem Ortsbezug gestellt wurde, war der PageRank ein weniger starker Rankingfaktor als wenn die Suchanfrage kein Ortsbezug hatte.

Im August 2014 kündigte Google an in Zukunft Websites mit einer SSL-Verschlüsselung einen Rankingvorteil zu geben. (SSL-Verschlüsselungen erkennt man daran, dass die Website unter https aufgerufen wird.) Eine SSL-Verschlüsselung verschlüsselt Daten die auf dieser Webseite eingegeben werden und macht diese für Diebe unbrauchbar.

Seit April 2015 wurde das Rankingsignal für mobile Endgeräte eingeführt. Websites die eine mobile Version zu Verfügung stellten wurden bei Suchanfragen auf Smartphones und Tablets besser gerankt.

2.6 RankBrain

Das Update was ich ihnen jetzt Vorstelle ist laut Google mittlerweile das drittwichtigste Rankingsignal. RankBrain nennt sich dieses Update, das im April 2015 in den Google Algorithmus integriert wurde. RankBrain ist die Erweiterung des Hummingbird Updates.

Ursprünglich wurde RankBrain entwickelt um die 20% der Suchanfragen beantworten zu können, die so vorher noch nie gestellt wurden. Außerdem sollte es für schlampige und undeutlich formulierte Suchanfragen bessere Ergebnisse liefern. RankBrain analysiert nicht nur die Syntax einer Suchanfrage, sondern versteht auch die Intention. RankBrain weiß also was der Nutzer von der Suchanfrage erwartet. Das bedeutet RankBrain versteht auch mehrdeutige Suchanfragen, Wortneuschöpfungen und Umgangssprache. Besonders gut ist RankBrain deshalb für Suchanfragen geeignet die in Dialogform eingehen.

Indem RankBrain den Kontext einer Suchanfrage verstehen, kann es nicht nur die Relevanz einer Webseite zu einem bestimmten Thema ermitteln, sondern es weiß auch wie gut die Webseite zu einer bestimmten themenbezogenen Suchanfrage passt die so vorher noch nie gestellt wurde.

RankBrain funktioniert nach dem Prinzip des Maschinellen Lernens, es verbessert sich also selbständig. Früher musste Google noch jede einzelnen “Schraube“ im Algorithmus selber einstellen. RankBrain dagegen kann diese Einstellungen selbständig überprüfen und optimieren.

Wenn zum Beispiel ein Nutzer eine Frage an Google stellt, analysiert RankBrain das Verhalten des Nutzers auf einer Webseite und kann daran erkennen wie gut und ausführlich eine Seite die Frage des Nutzers beantwortet hat. Sobald RankBrain sich sicher ist, welche Fragen eine Webseite alles beantworten kann (bzw. zu welchen Nutzerintentionen die Webseite passt), analysiert es die Webseite und die Fragen, die sie beantwortet hat genauer und sucht nach einem Muster bzw. nach allgemeingültigen Merkmalen die es auf andere Webseiten und Suchanfragen übertragen kann. So kann es entscheiden welche Webseite es bei welcher Frage ranken lassen soll und welche nicht. Umso mehr Daten RankBrain auf diese Art ansammeln kann, umso besser funktioniert es.

RankBrain versucht so zu entscheiden, welche Webseiten zu einer Suchanfrage passen, die Google so noch nie zuvor bekommen hat.

Zusammengefasst kann man sagen, dass RankBrain weiß was ein Nutzer will und was wichtig für ihn ist. Es kann dem Nutzer genau das bieten was er gerade sucht, auch wenn es diese Suchanfrage zum ersten Mal bekommt.

 

Weiter mit Teil 2: Keyword-Recherche und Seitenstruktur

Menü schließen