Google SEO 2012 – Einblicke in die Hintertüren


Wie indexiert Google Webseiten im Jahr 2011 und wie werden diese bewertet?

Hier ein paar Fakten, die „noch“ nicht öffentlich sind:

Wie scraped Google das Web?

Lasst uns erstmal Google Spiders ( Bots die Content im WWW indexieren ) in 4 Hauptgruppen aufteilen.

  1. Backlink Spiders –  sind die Grundlegensten und die gibt es seit dem es auch Google gibt. Es sind auf irgendeiner Art und Weise Autobahn-Builder für die andern Spiders. Gebaut sind Sie wie Viren – Sie folgen einen Link, dann alle von dieser neuen Seite, multiplitzieren sich selber und dann folgen sie alle von dieser Webseite. Kurz gesagt: Sie lieben es Code und Backlinks zu „essen“. Zurück zu den Servern werden Informationen des <head> geschickt und Backlinks ( Falls kein Wert im <head> zu finden ist, wird zufälliger Content gefiltert und das gibt ein —). Wird man erwischt, wenn man einen toten Link benutzt ( der nirgendwo hinführt ) bekommt man einen Penalty, da in dem Moment ein Spider ausstirbt. Google hasst es wenn man seine Spider tötet.

Die Spider haben auch eine limitierte Anzahl um sich selbst zu reproduzieren ( Limitiert an der Server-Kapazität ), das erklärt warum manche Webseiten die meisten Seiten indexiert bekommen und manche nur 1-2 Unterseiten. ( Es ist möglich, dass es 2 Spiders gibt – Einer für die Meta-Informationen und einer für die Backlinks, unmöglich herauszufinden )

  1. Content Spiders –  sind die Kreation aus der ersten Google Revolution. Die scrapen Content von allen Webseiten. Es gibt ein wenig Erkenntniss, das sie sogar Texte verstehen und identifizieren können. Sie werden wissen ob ein Artikel gespinnt ist, ob ein Artikel über ein Thema ist und ob er relevant zum Webseiten Thema ist. Diese Text Spider sind sehr schwer, es kostet unmengen an Serverlast. Genutzt werden die Backlinks Spider um das Web zu erforschen. Sie lieben ständig erneuerten Content. Sie sind so schwer, so dass sie nicht gezwungen werden wollen jedes mal den selben Text zu scrapen jedes Mal wenn Sie eine Webseite betreten. Wenn man also einen Link löscht, nachdem der Backlinks Spider einen indexiert, bevor aber der Content Spider einen trifft, kann man einen großen Schaden in der SEO erwarten, da sie schwer sind und Google einem einen Penalty verhängt wenn man sie tötet.
  1. Foto Spiders – ein weiterer Effekt der Google Bilder Evolution. Sie lieben Bilder und auf irgendeiner Art und Weiße sind sie in der Lage, Fotos zu erkennen ( Keine details, aber Farben, Strukturen & Muster und ein wenig pornographische Bilder ) und sie lesen Fotos nach relevanten Tags und platzieren diese. Sie fahren auf Autobahnen und nutzten Content Spiders um Informationen über Fotos zu finden.
  1. Video Spiders – ein weiteres Experiment von Google. Diese schlauen Gefährten machen einige atemberaubende Sachen. Bis jetzt haben sie noch keine Möglichkeit Videos selbst zu sehen, so nutzten sie die Informationen von Content Spiders um Videos zu finden und scrapen Thumbnails ( Vorschaubilder ), Tags, Ratings, Kommentare, um zu entscheiden ob es ein gutes oder schlechtes Video ist. Erstellt wurden sie in der Era von YouTube ( Warum braucht Google YouTube? ( Ehemmm…*hust )

Genug über Spider. Nur Google selber weiß wie viele Kreaturen Sie haben.

Über Google Dance:

Was ist der Google Dance?

Kurz gesagt – Jeder Roboter der Google Familie hat genug Power um eine Webseite zu bewerten. Darauf basierend, wird eure Webseite aufsteigen, oder absteigen.

Sagen wir bei einem Maximum von 1.000.000 Punkten starten neue Webseiten mit „0“ Punkten. Nachdem der Backlink Roboter zu Besuch kommt, sieht dieser z.B. das man viele Authoritäts Links hat und gutes OnPage SEO. Also gibt dieser sehr wichtige Spider einem 231.246 Punkte. Man ist auf der Seite 2 in den Google Ranking hiernach.

Jetzt Content Spider. Es hat kein qualitativen Content gefunden. Alles kopiert. Content Spider mögen dies nicht, man bekommt -56.214 Punkte. Nach ein paar Tagen fällt man auf der Seite 17 deswegen.

Jetzt kommt ein weiterer Spider und dieser re-valiiert Ihre Webseite. Manche geben Ihnen ein +, manche ein -. Nach 2 Wochen herumtanzen ( Ihr löscht einige Links, bekommt ein paar minderwertige oder sogar xRumer Russenlinks aus einer schlechten Liste? -13.521 vom Backlink Spider ) Man kommt auf der Seite 3.

Macht das JETZT Sinn?

Was ist die Google Sandbox / Penalty?

Immer wenn man mehr Minuse bekommt, als Pluse, wird man vom Sandbox erwischt ( Als Beispiel, Google findet herauß das man duplicate Content Farmen hat die zu einem Verlinken. Backlinks Spider würden das nicht herausfinden, aber Content Spider hingegen schon ) Penalty? Wenn man urplötzlich einen Verlust in den Rankings aufnehmen muss ( Zum Beispiel von 400.000 Punkten auf 200.000 ) heißt das für Google man hat es vergeigt = Penalty. Zur Erinnerung = Google funktioniert indem es Scripte benutzt. Ihr würdet sagen – es waren nur 10.000 Backlinks von einer frei zugänglichen xRumer Liste, das ist nicht viel! – Google sagt: SPAM.

Warum gibt es nicht einen Spider der ALLES regelt? Simple Antwort = Kosten. Sie können es sich nicht leisten Millionen von Servern zu haben. Deshalb wird die Arbeit auf verschiedenen Robotern verteilt ( Ja ,Google nutzt auch normale Server ).  Dann werden alle Informationen zum Super Netzwerk zurückgeschickt. Übertrieben großes Netzwerk, das einen großen Computer erstellt ( Computer 42? ).

Dieses  Netzwerk berechnet die Positionen, anhand der Punktzahl die Ihr bekommt.

Wie wird bestimmt, ob eine Webseite Authorität hat?

Ziemlich trivial. Positionen auf Google werden von diesen Faktoren bestimmt:

  1. 1. Authorität
  2. 2. Backlinks
  3. 3. Content
  4. 4. Anderer, weniger wichtige Sachen

Was ist Authorität?

Ganz einfach:

2+3+4=1

Ist PageRank noch wichtig?

Ja und Nein. Der Page Rank wurde originell erfunden um die Authorität zu bestimmen. Dies ist es nicht mehr. Es nutzt die einfachste Form von 2 + 3 = 1 um einen Wert zu bestimmten ohne den Wert von +4 ein zu kalkullieren und teilweise neue Updates von „3“ sind hier mit drin, also ist es sehr ungenau.

Ist No Follow zu was zu gebrauchen?

Es ist, aber nicht so viel wie Do Follow Backlinks, da es von Content Spidern gescraped wird, also hat es einen kleineren Wert und es erstellt keine Autobahnen für andere Spiders ( Sie werden nicht erlaubt einzutretten ).

Was ist angesagt in diesen Tagen?

Artikel mit 800+ Wörter Singel Artikel Submissions ( Nur bitte nicht auf 100+ Artikel Verzeichnissen den selben Artikel  SPAMMEN! ), große AUTHORITÄTS Backlinks, Social Backlinks, Virales Marketing, News Feeds, Backlinks aus geschlossenen webseiten ( diese kosten Geld oder es ist schwer dort reinzukommen )

Ist Google intelligent?

Die Menschen hinter Google – EXTREM. Ich kenn einen, der für kurze ein paar Tage bei Google gearbeitet hat. Man kann auf jeden Fall sicher sein, dass die Head Programmierer Millionäre sind – soviel dazu. Google als Suchmaschine – Nein. Es ist nur ein Script und jedes Script hat eine Hintertür. Den einen oder anderen Trick hab ich auch schon gefunden (Unveröffentliche Tricks mein ich icon wink Google SEO 2011   Einblicke in dem heutigem SEO ) Man muss nur „aus der Box rauß denken“.

Die Perfekte Webseite?

Ungefähr 10 Links auf jeder Seite. Externe Links zu Authoritäts Webseiten die irgendwie zur selben Kategorie fallen. Ein paar Videos, 2+ Fotos für jeden Artikel. 80% unqiue Content. Ein paar große Zitate. Nur natürlich wirkende Backlinks. Ein paar Backlinks die zu den Fotos zeigen.  50% aller Unterseiten haben relevante Backlinks. Maximum 40% von Foren Backlinks, 30% Blog Backlinks, 20% Profil Backlinks. Minimum 30% Authoritäts Links. Artikel / Content variiert in der Wortanzahl. Alles von 300+ bis 1.500+. Minimun von 30-40 Wörtern Unique Content auf jeder Webseite.

Quelle:mehr-backlinks.de

Hinterlasse einen Kommentar