GOOGLE+ FOLLOWER SIND GUT FÜR DAS GOOGLE RANKING


Ob Google+ nun tot ist oder durch Google künstlich beatmet wird, darf Monat für Monat neu debattiert werden, sobald neue Zahlen präsentiert werden. Aber die Vermutung war schon immer, daß Google nicht nur die Clicks auf +1, sondern auch die Followerzahlen für das Ranking in den Suchergebnissen berücksichtigt. Ein kurzer, natürlich nicht repräsentativer Test, will nun Folgendes herausgefunden haben:

Twitter und die Anzahl der Follower ist laut dieser Studie übrigens egal. Nun muß man sich selber überlegen, welche Trafficquellen wichtiger sind: die eher Realtime-orientierten Quellen wie Facebook, Google+ oder Twitter, oder eben das gute Ranking in Suchergebnissen von Google.

Infographic: Testing Social Signals

SEO: Engagement auf Google+ schlägt Facebook und Twitter


Wie groß der Einfluss eines hohen Engagements bei Google+ offenbar schon jetzt für das Google-Ranking ist, zeigt ein nicht-repräsentativer Test der Suchmaschinen-Marketing-Profis von TastyPlacement. Demnach wird das eigene Ranking durch Google+-Follower und die Anzahl der erhaltenen +1-Votes deutlich positiver beeinflusst als durch Facebook- und Twitter-Aktivitäten. Suchmaschinenoptimierer sollten sich spätestens jetzt stärker mit Google+ SEO auseinandersetzen.

Für den Google+-SEO-Test haben die Marketing-Experten 6 Webseiten in 6 US-Städten eingerichtet. Die Webseiten waren alle in den gleichen Nischenbereichen angesiedelt und verfügten über eine ähnliche Namensgebung. Im Rahmen des Tests wurden schließlich verschiedene Social-Media-Werbeaktionen gestartet – etwa Google+ Promotions, um +1-Votes zu generieren. Nach einem Monat glich TastyPlacement dann die durchschnittlichen Veränderungen im Google-Ranking mit den entsprechenden Social-Media-Aktivitäten ab, wie es bei Business Insider heißt.

Google+ SEO bringt mehr als Facebook und Twitter

Wenig überraschend für viele SEO-Experten erreichte dabei Google+ den größten positiven Effekt auf das Google-Ranking. Mit nur 100 Google+-Followern für eine verlinkte Testseite konnte ein Plus von 14,63 Positionen bei verschiedenen Keywords erreicht werden. 300 +1-Votes brachten immer noch ein Plus von 9,44 Positionen. 70 Facebook-Shares und 50 Facebook-Likes brachten dagegen „nur“ 6,9 Positionen im Google-Ranking. Twitter-Aktivitäten hatten noch weniger Einfluss auf das Ranking. Während Tweets und Retweets immer noch einen leicht positiven Effekt (2,88) hatte, wirkte sich die Zahl der Twitter-Foller – in diesem Fall 1.000 Follower – sogar leicht negativ aus (-1,22).

Auch wenn die Studie nicht aussagekräftig ist, unumstritten ist, dass Google+ für SEO-Experten an Bedeutung gewinnt. Es wird sogar diskutiert, ob die klassischen Verlinkungen zukünftig durch die Zahl der Shares und +1-Bewertungen abgelöst werden könnten – das Aus für den klassischen Linkaufbau, der in den vergangenen Jahren die Suchmaschinenoptimierung beherrscht hat. Wie ein optimiertes Google+ Profil das Ranking einer Website verbessern könnte, zeigen 5 einfache Ansätze für SEO mit Google+.

SEO-Infografik: Google-Ranking und Social-Media-Aktivitäten (Volle Größe nach Klick)

Google+ SEO Infografik
Google+ SEO Infografik (c) TastyPlacement

Was ist laut Google eine News?


Mmmh, so sehen News auf Google eigentlich nicht aus…
Ob ein Thema prominent im “Story Ranking” von Google News erscheint, wird von den Redakteuren aller Newsseiten entschieden. Denn wenn mehrere von ihnen etwas zu einem Thema veröffentlichen, wird es zum “News-Thema” erhoben. Dann bekommt dieses Thema einen Platz in Google News und eine News Onebox in den natürlichen Suchergebnissen. Die Positionierung innerhalb eines solchen “Themas” nennt man dann “Article Ranking”.

Es ist also von entscheidender Bedeutung, zu einem wichtigen Thema (das im “Story Ranking” hoch gewertet wird) eine möglichst prominente Position (im “Article Ranking”) einzunehmen.

Ein eher theoretischer Faktor für Google News ist der “Query Deserves Freshness”-Algorithmus. Hier wird aufgrund einer sprunghaft gestiegenen Zahl von Suchanfragen der Index für ein Keyword auf “aktuell” gestellt und es sind auf der ersten Seite aktuellere Beiträge zu sehen. Das fällt wohl meistens zusammen mit einer “News”, deshalb kann das nicht isoliert betrachtet werden. Es gibt aber viele Beispiele, in denen kein “GDF”-Algo angewendet wurde – aber die News Onebox angezeigt wird.

Und wie lange bleibt eine News eine News? Das hat sehr viel mit dem Klickverhalten der User zu tun. So lange eine Nachricht noch geklickt wird bleibt sie. Und das können in Spezialgebieten auch mehrere Tage sein. Hauptsache, die User klicken noch…

Der Inhalt einer News

Um es deutlich zu sagen: Eine Optimierung für News funktioniert nur bei News, also bei aktuellen Inhalten. Es gibt zwar exotische Begriffe, die durch eine etablierte Nachrichtenquelle eine “News Onebox” bekommen – aber dies ist für eine systematische Optimierung zu mühselig. Es sollte also im Laufe einer Woche schon zehn bis zwanzig meldenswerte Nachrichten im zu optimierenden Themengebiet geben um überhaupt damit zu beginnen.

Bekanntlich werden an News nicht die herkömmlichen Duplicate-Content-Kriterien angelegt. Schon das einfache Melden einer DPA-Meldung kann zu einem Ergebnis führen – wenn die Seite Autorität hat. Allerdings ist es immer besser, doppelte Inhalte zu überarbeiten – nicht nur für Google.

Regionalität rules – sagt jedenfalls Google. Das ist ja auch gutes, journalistisches Handwerk. Fällt in einem Dorf ein Sack Reis um, kann für die Dorfbewohner genauso wichtig sein, wie eine Überschwemmung mit vielen Toten am anderen Ende der Welt. Wie Google das in Google News umsetzt konnten wir (noch) nicht erforschen.

Wichtige Elemente einer News

Die Überschrift muss die Keywords der anderen News im “Story Ranking” haben. Je weiter vorne das Keyword steht, umso besser ist das für das Ranking.
Der Text muss dieses Keyword auch enthalten – und er sollte nicht zu lang sein. Oft genügen auch schon 50-60 Wörter für eine prominente Einblendung. 300 Wörter für eine News sind nicht nötig.

Das Bild kann eine besondere Rolle spielen. Denn während die besten Plätze (großer Teaser) meist von Spiegel, Zeit und Welt belegt sind, kommen die Bildeinblendungen häufig von kleineren, spezialisierten Webseiten. Damit dies funktioniert, sollte man das Bild technisch und inhaltlich sauber einpassen. Außerdem hilft es, bei personenbezogenen News (also mit Namen) ein Portrait einzubauen. Dies kann Google (zumindest in Zukunft) erkennen. Selbstverständlich ist der Name des Bildes unique, der ALT-Tag beinhaltet einen sinnvollen Eintrag und das Bild ist kein Link. Ach ja: Ein gutes News-Bild ist ein JPEG…

Ausdrücklich erwünscht sind Links. Interne Links sowieso, aber auch Links zu externen Nachrichtenquellen oder weiterführenden Webseiten sind eher günstig.
Wie es scheint, ist der Begriff “/news/” z.B. in der URL sinnvoll.
Google News wünscht sich ausdrücklich so etwas wie eine Stichzeile, also Datum und Ort am Anfang des Artikels oder als erste Begriffe des ersten Textblocks. Und zwar maschinenlesbar, also wenn möglich sogar nach schema.org ausgezeichnet. Dies dient der zeitlichen und räumlichen Einordnung. Wenn dies gewünscht ist (z.B. für rein regionale News oder wenn es ein “Ablaufdatum” gibt) sollte es verwendet werden.

Welche Rolle die Verlinkung spielt

Eingehende Links sind natürlich wichtig. Hierbei spielt die Domainpopularität eine relativ große Rolle. Die Verlinkung einer einzelnen News kann bei dem schnellen Zeitablauf allerdings nur begrenzt beachtet werden. Wird ein News-Artikel mehrfach als Referenz für andere Artikel angegeben, erhält er allerdings ein höheres Ranking. Und: Es kann darüber spekuliert werden, ob sich die Deep-Verlinkung zurückliegender News auswirkt. Gibt es etwa einige News, auf die damals fleißig referenziert wurde, schlägt sich das auf die Beurteilung neuer News durch….

Tatsächlich spielten aber Links für die Optimierung von Google News eine zum “normalen” Info-Index ein untergeordnete Rolle.

Der Zeitpunkt der Veröffentlichung

Wie schnell wird die News von Google indiziert? Schon nach 10 Minuten können News in Google News und damit auch in den regulären Suchergebnissen erscheinen. Mit ein wenig Unterstützung durch Twitter kann man dies als Nachrichtenquelle ein wenig beschleunigen. Wirklich wahr.

Die Ranking-Faktoren im “Article Ranking”

Die wichtigsten Faktoren für eine gute Position sind

Trust der Nachrichtenseite: Dieser ist abhängig von einer Einstufung durch Google (durchaus auch manuell) und den Backlinks die auf die Seite zeigen. Außerdem ist das Klickverhalten der User allgemein auf diese Newsseite ein Faktor.
Onsite-Optimierung der News: Passen die Keywords zu einem “Story Ranking”?
Wird die News geklickt? Mindestens für die Dauer, wie lange eine News prominent angezeigt wird, ist dies der vermutlich wichtigste Faktor. Wird die News geklickt, bleibt sie, wird sie nicht geklickt, fliegt sie raus.
Technische Voraussetzungen

Alle News werden durch eine News-Sitemap an Google gemeldet. Gerne crawlt der Robot auch selber – aber man hat die Situation besser unter Kontrolle, wenn man seine News nur via Sitemap meldet. Dies kann man beantragen.
Die URL eines jeden Beitrags beinhaltet eine mindestens dreistellige, fortlaufende ID. Dies ist nicht mehr unbedingt notwendig. Aber stört auch nicht…
Eine Redaktion ist wichtig. Es gibt offensichtlich mehr als drei Personen, die News erstellen.

Der Code einer News ist idealerweise unterbrechungsfrei in dieser Reihenfolge: Überschrift, Bild, Datum, Body-Text. Wenn etwa zwischen Überschrift und News-Body eine große Anzeige steht, verwirrt das den Robot manchmal. Auch zu viele Social Links machen es eher schlechter als besser.
Die Sitemap wird bei Google als News-Quelle angemeldet. Dies erfolgt über die Google Webmastertools. Dann kann man die Seite vorschlagen (unter “Inhalte vorschlagen”)

Weitere Tipps für Google News

Nicht zu viele Informationen in eine News zusammen ziehen. Dann fällt die Zuordnung zu einem “Thread” schwer…
Besondere Aufmerksamkeit hat die Überschrift verdient: Sie sollte die notwendigen Keywords enthalten, unbedingt zum Klicken auffordern und auch noch nach einigen Tagen nicht unangenehm wirken (also nicht mit “heute” o.ä. arbeiten).
Es gibt zwei Strategien: Möglichst viele News stakkatoartig veröffentlichen oder möglichst früh mit einer kurzen Nachricht online sein und diese immer wieder aktualisieren.

Es ist zu lesen, dass Google gerne “objektive” Texte liest und danach auch sortiert. Mit welchem Algorithmus dies erfolgen soll, ist nicht klar.
Ob man dann in Google News aufgenommen ist, sieht man mit dem “site:”-Befehl. Einfach “site:domain.de” bei Google News eingeben.
Noch ein Wort zur Seitenstruktur: Wichtig ist, dass wirklich nur News an Google News gemeldet werden. Jeder Versuch, einen Beitrag ohne News-Charakter dort unter zu bringen, kann mit einem Rausschmiss bei Google News enden. Deshalb sollte die News-Sitemap auf jeden Fall nur News enthalten, die News sollten am besten in einem eigenen Verzeichnis erscheinen (oder alle anderen Beiträge in einem eigenen Verzeichnis) und man sollte dem News-Robot verbieten das Nicht-News-Verzeichnis zu lesen.

Quelle:seo-book.de

Die Gründerszene-SEO-Seminare


 Jetzt eines von zwei Tickets gewinnen!

Wie schafft man es, hoch in Suchmaschinen zu ranken, ohne Black-Hat-SEO oder Hunderte von kleinen Praktikanten, die wild Backlinks in Blogs drapieren? Welche Rolle spielt Social-Media beim sogenannten Social-Search? Bei den diesjährigen SEO-Seminaren rund um die Themen SEO-On- und -Offpage, Social-Search und der Kombination von allen dreien werden hilfreiche Praxistipps geliefert. Und zum sonnigen Einstieg in den hoffentlich bald nahenden Frühling verlost Gründerszene zwei Seminartickets zum spannenden Thema Eurer Wahl!

Suchmaschinenoptimierung, SEO, SEO-Seminare, Black Hat SEO, Whits Hat SEO, Seo Seminar Berlin,berufliche weiterbildung, Gründer-Seminar, Gründerseminar, Gründerszene-Seminare, kurse, Online-Seminare, Seminar, seminar beratung, seminar e, Seminar Season Two, seminare, seminare 2012, seminare für existenzgründer, seminare für mitarbeiter, Seminare für Startups, seminare schulung, Unternehmensseminar, Unternehmerseminar, workshop seminare,

Gründerszene SEO-Seminare

White-Hat-SEOLinkbuilding, On- und Offpage-Optimierung, Social-Search & Co. Was im Jahre 2012 Social-Media für eine Rolle bei SEO spielen wird, welche Tipps und Tricks es im SEO-On- und Offpage zu beachten gilt und das Kompaktwissen in unserem Praxistag; das alles ist zu erfahren bei den Gründerszene-SEO-Seminaren! Folglich stellen wir alle vier Seminare plus Inhalt kurz vor.

Als Referent für die SEO-Seminare konnten wir Client Director Jan Borgwardt von LBi gewinnen. Als Verantwortlicher für eine Vielzahl namhafter Kunden weist er nicht nur Detailwissen in den wichtigsten Online-Marketing-Disziplinen auf. Speziell für den Searchbereich, SEO und SEA, plant er immer wieder Kampagnen, die sich durch ihre Anforderungen von den Standards unterscheiden. Auch interne und externe Schulungen gehören zur regelmäßigen Tätigkeit des gelernten Bankkaufmanns und Wirtschaftsinformatikers.

SEO-Onpage – besseres Ranking in Suchmaschinen

Suchmaschinen verarbeiten Sprache. Und das besser, als man denken möchte! Jedoch können die besten Suchmaschinen nichts ausrichten, wenn die eigene Seite redaktionell nicht durchdacht und entsprechend umgesetzt ist. So lernt ihr in diesem Seminar nicht nur Qualitätssignale und deren Auswirkung richtig einzuschätzen, sondern auch hilfreiche Tools und Best-Practice-Beispiele.

Zu den Terminen:

SEO-Offpage – Linkbuilding war gestern

Gute Rankings in Suchmaschinen sind essentiell für ein erfolgreiches Online-Marketing. Doch wie erreicht man diese? Und ist ein Platz 1 wirklich immer das Beste? Wer durch praktische Übungen eigene Linkbuilding-Maßnahmen planen und konzipieren oder zum Beispiel SEO-Agenturen besser überprüfen will, der ist beim Offpage-Seminar bestens aufgehoben.

Zu den Terminen:

SEO und Social-Media: Social-Search: SEO der Zukunft?

Soziale Medien und Plattformen sind für die meisten von uns das “täglich Brot“. Ein einfacher Austausch mit Freunden und Kollegen, Familie und Businesskontakten gehört zu unseren täglichen Bedürfnissen. Suchmaschinen wissen das und wittern hier nicht nur reichhaltige Informationen, weshalb Social-Media eine immer wichtigere Rolle bezüglich Suchmaschinenoptimierung spielen wird.

Zu den Terminen:

Praxistag SEO – Suchmaschinenoptimierung von A – Z

SEO wird zwar immer komplexer, aber nicht unbedingt komplizierter. Wichtig ist es vor allem, Suchmaschinen zu verstehen, um den Überblick zu behalten und dem Wettbewerb eventuell sogar einen Schritt voraus sein zu können. In dem achtstündigen Gründerszene-Praxistag wird daher ein praxisbezogenes Komplettpaket angeboten, in dem keine Frage offen bleibt.

Zu den Terminen:

Ticketverlosung für SEO-Seminare!

An diesem Dienstag gibt es also Sonnenschein und … zwei Tickets zu gewinnen!! Wer Lust auf völlig kostenlose Weiterbildung hat, der schreibe doch bitte unter diesen Artikel, warum gerade er das Ticket dringend nötig hat und gerne gewinnen würde. Ende der Aktion ist Freitag, der 20. April 2012 und der Gewinner wird persönlich benachrichtigt! Good Luck :)!
P.S.: Das vollständige Seminarprogramm mit der langen Liste an Seminaren findet Ihr übrigens auf der Gründerszene-Seminarseite.

Google SEO 2012 – Einblicke in die Hintertüren


Wie indexiert Google Webseiten im Jahr 2011 und wie werden diese bewertet?

Hier ein paar Fakten, die „noch“ nicht öffentlich sind:

Wie scraped Google das Web?

Lasst uns erstmal Google Spiders ( Bots die Content im WWW indexieren ) in 4 Hauptgruppen aufteilen.

  1. Backlink Spiders –  sind die Grundlegensten und die gibt es seit dem es auch Google gibt. Es sind auf irgendeiner Art und Weise Autobahn-Builder für die andern Spiders. Gebaut sind Sie wie Viren – Sie folgen einen Link, dann alle von dieser neuen Seite, multiplitzieren sich selber und dann folgen sie alle von dieser Webseite. Kurz gesagt: Sie lieben es Code und Backlinks zu „essen“. Zurück zu den Servern werden Informationen des <head> geschickt und Backlinks ( Falls kein Wert im <head> zu finden ist, wird zufälliger Content gefiltert und das gibt ein —). Wird man erwischt, wenn man einen toten Link benutzt ( der nirgendwo hinführt ) bekommt man einen Penalty, da in dem Moment ein Spider ausstirbt. Google hasst es wenn man seine Spider tötet.

Die Spider haben auch eine limitierte Anzahl um sich selbst zu reproduzieren ( Limitiert an der Server-Kapazität ), das erklärt warum manche Webseiten die meisten Seiten indexiert bekommen und manche nur 1-2 Unterseiten. ( Es ist möglich, dass es 2 Spiders gibt – Einer für die Meta-Informationen und einer für die Backlinks, unmöglich herauszufinden )

  1. Content Spiders –  sind die Kreation aus der ersten Google Revolution. Die scrapen Content von allen Webseiten. Es gibt ein wenig Erkenntniss, das sie sogar Texte verstehen und identifizieren können. Sie werden wissen ob ein Artikel gespinnt ist, ob ein Artikel über ein Thema ist und ob er relevant zum Webseiten Thema ist. Diese Text Spider sind sehr schwer, es kostet unmengen an Serverlast. Genutzt werden die Backlinks Spider um das Web zu erforschen. Sie lieben ständig erneuerten Content. Sie sind so schwer, so dass sie nicht gezwungen werden wollen jedes mal den selben Text zu scrapen jedes Mal wenn Sie eine Webseite betreten. Wenn man also einen Link löscht, nachdem der Backlinks Spider einen indexiert, bevor aber der Content Spider einen trifft, kann man einen großen Schaden in der SEO erwarten, da sie schwer sind und Google einem einen Penalty verhängt wenn man sie tötet.
  1. Foto Spiders – ein weiterer Effekt der Google Bilder Evolution. Sie lieben Bilder und auf irgendeiner Art und Weiße sind sie in der Lage, Fotos zu erkennen ( Keine details, aber Farben, Strukturen & Muster und ein wenig pornographische Bilder ) und sie lesen Fotos nach relevanten Tags und platzieren diese. Sie fahren auf Autobahnen und nutzten Content Spiders um Informationen über Fotos zu finden.
  1. Video Spiders – ein weiteres Experiment von Google. Diese schlauen Gefährten machen einige atemberaubende Sachen. Bis jetzt haben sie noch keine Möglichkeit Videos selbst zu sehen, so nutzten sie die Informationen von Content Spiders um Videos zu finden und scrapen Thumbnails ( Vorschaubilder ), Tags, Ratings, Kommentare, um zu entscheiden ob es ein gutes oder schlechtes Video ist. Erstellt wurden sie in der Era von YouTube ( Warum braucht Google YouTube? ( Ehemmm…*hust )

Genug über Spider. Nur Google selber weiß wie viele Kreaturen Sie haben.

Über Google Dance:

Was ist der Google Dance?

Kurz gesagt – Jeder Roboter der Google Familie hat genug Power um eine Webseite zu bewerten. Darauf basierend, wird eure Webseite aufsteigen, oder absteigen.

Sagen wir bei einem Maximum von 1.000.000 Punkten starten neue Webseiten mit „0“ Punkten. Nachdem der Backlink Roboter zu Besuch kommt, sieht dieser z.B. das man viele Authoritäts Links hat und gutes OnPage SEO. Also gibt dieser sehr wichtige Spider einem 231.246 Punkte. Man ist auf der Seite 2 in den Google Ranking hiernach.

Jetzt Content Spider. Es hat kein qualitativen Content gefunden. Alles kopiert. Content Spider mögen dies nicht, man bekommt -56.214 Punkte. Nach ein paar Tagen fällt man auf der Seite 17 deswegen.

Jetzt kommt ein weiterer Spider und dieser re-valiiert Ihre Webseite. Manche geben Ihnen ein +, manche ein -. Nach 2 Wochen herumtanzen ( Ihr löscht einige Links, bekommt ein paar minderwertige oder sogar xRumer Russenlinks aus einer schlechten Liste? -13.521 vom Backlink Spider ) Man kommt auf der Seite 3.

Macht das JETZT Sinn?

Was ist die Google Sandbox / Penalty?

Immer wenn man mehr Minuse bekommt, als Pluse, wird man vom Sandbox erwischt ( Als Beispiel, Google findet herauß das man duplicate Content Farmen hat die zu einem Verlinken. Backlinks Spider würden das nicht herausfinden, aber Content Spider hingegen schon ) Penalty? Wenn man urplötzlich einen Verlust in den Rankings aufnehmen muss ( Zum Beispiel von 400.000 Punkten auf 200.000 ) heißt das für Google man hat es vergeigt = Penalty. Zur Erinnerung = Google funktioniert indem es Scripte benutzt. Ihr würdet sagen – es waren nur 10.000 Backlinks von einer frei zugänglichen xRumer Liste, das ist nicht viel! – Google sagt: SPAM.

Warum gibt es nicht einen Spider der ALLES regelt? Simple Antwort = Kosten. Sie können es sich nicht leisten Millionen von Servern zu haben. Deshalb wird die Arbeit auf verschiedenen Robotern verteilt ( Ja ,Google nutzt auch normale Server ).  Dann werden alle Informationen zum Super Netzwerk zurückgeschickt. Übertrieben großes Netzwerk, das einen großen Computer erstellt ( Computer 42? ).

Dieses  Netzwerk berechnet die Positionen, anhand der Punktzahl die Ihr bekommt.

Wie wird bestimmt, ob eine Webseite Authorität hat?

Ziemlich trivial. Positionen auf Google werden von diesen Faktoren bestimmt:

  1. 1. Authorität
  2. 2. Backlinks
  3. 3. Content
  4. 4. Anderer, weniger wichtige Sachen

Was ist Authorität?

Ganz einfach:

2+3+4=1

Ist PageRank noch wichtig?

Ja und Nein. Der Page Rank wurde originell erfunden um die Authorität zu bestimmen. Dies ist es nicht mehr. Es nutzt die einfachste Form von 2 + 3 = 1 um einen Wert zu bestimmten ohne den Wert von +4 ein zu kalkullieren und teilweise neue Updates von „3“ sind hier mit drin, also ist es sehr ungenau.

Ist No Follow zu was zu gebrauchen?

Es ist, aber nicht so viel wie Do Follow Backlinks, da es von Content Spidern gescraped wird, also hat es einen kleineren Wert und es erstellt keine Autobahnen für andere Spiders ( Sie werden nicht erlaubt einzutretten ).

Was ist angesagt in diesen Tagen?

Artikel mit 800+ Wörter Singel Artikel Submissions ( Nur bitte nicht auf 100+ Artikel Verzeichnissen den selben Artikel  SPAMMEN! ), große AUTHORITÄTS Backlinks, Social Backlinks, Virales Marketing, News Feeds, Backlinks aus geschlossenen webseiten ( diese kosten Geld oder es ist schwer dort reinzukommen )

Ist Google intelligent?

Die Menschen hinter Google – EXTREM. Ich kenn einen, der für kurze ein paar Tage bei Google gearbeitet hat. Man kann auf jeden Fall sicher sein, dass die Head Programmierer Millionäre sind – soviel dazu. Google als Suchmaschine – Nein. Es ist nur ein Script und jedes Script hat eine Hintertür. Den einen oder anderen Trick hab ich auch schon gefunden (Unveröffentliche Tricks mein ich icon wink Google SEO 2011   Einblicke in dem heutigem SEO ) Man muss nur „aus der Box rauß denken“.

Die Perfekte Webseite?

Ungefähr 10 Links auf jeder Seite. Externe Links zu Authoritäts Webseiten die irgendwie zur selben Kategorie fallen. Ein paar Videos, 2+ Fotos für jeden Artikel. 80% unqiue Content. Ein paar große Zitate. Nur natürlich wirkende Backlinks. Ein paar Backlinks die zu den Fotos zeigen.  50% aller Unterseiten haben relevante Backlinks. Maximum 40% von Foren Backlinks, 30% Blog Backlinks, 20% Profil Backlinks. Minimum 30% Authoritäts Links. Artikel / Content variiert in der Wortanzahl. Alles von 300+ bis 1.500+. Minimun von 30-40 Wörtern Unique Content auf jeder Webseite.

Quelle:mehr-backlinks.de

SEO 2012: Worauf wir uns im frischen Jahr konzentrieren


Nein, ich schaffe es einfach nicht, Vorausschauen oder Trends aufzuschreiben. Denn das ist doch alles nur Rätselraten. Sinn macht es aber, zum Jahreswechsel die Strategie zu überprüfen und die Arbeitsweise an neue Situationen anzupassen. Neben einigen internen Änderungen (die euch gar nix angehen) hier die Themen, mit denen wir im Vergleich zu 2011 anders arbeiten möchten:

  • (Noch) mehr Contenterlebnis auf die Seiten: Alle Updates im vergangenen Jahr hatten nur eine Richtung: Google möchte den Usern den zum Keyword am besten passenden Inhalt zeigen. Und, hey, das war schon immer so. Dass auch miese Seiten gut ranken können, ist ja nur ein Bug im Google-Algorithmus. Da wir (vor allem für unsere Kunden) langfristig denken, empfehlen wir auch weiterhin und noch stärker, NICHT auf Google-Bugs zu optimieren, sondern die Suchmaschine möglichst zufrieden zu stellen. Und wenn Verweildauer und Bouncerate nun mal wichtige Faktoren sind, prima. Dann erhöhen wir halt das Content-Erlebnis der User mit tollen Überschriften, einer perfekten Content-Strukturierung und lesenswerten Inhalten oder Videos oder sonst was.
  • Präzisere Keyword-Aussteuerung: Alle reden von “Qualitäts-Content” – und bestellen dann doch wieder *irgendwelche* 5-Sterne-Texte für eine Handvoll Euros. Hiermit erkläre ich das Jahr 2012 zum Content-Differenzierungs-Jahr. Es gibt Keywords, die Seiten mit aktuellem Inhalt erfordern. Es gibt Keywords, nach deren Eingabe im besten Falle Seiten mit “Do”-Inhalt erscheinen, die User sollten also etwas kaufen können. Es gibt Keywords, die brauchen nur minimalen Content. Und es gibt Keywords, bei denen muss man seine Tastatur leer schreiben. The Difference makes the Difference!
  • Technische Aufrüstung: Es reicht nicht mehr, einfach eine Seite ins Web zu knallen und mit Links drauf zu zielen. Heute gibt es XML-Sitemaps, Rich Snippets, Anbindungen an soziale Netze, Google Webmaster Tools und Analytics, Feed-Einbindungen, hohe Performance-Ansprüche u.s.w.. Es war zwar noch nie so einfach, eine Webseite zu veröffentlichen – aber noch nie war es so schwer, wirklich alles zu bedenken.
  • Content- und Linkaufbau gehören zusammen: Wenn ich mir die Projekte im vergangenen Jahr anschaue, freue ich mich vor allem über die Kurven der Seiten, bei denen wir die Möglichkeit hatten, Content- UND Linkaufbau synchronisiert zu entwickeln. Ist ja auch eigentlich logisch: Neue Links gibt es immer nur dann, wenn neuer Content entstanden ist. Und neuer Content ohne neue Links wirkt auch irgendwie merkwürdig ;-)
  • Mehr Social Media: Das Thema habe ich lange unterschätzt, weil mir die vielen Krabbelgedanken in Twitter, Facebook und G+ einfach nicht liegen. Aber ich muss zugeben, dass ich auch nicht mehr “ohne” sein möchte. Und wenn ich mir die Herkunfts-Statistiken anschaue, gehören mindestens diese drei sozialen Dienste zu jeder Content-Strategie.
  • Daten, Fakten, Gedanken: Wie haben wir eigentlich vor vier oder fünf Jahren SEO gemacht? Ich kann mir wirklich nicht mehr vorstellen, wie man damals ohne Sichtbarkeits- oder Visibility-Indizes eine Domain bewerten konnte. Oder wie man überhaupt den Keyword-Raum einer Seite definieren konnte. Doch Vorsicht: Tools können auch nicht alles. Man sollte immer wissen, woher diese Daten kommen, was sie sagen und welche Entscheidungs-Optionen man hat. SEO-Tools können die Optimierung auf eine viel höhere Basis bringen – aber ersetzen nicht das Denken.
  • Mehr Projektmanagement: Ein Projekt ist eine zu organisierende Herausforderung, für die knappe Ressourcen, aber ein klares Ziel zur Verfügung stehen. Ohne Ziel keine Richtung, ohne die Kenntnis der Ressourcen und der Risiken kein gutes Ende. Ich habe mir vorgenommen, auch hier im SEO-Book in den nächsten Monaten ein paar Praxis-Tipps aus meiner langen Projektmanagement-Vergangenheit aufzuschreiben.
Quelle:seo-book.de

Wozu PageRank – brauche ich das?


PageRank hat nur sehr bedingt mit Suchmaschinenoptimierung zu tun!

Der Google PageRank ist ein Kriterium von Google zur Bestimmung der Wertigkeit einer Webseite, aufgrund der auf die Webseite verweisenden Verlinkungen von dritten Seiten. Diese Verlinkungen werden auch Backlinks genannt.

Der PageRank (PR) kann entweder über die Google Toolbar oder auch andere Browser-Erweiterungen „als kleiner grüner Balken“ mit einer Skala von 1-10 angezeigt werden. Je höher der PageRank ist, desto besser wird die Webseite von Google bewertet. Soweit die Theorie – viele Hobby-SEOs haben das anscheinend falsch verstanden, bzw. einfach „den Zug der Zeit verpasst“ …

In der SEO-Praxis ist der PageRank seit etwa 3-4 Jahren kein relevantes Mass mehr, um die Positionierbarkeit einer Webseite zu konkreten Suchbegriffen zu bestimmen oder positiv zu beeinflussen.

Vor einigen Jahren war es noch möglich einen thematisch irrelevanten Backlink auf einer amerikanischen Webseite mit PageRank 8 zu mieten, um damit die Platzierung von Einzel-Keywords im deutschen Google Index zu erreichen. Nachdem Google diese vergleichsweise einfache Manipulationsmöglichkeit der eigenen Suchergebnisse bemerkt hat, wurden dem Such-Algorithmus weitere Kriterien hinzugefügt, welche diesen Ranking-Effekt stark abgeschwächt bis unmöglich gemacht haben.

PageRank als Währung

Heutzutage ist der PageRank (speziell der Toolbar-PR) eher eine „Währung für Linktausch & Linkhandel“, denn ein Ranking-Faktor. Nichtsdestotrotz werden auf der „Jagd nach PageRank“ immer noch Backlinks auf amerikanischen Donation- oder Presse-Seiten gebucht (oft für Webkataloge oder Artikelverzeichnisse, da sich die meisten Webmaster bei Einträgen immer noch am PR orientieren, statt die wirklich wichtigen Kriterien der Offpage-Suchmaschinenoptimierung wie IP-Diversifizierung, Trustrank, Authority-Status, variierende Linktexte oder themenrelevantes Backlink-Umfeld zu berücksichtigen), um dadurch entsprechende Tauschmöglichkeiten für die eigentlich wichtigen SEO-Projekte aufzubauen oder eben PageRank-Backlinks vermieten/verkaufen zu können.

Kann man machen – muss man aber nicht. Das Risiko wegen Linkmiete oder Linkkauf von Google abgestraft zu werden ist seit Mitte 2007 nochmals deutlich angestiegen, da Google angekündigt hat, verstärkt gegen diese Art der Index-Manipulation vorzugehen.

Da das Backlink-Umfeld auf Seiten, die wegen eines hohen PageRank von 8 oder 9 Links vermieten, meist sehr eindeutig & leicht identifizierbar ist (Casino, Poker, Finanzen, Erotik etc.) wird es Google über kurz oder lang einfach haben, die Wertigkeit dieser Verlinkungen zu reduzieren oder auf Null zu setzen!

Wenn man denn aus Image- oder sonstigen abstrakten Gründen einen hohen PageRank sein Eigen nennen möchte, sollte man die Linkvermieter sehr sorgfältig auswählen und besser keine Backlinks mit einem PageRank höher als 7 anmieten, um nicht ins Visier der Anti-Linkkauf Kampagne von Google zu geraten!

Fazit: Finger weg von reiner PageRank-Miete

Um Google Top-Positionen zu erreichen ist kein hoher PageRank notwendig!
Wir selbst haben SEO Projekte mit PageRank 4 zu sehr umkämpften Keywords in den Google Top 3 platziert – der Rest der Google Top-10 um uns herum hat einen PageRank zwischen 5 & 7 😉

Quelle: google.de