Warum Content wichtig ist


See on Scoop.itSupportstore.de | SEO Performance-Marketing

Das aktuelle Panda-Update des Google-Suchindex soll den Fokus auf Inhalte legen.

See on www.supportstore.de

Advertisements

Die Gründerszene-SEO-Seminare


 Jetzt eines von zwei Tickets gewinnen!

Wie schafft man es, hoch in Suchmaschinen zu ranken, ohne Black-Hat-SEO oder Hunderte von kleinen Praktikanten, die wild Backlinks in Blogs drapieren? Welche Rolle spielt Social-Media beim sogenannten Social-Search? Bei den diesjährigen SEO-Seminaren rund um die Themen SEO-On- und -Offpage, Social-Search und der Kombination von allen dreien werden hilfreiche Praxistipps geliefert. Und zum sonnigen Einstieg in den hoffentlich bald nahenden Frühling verlost Gründerszene zwei Seminartickets zum spannenden Thema Eurer Wahl!

Suchmaschinenoptimierung, SEO, SEO-Seminare, Black Hat SEO, Whits Hat SEO, Seo Seminar Berlin,berufliche weiterbildung, Gründer-Seminar, Gründerseminar, Gründerszene-Seminare, kurse, Online-Seminare, Seminar, seminar beratung, seminar e, Seminar Season Two, seminare, seminare 2012, seminare für existenzgründer, seminare für mitarbeiter, Seminare für Startups, seminare schulung, Unternehmensseminar, Unternehmerseminar, workshop seminare,

Gründerszene SEO-Seminare

White-Hat-SEOLinkbuilding, On- und Offpage-Optimierung, Social-Search & Co. Was im Jahre 2012 Social-Media für eine Rolle bei SEO spielen wird, welche Tipps und Tricks es im SEO-On- und Offpage zu beachten gilt und das Kompaktwissen in unserem Praxistag; das alles ist zu erfahren bei den Gründerszene-SEO-Seminaren! Folglich stellen wir alle vier Seminare plus Inhalt kurz vor.

Als Referent für die SEO-Seminare konnten wir Client Director Jan Borgwardt von LBi gewinnen. Als Verantwortlicher für eine Vielzahl namhafter Kunden weist er nicht nur Detailwissen in den wichtigsten Online-Marketing-Disziplinen auf. Speziell für den Searchbereich, SEO und SEA, plant er immer wieder Kampagnen, die sich durch ihre Anforderungen von den Standards unterscheiden. Auch interne und externe Schulungen gehören zur regelmäßigen Tätigkeit des gelernten Bankkaufmanns und Wirtschaftsinformatikers.

SEO-Onpage – besseres Ranking in Suchmaschinen

Suchmaschinen verarbeiten Sprache. Und das besser, als man denken möchte! Jedoch können die besten Suchmaschinen nichts ausrichten, wenn die eigene Seite redaktionell nicht durchdacht und entsprechend umgesetzt ist. So lernt ihr in diesem Seminar nicht nur Qualitätssignale und deren Auswirkung richtig einzuschätzen, sondern auch hilfreiche Tools und Best-Practice-Beispiele.

Zu den Terminen:

SEO-Offpage – Linkbuilding war gestern

Gute Rankings in Suchmaschinen sind essentiell für ein erfolgreiches Online-Marketing. Doch wie erreicht man diese? Und ist ein Platz 1 wirklich immer das Beste? Wer durch praktische Übungen eigene Linkbuilding-Maßnahmen planen und konzipieren oder zum Beispiel SEO-Agenturen besser überprüfen will, der ist beim Offpage-Seminar bestens aufgehoben.

Zu den Terminen:

SEO und Social-Media: Social-Search: SEO der Zukunft?

Soziale Medien und Plattformen sind für die meisten von uns das “täglich Brot“. Ein einfacher Austausch mit Freunden und Kollegen, Familie und Businesskontakten gehört zu unseren täglichen Bedürfnissen. Suchmaschinen wissen das und wittern hier nicht nur reichhaltige Informationen, weshalb Social-Media eine immer wichtigere Rolle bezüglich Suchmaschinenoptimierung spielen wird.

Zu den Terminen:

Praxistag SEO – Suchmaschinenoptimierung von A – Z

SEO wird zwar immer komplexer, aber nicht unbedingt komplizierter. Wichtig ist es vor allem, Suchmaschinen zu verstehen, um den Überblick zu behalten und dem Wettbewerb eventuell sogar einen Schritt voraus sein zu können. In dem achtstündigen Gründerszene-Praxistag wird daher ein praxisbezogenes Komplettpaket angeboten, in dem keine Frage offen bleibt.

Zu den Terminen:

Ticketverlosung für SEO-Seminare!

An diesem Dienstag gibt es also Sonnenschein und … zwei Tickets zu gewinnen!! Wer Lust auf völlig kostenlose Weiterbildung hat, der schreibe doch bitte unter diesen Artikel, warum gerade er das Ticket dringend nötig hat und gerne gewinnen würde. Ende der Aktion ist Freitag, der 20. April 2012 und der Gewinner wird persönlich benachrichtigt! Good Luck :)!
P.S.: Das vollständige Seminarprogramm mit der langen Liste an Seminaren findet Ihr übrigens auf der Gründerszene-Seminarseite.

Google SEO 2012 – Einblicke in die Hintertüren


Wie indexiert Google Webseiten im Jahr 2011 und wie werden diese bewertet?

Hier ein paar Fakten, die „noch“ nicht öffentlich sind:

Wie scraped Google das Web?

Lasst uns erstmal Google Spiders ( Bots die Content im WWW indexieren ) in 4 Hauptgruppen aufteilen.

  1. Backlink Spiders –  sind die Grundlegensten und die gibt es seit dem es auch Google gibt. Es sind auf irgendeiner Art und Weise Autobahn-Builder für die andern Spiders. Gebaut sind Sie wie Viren – Sie folgen einen Link, dann alle von dieser neuen Seite, multiplitzieren sich selber und dann folgen sie alle von dieser Webseite. Kurz gesagt: Sie lieben es Code und Backlinks zu „essen“. Zurück zu den Servern werden Informationen des <head> geschickt und Backlinks ( Falls kein Wert im <head> zu finden ist, wird zufälliger Content gefiltert und das gibt ein —). Wird man erwischt, wenn man einen toten Link benutzt ( der nirgendwo hinführt ) bekommt man einen Penalty, da in dem Moment ein Spider ausstirbt. Google hasst es wenn man seine Spider tötet.

Die Spider haben auch eine limitierte Anzahl um sich selbst zu reproduzieren ( Limitiert an der Server-Kapazität ), das erklärt warum manche Webseiten die meisten Seiten indexiert bekommen und manche nur 1-2 Unterseiten. ( Es ist möglich, dass es 2 Spiders gibt – Einer für die Meta-Informationen und einer für die Backlinks, unmöglich herauszufinden )

  1. Content Spiders –  sind die Kreation aus der ersten Google Revolution. Die scrapen Content von allen Webseiten. Es gibt ein wenig Erkenntniss, das sie sogar Texte verstehen und identifizieren können. Sie werden wissen ob ein Artikel gespinnt ist, ob ein Artikel über ein Thema ist und ob er relevant zum Webseiten Thema ist. Diese Text Spider sind sehr schwer, es kostet unmengen an Serverlast. Genutzt werden die Backlinks Spider um das Web zu erforschen. Sie lieben ständig erneuerten Content. Sie sind so schwer, so dass sie nicht gezwungen werden wollen jedes mal den selben Text zu scrapen jedes Mal wenn Sie eine Webseite betreten. Wenn man also einen Link löscht, nachdem der Backlinks Spider einen indexiert, bevor aber der Content Spider einen trifft, kann man einen großen Schaden in der SEO erwarten, da sie schwer sind und Google einem einen Penalty verhängt wenn man sie tötet.
  1. Foto Spiders – ein weiterer Effekt der Google Bilder Evolution. Sie lieben Bilder und auf irgendeiner Art und Weiße sind sie in der Lage, Fotos zu erkennen ( Keine details, aber Farben, Strukturen & Muster und ein wenig pornographische Bilder ) und sie lesen Fotos nach relevanten Tags und platzieren diese. Sie fahren auf Autobahnen und nutzten Content Spiders um Informationen über Fotos zu finden.
  1. Video Spiders – ein weiteres Experiment von Google. Diese schlauen Gefährten machen einige atemberaubende Sachen. Bis jetzt haben sie noch keine Möglichkeit Videos selbst zu sehen, so nutzten sie die Informationen von Content Spiders um Videos zu finden und scrapen Thumbnails ( Vorschaubilder ), Tags, Ratings, Kommentare, um zu entscheiden ob es ein gutes oder schlechtes Video ist. Erstellt wurden sie in der Era von YouTube ( Warum braucht Google YouTube? ( Ehemmm…*hust )

Genug über Spider. Nur Google selber weiß wie viele Kreaturen Sie haben.

Über Google Dance:

Was ist der Google Dance?

Kurz gesagt – Jeder Roboter der Google Familie hat genug Power um eine Webseite zu bewerten. Darauf basierend, wird eure Webseite aufsteigen, oder absteigen.

Sagen wir bei einem Maximum von 1.000.000 Punkten starten neue Webseiten mit „0“ Punkten. Nachdem der Backlink Roboter zu Besuch kommt, sieht dieser z.B. das man viele Authoritäts Links hat und gutes OnPage SEO. Also gibt dieser sehr wichtige Spider einem 231.246 Punkte. Man ist auf der Seite 2 in den Google Ranking hiernach.

Jetzt Content Spider. Es hat kein qualitativen Content gefunden. Alles kopiert. Content Spider mögen dies nicht, man bekommt -56.214 Punkte. Nach ein paar Tagen fällt man auf der Seite 17 deswegen.

Jetzt kommt ein weiterer Spider und dieser re-valiiert Ihre Webseite. Manche geben Ihnen ein +, manche ein -. Nach 2 Wochen herumtanzen ( Ihr löscht einige Links, bekommt ein paar minderwertige oder sogar xRumer Russenlinks aus einer schlechten Liste? -13.521 vom Backlink Spider ) Man kommt auf der Seite 3.

Macht das JETZT Sinn?

Was ist die Google Sandbox / Penalty?

Immer wenn man mehr Minuse bekommt, als Pluse, wird man vom Sandbox erwischt ( Als Beispiel, Google findet herauß das man duplicate Content Farmen hat die zu einem Verlinken. Backlinks Spider würden das nicht herausfinden, aber Content Spider hingegen schon ) Penalty? Wenn man urplötzlich einen Verlust in den Rankings aufnehmen muss ( Zum Beispiel von 400.000 Punkten auf 200.000 ) heißt das für Google man hat es vergeigt = Penalty. Zur Erinnerung = Google funktioniert indem es Scripte benutzt. Ihr würdet sagen – es waren nur 10.000 Backlinks von einer frei zugänglichen xRumer Liste, das ist nicht viel! – Google sagt: SPAM.

Warum gibt es nicht einen Spider der ALLES regelt? Simple Antwort = Kosten. Sie können es sich nicht leisten Millionen von Servern zu haben. Deshalb wird die Arbeit auf verschiedenen Robotern verteilt ( Ja ,Google nutzt auch normale Server ).  Dann werden alle Informationen zum Super Netzwerk zurückgeschickt. Übertrieben großes Netzwerk, das einen großen Computer erstellt ( Computer 42? ).

Dieses  Netzwerk berechnet die Positionen, anhand der Punktzahl die Ihr bekommt.

Wie wird bestimmt, ob eine Webseite Authorität hat?

Ziemlich trivial. Positionen auf Google werden von diesen Faktoren bestimmt:

  1. 1. Authorität
  2. 2. Backlinks
  3. 3. Content
  4. 4. Anderer, weniger wichtige Sachen

Was ist Authorität?

Ganz einfach:

2+3+4=1

Ist PageRank noch wichtig?

Ja und Nein. Der Page Rank wurde originell erfunden um die Authorität zu bestimmen. Dies ist es nicht mehr. Es nutzt die einfachste Form von 2 + 3 = 1 um einen Wert zu bestimmten ohne den Wert von +4 ein zu kalkullieren und teilweise neue Updates von „3“ sind hier mit drin, also ist es sehr ungenau.

Ist No Follow zu was zu gebrauchen?

Es ist, aber nicht so viel wie Do Follow Backlinks, da es von Content Spidern gescraped wird, also hat es einen kleineren Wert und es erstellt keine Autobahnen für andere Spiders ( Sie werden nicht erlaubt einzutretten ).

Was ist angesagt in diesen Tagen?

Artikel mit 800+ Wörter Singel Artikel Submissions ( Nur bitte nicht auf 100+ Artikel Verzeichnissen den selben Artikel  SPAMMEN! ), große AUTHORITÄTS Backlinks, Social Backlinks, Virales Marketing, News Feeds, Backlinks aus geschlossenen webseiten ( diese kosten Geld oder es ist schwer dort reinzukommen )

Ist Google intelligent?

Die Menschen hinter Google – EXTREM. Ich kenn einen, der für kurze ein paar Tage bei Google gearbeitet hat. Man kann auf jeden Fall sicher sein, dass die Head Programmierer Millionäre sind – soviel dazu. Google als Suchmaschine – Nein. Es ist nur ein Script und jedes Script hat eine Hintertür. Den einen oder anderen Trick hab ich auch schon gefunden (Unveröffentliche Tricks mein ich icon wink Google SEO 2011   Einblicke in dem heutigem SEO ) Man muss nur „aus der Box rauß denken“.

Die Perfekte Webseite?

Ungefähr 10 Links auf jeder Seite. Externe Links zu Authoritäts Webseiten die irgendwie zur selben Kategorie fallen. Ein paar Videos, 2+ Fotos für jeden Artikel. 80% unqiue Content. Ein paar große Zitate. Nur natürlich wirkende Backlinks. Ein paar Backlinks die zu den Fotos zeigen.  50% aller Unterseiten haben relevante Backlinks. Maximum 40% von Foren Backlinks, 30% Blog Backlinks, 20% Profil Backlinks. Minimum 30% Authoritäts Links. Artikel / Content variiert in der Wortanzahl. Alles von 300+ bis 1.500+. Minimun von 30-40 Wörtern Unique Content auf jeder Webseite.

Quelle:mehr-backlinks.de

SEO 2012: Worauf wir uns im frischen Jahr konzentrieren


Nein, ich schaffe es einfach nicht, Vorausschauen oder Trends aufzuschreiben. Denn das ist doch alles nur Rätselraten. Sinn macht es aber, zum Jahreswechsel die Strategie zu überprüfen und die Arbeitsweise an neue Situationen anzupassen. Neben einigen internen Änderungen (die euch gar nix angehen) hier die Themen, mit denen wir im Vergleich zu 2011 anders arbeiten möchten:

  • (Noch) mehr Contenterlebnis auf die Seiten: Alle Updates im vergangenen Jahr hatten nur eine Richtung: Google möchte den Usern den zum Keyword am besten passenden Inhalt zeigen. Und, hey, das war schon immer so. Dass auch miese Seiten gut ranken können, ist ja nur ein Bug im Google-Algorithmus. Da wir (vor allem für unsere Kunden) langfristig denken, empfehlen wir auch weiterhin und noch stärker, NICHT auf Google-Bugs zu optimieren, sondern die Suchmaschine möglichst zufrieden zu stellen. Und wenn Verweildauer und Bouncerate nun mal wichtige Faktoren sind, prima. Dann erhöhen wir halt das Content-Erlebnis der User mit tollen Überschriften, einer perfekten Content-Strukturierung und lesenswerten Inhalten oder Videos oder sonst was.
  • Präzisere Keyword-Aussteuerung: Alle reden von “Qualitäts-Content” – und bestellen dann doch wieder *irgendwelche* 5-Sterne-Texte für eine Handvoll Euros. Hiermit erkläre ich das Jahr 2012 zum Content-Differenzierungs-Jahr. Es gibt Keywords, die Seiten mit aktuellem Inhalt erfordern. Es gibt Keywords, nach deren Eingabe im besten Falle Seiten mit “Do”-Inhalt erscheinen, die User sollten also etwas kaufen können. Es gibt Keywords, die brauchen nur minimalen Content. Und es gibt Keywords, bei denen muss man seine Tastatur leer schreiben. The Difference makes the Difference!
  • Technische Aufrüstung: Es reicht nicht mehr, einfach eine Seite ins Web zu knallen und mit Links drauf zu zielen. Heute gibt es XML-Sitemaps, Rich Snippets, Anbindungen an soziale Netze, Google Webmaster Tools und Analytics, Feed-Einbindungen, hohe Performance-Ansprüche u.s.w.. Es war zwar noch nie so einfach, eine Webseite zu veröffentlichen – aber noch nie war es so schwer, wirklich alles zu bedenken.
  • Content- und Linkaufbau gehören zusammen: Wenn ich mir die Projekte im vergangenen Jahr anschaue, freue ich mich vor allem über die Kurven der Seiten, bei denen wir die Möglichkeit hatten, Content- UND Linkaufbau synchronisiert zu entwickeln. Ist ja auch eigentlich logisch: Neue Links gibt es immer nur dann, wenn neuer Content entstanden ist. Und neuer Content ohne neue Links wirkt auch irgendwie merkwürdig ;-)
  • Mehr Social Media: Das Thema habe ich lange unterschätzt, weil mir die vielen Krabbelgedanken in Twitter, Facebook und G+ einfach nicht liegen. Aber ich muss zugeben, dass ich auch nicht mehr “ohne” sein möchte. Und wenn ich mir die Herkunfts-Statistiken anschaue, gehören mindestens diese drei sozialen Dienste zu jeder Content-Strategie.
  • Daten, Fakten, Gedanken: Wie haben wir eigentlich vor vier oder fünf Jahren SEO gemacht? Ich kann mir wirklich nicht mehr vorstellen, wie man damals ohne Sichtbarkeits- oder Visibility-Indizes eine Domain bewerten konnte. Oder wie man überhaupt den Keyword-Raum einer Seite definieren konnte. Doch Vorsicht: Tools können auch nicht alles. Man sollte immer wissen, woher diese Daten kommen, was sie sagen und welche Entscheidungs-Optionen man hat. SEO-Tools können die Optimierung auf eine viel höhere Basis bringen – aber ersetzen nicht das Denken.
  • Mehr Projektmanagement: Ein Projekt ist eine zu organisierende Herausforderung, für die knappe Ressourcen, aber ein klares Ziel zur Verfügung stehen. Ohne Ziel keine Richtung, ohne die Kenntnis der Ressourcen und der Risiken kein gutes Ende. Ich habe mir vorgenommen, auch hier im SEO-Book in den nächsten Monaten ein paar Praxis-Tipps aus meiner langen Projektmanagement-Vergangenheit aufzuschreiben.
Quelle:seo-book.de

Alexa Ranking mit einfachen Tipps optimieren und kontinuierlich steigern


Google

Neben dem Google PageRank gibt es einen weiteren aussagekräftigen Indikator für den Erfolg einer Webseite, den Alexa Rank, welcher gerade im Hinblick auf die Werbewirksamkeit einer Seite eine große Rolle spielt. Ob man nun selbst großen Wert auf ein hohes Ranking legt oder nicht, sei einmal dahingestellt, jedoch schauen mehr und mehr Webmaster, SEOs sowie Affiliation-Betreiber und -Broker auf den Alexa Rank, um sich vorab ein grobes Bild über den Traffic einer Webseite zu machen.

Wie wichtig ist der Alexa Rank für eine Webseite
Mittlerweile ist hinreichend bekannt, dass mehr und mehr Werbebroker dem Alexa Rank besondere Aufmerksamkeit schenken und die Provision für Publisher oftmals an einen hohen Alexa Rank geknüpft wird, womit alleine deswegen schon einer Optimierung des Alexa Rank besondere Aufmerksamkeit geschenkt werden sollte. Somit ist also, gerade für werbetreibende Internetseiten im Hinblick auf  Werbeschaltungen, ein hoher Alexa Rank eine bessere Verhandlungsbasis.

Wer auf der eigenen Webseite keine Werbung schaltet, der sollte sich jedoch zumindest über den Stellenwert des Alexa Rank bei der Bewertung einer Webseite bewusst sein. Mittlerweile wird wohl jeder Betreiber einer Webseite den ein oder anderen Online-Dienst zur Bewertung von Webseiten verwenden, um die Verbreitung, Optimierung und natürlich den Traffic einer Webseite in konkreten Zahlen zu messen. Die Vielfalt dieser Bewertungsdienste ist mittlerweile enorm hoch und es werden von simplen Übersichten bis hin zu Vollständigen Analysen einer Webseite, alle möglichen Varianten angeboten.

Als Beispiel für einen solchen Dienst möchte ich an dieser Stelle die Webseitenbewertung Seitwert nennen, deren Funktion und Bewertung ich bereits in einem früheren Artikel genauer erklärt habe. Auch Seitwert nimmt unter dem Bewertungsbereich „Zugriffszahlen“, neben den Daten von Google Trends, den Alexa Rank als Grundlage zur Aussage des Traffics einer Webseite. Dabei vergibt Seitwert für den Bereich Zugriffszahlen maximal 10 von 100 möglichen Punkten. Der Traffic macht bei dieser Bewertung also 10% der einfließenden Punkte aus. Bereits mit einem Alexa Rank unterhalb von 100.000 erreicht man bereits 5 Punkte in der Bewertung von Seitwert. Führt man sich einmal vor Augen, dass bereits 30-40 Punkte für ein Ranking als überdurchschnittlich gute und optimierte Seite genügen, dann ist klar ersichtlich, dass der Traffic einen großen Stellenwert bei der Berechnung einnimmt. Und diese Angabe zum Traffic einer Seite, ziehen die meisten Bewertungsdienste aus dem Alexa Rank.

Was ist der Alexa Rank nun im Detail
Alexa ist ein Tochterunternehmen von Amazon und bietet neben einer Suchmaschine und einemWebverzeichnis eben die Alexa Traffic Rankings als Liste aller Webseiten weltweit (aber auch aufgeteilt nach Ländern), sortiert nach dem von Alexa berechneten Traffic. Der Traffic Rank basiert auf den Daten aller Benutzer der Alexa Toolbar (dazu später mehr) welche über 3 Monate angesammelt und ausgewertet werden.

Funktion von Alexa nach Wikipedia:
Alexa bewertet Webseiten nach der Art ihrer Anwahl in dem Sinne, ob diese direkt oder über ähnliche Seiten angewählt werden. Hierbei fungiert Alexa als Datenbank, die Seiten listet, die zu der aktuell besuchten Site eine Beziehung haben, also thematisch ähnlich sind. Dazu wertet Alexa auch die Daten des Open Directory Projects aus.

Mit dem Alexa Rank werden die festgestellten Besucherzahlen ausgewertet und auf diese Weise die meistbesuchten Domains ermittelt. Diese weltweit ermittelten Daten werden also prozentual auf die eigene Seite heruntergerechnet und statistisch ausgegeben (zum besseren Verständnis hier einmal die Statistik anhand meiner Seite). Weitere Informationen zu Alexa und den einzelnen Diensten gibt es hier.

Die Alexa Toolbar
Wie schon oben erwähnt, greift Alexa bei den Traffic Rankings auf die Daten aller Benutzer der Alexa Toolbar zurück und wertet diese aus. Die Alexa Toolbar ist ein Browser-Plugin für den Internet Explorer ab Version 6.0 und bietet neben einer Suchleiste (ähnlich der Google-Toolbar) für die Alexa Suchmaschine auch detallierte Seiteninformationen inkl. dem AlexaRank für die gerade geöffnete Webseite. Dabei werden die festgestellten Besucherzahlen ausgewertet und auf diese Weise die meistbesuchten Domains ermittelt und aufgelistet.

Nun gibt es diese Toolbar ausschließlich für den Internet Explorer, welches eines der zahlreichen, wenn nicht sogar dass Gegenargument zu Alexa darstellt und weswegen man mit Fug und Recht sagen kann, das die Daten von Alexa im Grunde nicht wirklich aussagekräftig und erst recht nicht genau sind. Zumindest stimme ich hier bis zu einer gewissen Grenze zu, denn ab einem Ranking von unter 50.000 kann man die Zahlen von Alexa als aussagekräftig genug einschätzen um einer Webseite einen hohen Traffic zuzugestehen.

Toolbar Alternativen für andere Browser?
Da die eigentliche Alexa Toolbar den IE Nutzern vorbehalten ist, schauen Nutzer mit anderen Browsern in die Röhre. Zumindest jedoch Nutzern von Firefox wird eine Alternative in Form des Plugins SearchStatus geboten. Dieses Plugin zeigt neben dem aktuellen PageRank auch den AlexaRank an (siehe Screenshot oben rechts über der Adressleiste) und sendet zudem, ähnlich wie die eigentliche Alexa Toolbar, die für den Rank so wichtigen Informationen an Alexa, welche in die tägliche Statistik mit einfließen.

AlexaRank optimieren

Gerade bei Webseiten wie der meinen, mit etwa 58% Firefox-Nutzern und lediglich 35% IE-Nutzern täglich, eine Möglichkeit, einen annehmbaren AlexaRank zu erreichen (Sofern natürlich auch die Firefox-Nutzer dieses Plugin verwenden). Nutzer andere Browser schauen jedoch in Hinblick auf ein Alexataugliches Plugin leider in die Röhre (Bis Dato habe ich jedenfalls für z.B. Opera nichts vergleichbares gefunden).

Wie steigert man nun gezielt und erfolgreich den AlexaRank?

Die folgenden Schritte erklären, wie jeder Webmaster mit einfachen Mitteln auf langfristige Sicht sein Ranking bei Alexa erhöhen und unter die 100.000er Grenze bringen kann.

  1. Der erste wichtige Schritt ist natürlich die Installation der Toolbar für den IE oder eben das SearchStatus Plugin für den Firefox. Alleine schon die Tatsache, das man selbst über ein Alexataugliches Tool verfügt, lässt über einen Zeitraum von 6-8 Wochen den AlexaRank auf etwa Platz 150.000 oder höher ansteigen (bei mehrfachem täglichem Besuch der eigenen Seite oder des eigenen Blogs). Zudem empfielt sich, mit beiden Browsern (IE und Firefox) und den installieren Add-Ons täglich die eigene Seite aufzurufen.
  2. Der nächste Schritt ist, möglichst viele Besucher mit installierter Toolbar oder FF Plugin auf die Seite zu bekommen bzw. eigene Besucher zu einer Installation der Toolbar oder des Plugins zu bewegen (ich hoffe durch diesen Artikel habe ich es geschafft auch einige meiner Leser zu diesem Schritt zu bewegen :-) ). Da nun aber im praktischen Verlauf nur wenige Besucher zu diesem Schritt zu bewegen sein werden, gibt es eine Möglichkeit mit Hilfe des Alexa Site Widgets, den ein oder anderen gezählten Klick zu gewinnen.
    Das Alexa Site Widget ist nichts anderes als eine dynamische Anzeige des aktuellen AlexaRanks für die eigene Webseite, welche es je nach belieben in verschiedenen Ausführungen gibt. Für meine Seite habe ich mich für ein kleines Widget mit lediglich dem aktuellen AlexaRank entschieden und dieses vor ca. 4 Wochen in meine Sidebar installiert. Das ganze schaut dann folgendermaßen aus:

    Alexa Certified Site Stats for www.ulf-theis.de

    Beim anklicken dieses Widgets wird man nun auf meine aktuelle Alexa Traffic Ranking Übersicht geleitet und natürlich werden für Alexa neue Besucherdaten bereitgestellt, auch ohne das die Toolbar oder das Plugin bei demjenigen installiert sind. Zum einbinden des Alexa Site Widgets hier klicken.

  3. Wer die Möglichkeit hat, die Toolbar oder das FF-Plugin auf mehren Rechnern zu installieren, der sollte auch dies, sofern erlaubt oder zulässig (z.B. am Arbeitsplatz) tun sowie auch Freunde, Bekannte und Verwandte dazu überreden diese zu installieren und zu verwenden, bevor sie eure Seite besuchen.
  4. Nutzt statt der normalen Seiten-URL (http://www.ulf-theis.de) die Alexa-Redirect-URL (http://redirect.alexa.com/redirect?www.ulf-theis.de – meine URL durch die eigene austauschen) um euch in Kommentaren, Foren oder Gästebüchern zu verewigen, bzw. nutzt diese auch in Signaturen für Foren etc. statt der herkömmlichen URL.

    Nachtrag: Zum 01.01.2008 hat Alexa die Redirect-URL-Funktion deaktiviert. Ein redirect über Alexa ist somit nicht mehr möglich!

  5. Nicht nur für ein gutes Ranking in Suchmaschinen und für bestimmte Suchbegriffe gut, sondern natürlich auch ausschlaggebend für mehr Besucher die evtl. bereits die Toolbar oder das Plugin installiert haben, ist selbstverständlich und vielleicht sogar hauptsächlich guter und informativer Content. Sorgt für ordentliche Beiträge in euren Foren, Bloggs oder Webseiten, denn je besser und größer der Informationsgehalt einer Seite umso mehr Besucher lassen sich dafür begeistern und vielleicht sogar zur Installation der Toolbar bewegen.

Lässt sich der Alexa Rank auch manipulieren
Natürlich geht es auch zusätzlich noch mit diversen, unlauteren Mitteln und kein anderer Ranking-Dienst oder Suchmaschine macht es einem so leicht und einfach wie Alexa. Da ich persönlich jedoch kein Freund solcher Methoden bin, möchte ich auch hier nicht dazu ermuntern, mit “miesen Tricks” zu arbeiten. Ich möchte lediglich Hinweisen diesbezüglich in Kommentaren oder Mails zuvorkommen und darauf aufmerksam machen, dass es z.B. in Form eines JavaScripts oder auch mit Hilfe eines versteckten Redirects in einem iframe die Möglichkeit gibt, den Alexa Traffic Rank zu manipulieren und so jede Menge Traffic zu generieren.

Ob diese Methoden schlussendlich negative Auswirkungen und Konsequenzen haben werden, kann ich nicht beantworten, aber die obigen Tipps stellen für jeden eine gleichwertige Chance dar, den AlexaRank auf richtige Weise zu optimieren und zu erhöhen. So können schlussendlich alle einen etwas genaueren Rank bekommen, der auch dem tatsächlichen Seiten-Traffic entspricht, auch ohne das hierfür manipuliert wurde.

Update: Alexa hat inzwischen auch eine Toolbar für den Mozilla Firefox veröffentlicht. Genauere Informationen siehe Verwandte Artikel unterhalb dieses Artikels.

Update 17.04.2008: Alexa hat den Algorithmus des Alexa-Ranking-Systems überarbeitet. Durch diese Änderungen kam es heute zu vielen Sprüngen der Alexa-Rankings. Weitere Informationen und Diskussion dazu im Artikel Alexa stellt neues und überarbeitetes Alexa-Ranking-System vor.

Quelle: ulf-theis.de

AlexaRank – welche Aussagekraft hat diese Zahl


Als Website-Betreiber ist natürlich das erste Ziel möglichst viele, passende Besucher auf die eigene Website zu bekommen. Und da viele Internet-Nutzer eben auch “Herdentiere” sind, zieht es sie auf solche Seiten, die eh schon sehr beliebt sind.

Wie kann ich den potentiellen Besuchern meiner Website aber nun mitteilen, dass meine Website bereits sehr beliebt ist. Dazu bieten sich Popularitätstools wie z.B. Alexa an.

Was ist der Alexa-Rank?

In einem sehr guten Artikel über den AlexaRank hat Ulf  Theis die Vor- und Nachteile des AlexaRank mal genauer betrachtet.

Kurz gesagt handelt es sich um ein Browser-Plugin, welches Daten über die besuchten Websites an Alexa weiterleitet. Je mehr Nutzer, die eine solche Alexa-Toolbar installiert haben, die eigene Website besuchen, um so besser wird man bei Alexa positioniert.

Gut bedeutet bei Alexa weniger. Kleinere Zahlen sind besser als größere. Es handelt sich also um eine Rangliste, wobei die Nummer 1 am besten ist. Derzeit hat yahoo.com die Nummer 1 inne. Nummer 3 ist z.B. Google.

Was nützt mir der AlexaRank

Sobald man einen guten AlexaRank erreicht hat, sollte man diesen auf der eigenen Website anzeigen lassen. Dazu bietet sich z.B. das Alexa Widget an. Dies ist ein kleines Rechteck, in dem aktuell die eigenen Alexa-Daten angezeigt werden.

Ein großes Problem in meinen Augen ist aber die eben schon erwähnte Vorgehensweise. Beliebtere Websites haben eine niedrigere Zahl. Wenn man sich nun den Otto-Normal-Surfer vorstellt, der noch nie was von Alexa gehört hat, bei welcher Zahl würde er wohl eher reagieren? 10.000 oder 100? Wahrscheinlich würde er die größere Zahl als besser ansehen. Zumindest habe ich diesen Eindruck.

Naja, ich werde das Alexa-Widget auf jeden Fall mal in meine Website einbauen. Mal schauen, ob das was bringt.

Weitere Ranking-Anzeigen

Neben Alexa bieten sich auch andere Ranking-Anzeigen an. So kann man den eigenen Google PageRank oder z.B. die Feedburner-Abonnenten-Zahl einblenden lassen.

In einer Internet-Welt, die von Grund auf chaotisch ist, sicher für viele eher unerfahrene Internet-Nutzer ein willkommener, wenn auch nicht sehr korrekter, Anhaltspunkt über die Popularität einer Website.

Alles neu bei Alexa


Es gibt eine Reihe von Kennzahlen im Web, die auf Basis verschiedener Daten eine Beurteilung einer Website vornehmen.

Meist handelt es sich dabei um eine Traffic-Kennzahl, die mehr oder weniger gut mit den eigentlichen Traffic-Zahlen übereinstimmt.

Alexa.com ist so eine Kennzahl, die viel genutzt wird, aber auch sehr umstritten ist. Denn oft stimmen die Zahlen und vor allem die Verhältnisse zwischen mehreren Websites nicht mit der Realität überein.

Nun hat Alexa sein Angebot relaunched. Schauen wir uns doch mal an, was sich geändert hat.

Neue Alexa-Zahlen

Alexa Traffic
Als erstes fiel mir auf, dass Alexa neue, viele niedrigere Zahlen ausgibt.

Das habe ich vor allem bei meinem neuen Blog “Blogprojekt.de” bemerkt und bin zuerst stutzig geworden. Dann habe ich mir die Zahlen von Selbstaendig-im-Netz.de angeschaut und auch diese sind deutlich gefallen.

Vor wenigen Wochen stand der Alexa-Wert noch bei rund 160.000 für diesen Blog hier. Und nun sind es rund 11.000.

Als ich mir dann die Alexa-Site angeschaut habe zeigte sich, dass Alexa sowohl einen optischen Relaunch Ihrer Website vorgenommen hat, als auch den Berechnungsalgorithmus geändert haben muss.

Das alte Layout wurde modernisiert und wirkt nun moderner und sieht in meinen Augen besser aus.

Alexa-Änderungen

Im Alexa-Blog wird erläutert, warum das neue Layout erstellt wurde und welche Änderungen es gab.

Neben einer besseren Navigation und der verbesserten Suche nach Websites wurden auch weitere Daten zu den Website-Details hinzugefügt.

So sieht man nun auf der Detailseite auch die PageViews pro Besucher, die Bounce Rate (wie viel % verlassen die Website nach nur einer Seite) und die durchschnittliche Besuchszeit auf der Website.

Das sind nützliche Angaben, die allerdings nicht immer mit meinen Google Analytics Zahlen übereinstimmen. So ist die Bounce Rate ziemlich genau. Die Besuchszeit und die Seitenaufrufe pro Besucher liegen jedoch über den Zahlen von Google Analytics.

Merkwürdig ist auch, dass Alexa nicht in der Lage ist das Alter meines Blogs zu bestimmen. Das gehört im Internet ja eher zu den einfacheren Übungen.

Insgesamt ist Alexa mit den Änderungen aber sicher eine Verbesserung gelungen. Leider habe ich keine Angaben darüber gefunden, wie sich die Daten zusammen setzen.

Wurden die Daten früher hauptsächlich durch die Alexa-Toolbar erfasst, die natürlich nicht jeder installiert hatte, so hat dies Alexa vor einer Weile geändert. Wie genau die Daten entstehen ist deshalb derzeit auch nicht klar.

Wie aussagekräftig ist Alexa.com?

Auch wenn manche mir jetzt widersprechen werden, aber es ist auch nicht wirklich wichtig, ob die Alexa-Zahlen korrekt sind. Es ist viel wichtiger, dass diese in sich konstant sind.

Denn es gibt kein Website-Analyse Tool, was hundertprozentig korrekte Daten liefert. Es geht mehr um die Vergleichbarkeit und den langfristigen Trend.

Kennzahlen wie die Alexa-Daten werden nie wirklich genau sein. Doch es müssen 2 Voraussetzungen erfüllt sein, damit sich der Einsatz trotzdem lohnt:

Alle Websites müssen auf die selben Art gemessen werden. Websites mit real weniger Besuchern dürfen in Alexa nicht besser dastehen, als Websites mit mehr Besuchern.

Langfristige Trends. Ein Tool wie Alexa.com eignet sich vor allem auch zur Analyse von langfristigen Trends. Da braucht man keine konkreten Zahlen, sondern nur steigende oder sinkenden Kurven. Dafür ist es aber notwendig, dass Alexa langfristig den selben Algorithmus einsetzt und nicht alle 6 Monate die Berechnung so stark ändert, wie es derzeit der Fall ist.

Soll Alexa also auch in Zukunft halbwegs nützlich sein, muss man nun bei dem derzeitigen Algorithmus bleiben und nur kleine Änderungen/Anpassungen vornehmen.

Dann eignet sich Alexa zumindest zur schnellen Trendanalyse und zum ersten Vergleich verschiedener Websites.

Quelle: selbstaendig-im-netz.de