Die Implementierung des PageRank in die Suchmaschine Google


Für die Implementierung des PageRank ist von zentraler Bedeutung, auf welche Art und Weise der PageRank in die generelle Bewertung von Webseiten durch die Suchmaschine Google einfließt. Das Verfahren wurde von Lawrence Page und Sergey Brin mehrfach in ihren Veröffentlichungen beschrieben. Ursprünglich basierte die Seitenbewertung durch Google auf drei Faktoren: Seitenspezifische Faktoren
Ankertext eingehender Links

PageRank


Zu den seitenspezifischen Faktoren zählen neben den konkreten Textinhalten etwa auch der Inhalt des Title-Tags und die URL einer Seite. Es ist mehr als wahrscheinlich, dass seit der Veröffentlichung dieser Punkte weitere Faktoren hinzugekommen sind. Dies soll an dieser Stelle jedoch nicht interessieren.
Bei Suchanfragen wird aus den seitenspezifischen Faktoren und den Ankertexten eingehender Links für den Suchbegriff eine nach Position und Grad der Hervorhebung gewichteter IR-Wert berechnet. Die Bewertung für die Relevanz einer Webseite für eine konkrete Suchanfrage wird nun mit dem PageRank als Indikator für die ganz allgemeine Bedeutsamkeit der Webseite kombiniert. Dieses Kombinieren erfolgt in multiplikativer Form. Dass hier kein additives Verfahren eingesetzt wird ist unmittelbar einleuchtend, da ansonsten Seiten mit einem sehr hohen PageRank auch auf Suchanfragen hin gefunden werden könnten, obwohl sie in keinerlei Zusammenhang zum gesuchten Begriff stehen.
Insbesondere bei aus mehreren Begriffen bestehenden Suchanfragen zeigt sich ein deutlich größerer Einfluss der inhaltsspezifischen Bewertungskomponenten. Der Einfluss des PageRank hingegen wird eher bei unspezifischen, aus lediglich einem Suchbegriff bestehenden Anfragen deutlich. Gerade für Mehr-Begriffs-Anfragen ist es möglich, mit den klassischen Mitteln der Suchmaschinen-Optimierung Listungen vor Seiten zu erlangen, die einen weitaus höheren PageRank-Wert inne haben.
Bei der Optimierung für Suchbegriffe, für die in den Suchmaschinen ein großer Wettbewerb herrscht, ist ein hoher PageRank-Wert unerlässlich für eine hohe Suchmaschinen-Position, selbst wenn die Seite selbst den klassischen Kriterien der Suchmaschinen-Optimierung folgt. Dies liegt darin begründet, dass die Wertung des zusätzlichen Vorkommens eines Suchbegriffs innerhalb eines Dokuments sowie in den Ankertexten von eingehenden Links mit der Häufigkeit des Vorkommens abnimmt, um Spam durch oftmalige Keyword-Wiederholungen zu vermeiden. Damit sind die Möglichkeiten zur Seitenoptimierung im klassischen Sinne beschränkt, und bei hohem Wettbewerb in Suchmaschinen für einen Suchbegriff wird der PageRank zum ausschlaggenden Faktor.
Die PageRank Anzeige der Google Toolbar
Einen großen Bekanntheitsgrad erlangte der PageRank durch seine Anzeige in der Google Toolbar. Die Google Toolbar ist ein Browser-Plug-In für den Microsoft Internet Explorer, das von der Google Website herunter geladen werden kann und zahlreiche Erleichterungen für die Google-Suche bereithält.

Die Google Toolbar zeigt den PageRank einer Seite auf einer Skala von 0 bis 10 an. Zunächst ist der PageRank an der Breite des grünen Balkens in der Anzeige ersichtlich. Fährt der Benutzer mit der Maus über die Anzeige, gibt die Toolbar darüberhinaus den Wert des Toolbar-PageRank an. Vorsicht: Die PageRank-Anzeige zählt zu den „Advanced Features“ der Google Toolbar. Sobald diese „Advanced Features“ aktiviert sind, sammelt Google über die Toolbar Daten über das Benutzerverhalten. Außerdem führt die Toolbar selbstständig Updates durch, ohne dass der Benutzer über das Herunterladen der neuen Version informiert wird. Dies bedeutet letztlich, dass Google Zugriff auf die Festplatte des Benutzers hat.
Der tatsächliche PageRank, der für eine Seite theoretisch maximal einen Wert von dN+(1-d) annehmen kann, wobei N die Anzahl aller Seiten des Webs ist und d üblicherweise auf 0.85 gesetzt wird, muss für die Anzeige in der Google Toolbar skaliert werden. Es wird im Allgemeinen davon ausgegangen, dass die Skalierung nicht linear sondern logarithmisch erfolgt. Bei einem Dämpfungsfaktor von 0.85 und einem damit verbundenen minimalen PageRank von 0.15 sowie einer angenommenen logarithmischen Basis von 6 ergäbe sich das folgende Bild für die Skalierung:

Toolbar-PR     Tatsächlicher PR

0/10               0.15                          – 0.9
1/10               0.9                            – 5.4
2/10               5.4                            – 32.4
3/10               32.4                          – 194.4
4/10              194.4                         – 1,166.4
5/10              1,166.4                      – 6,998.4
6/10              6,998.4                      – 41,990.4
7/10              41,990.4                    – 251,942.4
8/10              251,942.4                  – 1,511,654.4
9/10              1,511,654.4               – 9,069,926.4
10/10            9,069,926.4               – 0.85 × N + 0.15
Ob tatsächlich eine mathematisch strikte logarithmische Skalierung erfolgt ist natürlich ungewiss. Wahrscheinlich erfolgt eine manuelle Skalierung, die einem logarithmischen Schema folgt, damit Google die volle Kontrolle darüber behält, wie viele Seiten einen bestimmten Toolbar-PageRank inne haben. Diesem Schema dürfte allerdings eine logarithmische Basis von 6 bis 7 zu Grunde liegen, was sich etwa ansatzweise aus der Anzahl der von Google angezeigten eingehenden Links mit einem Toolbar-PageRank größer 4 für Seiten mit einem sehr hohen Toolbar-Pagerank herleiten lässt.

Die Datenkommunikation der Toolbar
Auch Webmaster, die aufgrund von Sicherheitsbedenken die Google Toolbar oder auch den Internet Explorer nicht dauerhaft nutzen möchten, haben eine Möglichkeit zum Einblick in die PageRank-Werte ihrer Seiten. Google übermittelt den PageRank in einfachen Textdateien an die Toolbar. Früher geschah dies per XML. Der Wechsel zu Textdateien fand im August 2002 statt.

Die PageRank-Textdateien können direkt von der Domain http://www.google.com abgerufen werden. In ihrer Grundform sehen die URLs der Dateien folgendermaßen aus (ohne Zeilenumbrüche):
http://www.google.com/search?client=navclient-auto&
ch=0123456789&features=Rank&q=info:http://www.domain.com/
Die PageRank-Dateien bestehen aus einer Zeile. Der PageRank-Wert ist die letzte Ziffer in dieser Zeile.

Die oben in der URL dargestellten Parameter sind unerlässlich für die Anzeige der PageRank-Dateien im Browser. So identifiziert sich mit dem Wert „navclient-auto“ für den Parameter „client“ die Toolbar; mit dem Parameter „q“ wird die abgefragte URL übermittelt. Der Wert „Rank“ für den Parameter „features“ legt fest, dass die PageRank-Dateien abgerufen werden. Wird dieser Parameter weggelassen, werden auch weiterhin XML-Dateien übermittelt. Der Parameter „ch“ wiederum übergibt eine Prüfsumme für die URL, wobei sich diese Prüfsumme im Zeitablauf für einzelne URLs lediglich bei Updates der Toolbar ändern kann.

Um die Prüfsummen einzelner URLs herauszufinden ist es damit erforderlich, die Toolbar zumindest einmal zu installieren. Hierbei wird dann vielerorts der Einsatz von Packet Sniffern, lokalen Proxies und ähnlichem empfohlen, um die Kommunikation zwischen Toolbar und Google aufzuzeichnen. Dies ist allerdings nicht zwingend erforderlich, da die PageRank-Dateien vom Internet Explorer gecached werden und somit die Prüfsummen im Ordner Temporary Internet Files eingesehen werden können. Die PageRank-Dateien können hiermit dann auch z.B. in anderen Browsern als dem Internet Explorer angezeigt werden, ohne dass Googles 36-Jahres-Cookies akzeptiert werden müssen.

Da die PageRank-Dateien im Browser-Cache gespeichert werden und somit offen einsehbar sind, und sofern eine Abfrage nicht automatisiert erfolgt, sollte dies keine Verletzung von Googles Dienstleistungsbedingungen darstellen. Es ist allerdings Vorsicht geboten. Die Toolbar übermittelt einen eigenen User-Agent an Google. Es ist:
Mozilla/4.0 (compatible; GoogleToolbar 1.1.60-deleon; OS SE 4.10)

Hierbei ist 1.1.60-deleon eine Toolbar-Version, die sich natürlich ändern kann, und OS das Betriebssystem des jeweils eingesetzten Rechners. Google kann also nachprüfen, ob eine direkte Anfrage über den Browser erfolgt, sofern kein Proxy zwischengeschaltet und der User-Agent entsprechend modifiziert wird.
Beim Blick in den Cache des IE wird man in der Regel feststellen, dass die PageRank-Dateien nicht von der Domain http://www.google.com, sondern von IPs wie z.B. 216.239.33.102 abgerufen werden. Ebenso enthalten die URLs häufig einen weiteren Parameter „failedip“ mit Werten wie z.B. „216.239.35.102;1111“. Die IPs sind jeweils einem der derzeit sieben sich im Einsatz befindlichen Rechenzentren Googles zugeordnet. Wozu der Parameter „failedip“ tatsächlich genutzt wird, ist unklar. Hintergrund der unmittelbaren Abfrage der PageRank-Dateien bei einzelnen IPs ist wohl der Versuch, die PageRank-Anzeige insbesondere in den Zeiten des „Google Dance“ besser zu steuern.
Die PageRank Anzeige der Google Directory


Denjenigen, denen der Abruf der PageRank-Dateien zu kompliziert ist, bleibt schließlich mit der Google Directory (directory.google.com) noch eine eingeschränkte Möglichkeit, etwas über den PageRank ihrer Site zu erfahren.

Bei der Google Directory handelt es sich um einen Dump des Open Directory Projects (dmoz.org), der neben den Seiteneinträgen ähnlich der Google Toolbar den skalierten PageRank für die in das ODP eingetragene Seite in Balkenform anzeigt. Allerdings erfolgt die PageRank-Anzeige in der Google-Directory auf einer Skala von 1 bis 7. Der exakte Wert wird nicht angezeigt, kann aber über die zweigeteilte Balkengrafik bzw. die Breite von deren Einzelgrafiken bestimmt werden, falls der Betrachter sich beim einfachen Augenschein unsicher ist.
Durch den Vergleich des Toolbar-PageRanks mit dem Directory-PageRank kann vom tatsächlichem PageRank von Seiten, die in das ODP eingetragen sind, ein etwas genauerer Eindruck gewonnen werden. Dieser Zusammenhang wurde zuerst von Chris Raimondi (www.searchnerd.com/pagerank) aufgezeigt.

Insbesondere für Seiten mit einem Toolbar-PageRank von 5 oder 6 ergibt sich hier die Möglichkeit der Einschätzung, ob sich die Seite eher am unteren oder am oberen Ende eines Bereichs der Toolbar-Skalierung befindet. Es sei an dieser Stelle angemerkt, dass für die Darstellung des Vergleichs der beiden PageRank-Anzeigen der Toolbar-PageRank von 0 nicht berücksichtigt wurde. Dass dies sinnvoll ist, kann anhand von Seiten mit einem Directory-PageRank von 3 nachvollzogen werden. Hier ist allerdings zu berücksichtigen, dass zur Überprüfung eine Seite der Google Directory mit einem Toolbar-PageRank von maximal 4 ausgewählt werden sollte, da sich sonst in der Regel keine von dort verlinkten Seiten mit einem Toolbar-PageRank von 3 finden lassen.

Quelle:pr.efactory.de

Der PageRank-Algorithmus


Der ursprüngliche PageRank-Algorithmus wurde von Lawrence Page und Sergey Brin mehrfach beschrieben. Er hat die folgende Form:

PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))
Hierbei ist:

PR(A) der PageRank einer Seite A,

PR(Ti) der PageRank der Seiten Ti, von denen ein Link auf die Seite A zeigt,

C(Ti) die Gesamtanzahl der Links auf Seite Ti und

d ein Dämpfungsfaktor (Damping Factor), wobei 0 <= d <= 1 ist.

Das PageRank-Verfahren bewertet damit grundsätzlich nicht Websites in ihrer Gesamtheit, sondern basiert ausschließlich auf der Beziehung einzelner Webseiten zueinander. Der PageRank einer Seite A bestimmt sich dabei rekursiv aus dem PageRank derjenigen Seiten, von denen ein Link auf die Seite A zeigt.
Der PageRank der Seiten Ti, die auf eine Seite A verlinken, fließt nicht gleichmäßig in den PageRank von Seite A ein. Der PageRank einer Seiten T wird stets anhand der Anzahl C(T) der von Seite T ausgehenden Links gewichtet. Das bedeutet, dass je mehr ausgehende Links eine Seite T hat, umso weniger PageRank gibt sie an Seite A weiter.
Der anhand der Anzahl an ausgehenden Links gewichtete PageRank der Seiten Ti wird nun addiert. Dies hat zur Folge, dass jeder zusätzliche eingehende Link für eine Seite A stets den PageRank dieser Seite A erhöht.

Schließlich wird die Summe der gewichteten PageRanks der Seiten Ti mit dem Dämpfungsfaktor d, der stets zwischen 0 und 1 liegt multipliziert. Hierdurch wird das Ausmaß der Weitergabe des PageRanks von einer Seite auf einer andere verringert.
Das Random Surfer Modell

Lawrence Page und Sergey Brin bieten in ihren Veröffentlichungen eine sehr einfache, intuitive Rechtfertigung des PageRank-Algorithmus an. Sie betrachten PageRank-Verfahren als ein Modell zur Abbildung von Benutzer-Verhalten. Hierzu führen sie einen Zufalls-Surfer an, der von einer Webseite zur nächsten jeweils beliebige Links verfolgt, ohne dabei auf Inhalte zu achten.
Der Zufalls-Surfer befindet sich mit einer bestimmten Wahrscheinlichkeit auf einer Website, die sich aus deren PageRank herleiten lässt. Die Wahrscheinlichkeit, dass der Zufalls-Surfer nun einen bestimmten Link verfolgt, ergibt sich dann einzig und allein daraus, aus wievielen Links er die Auswahl hat. Aus diesem Grunde fließt der PageRank einer verlinkenden Seite stets nach der Anzahl Ihrer ausgehenden Links gewichtet in die PageRank Berechnung einer verlinkten Seite ein.

Die Wahrscheinlichkeit, dass der Zufalls-Surfer auf eine Seite gelangt, ist also die Summe der Wahrscheinlichkeiten, mit der er von einer verlinkenden Seite den entsprechenden Link verfolgt. Nun wird allerdings die Wahrscheinlichkeit, mit der der Zufalls-Surfer auf eine Seite gelangt, um den Faktor d gedämpft. Dies hat im Rahmen des Random Surfer Modells den Hintergrund, dass der Zufalls-Surfer nicht unendlich viele Links verfolgt. Nach einer bestimmten Zeit wird er gelangweilt und ruft eine beliebige andere Webseite auf.

Die Wahrscheinlichkeit, mit der der Zufalls-Surfer die Verfolgung von Links nicht abbricht und somit weiterklickt, wird durch den Dämpfungsfaktor d angegeben, der abhängig von der Höhe der Wahrscheinlichkeit einen Wert von 0 bis 1 annimmt. Je höher d ist, um so wahrscheinlicher ist es, dass der Zufalls-Surfer Links verfolgt. Da der Zufalls-Surfer nach dem Abbruch der Link-Verfolgung eine beliebige Seite aufruft, geht die Wahrscheinlichkeit mit er er dies tut, mit dem Wert (1-d) als Konstante in die Berechnung des PageRanks einer jeden Seite ein.

Abweichende Formulierung des PageRank-Algorithmus

Lawrence Page und Sergey Brin bieten in ihren Veröffentlichungen zwei unterschiedliche Versionen des PageRank-Algorithmus an. In dieser zweiten Version bestimmt sich der PageRank einer Seite A wie folgt:

PR(A) = (1-d) / N + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))

Hierbei ist N die Anzahl aller Seiten des Webs. Diese zweite Version des PageRank-Algorithmus unterscheidet sich allerdings nicht grundlegend von der ersten. In der zweiten Version beschreibt der PageRank einer Seite im Sinne des Random Surfer Modells lediglich die tatsächliche Wahrscheinlichkeit, mit der der Zufalls-Surfer nach dem Verfolgen vieler Links eine Seite erreichen wird. Dieser Algorithmus bildet damit eine Wahrscheinlichkeitsverteilung über alle Seiten des Webs ab. Die Summe aller PageRank-Werte des Webs ist damit bei dieser Version des Algorithmus gleich 1.

In der oben genannten, ersten Version erfolgt eine Gewichtung der Wahrscheinlichkeit des Besuchs einer Seite nach der Anzahl der Seiten des Webs. Demnach ist der PageRank in dieser Version im Grunde der Erwartungswert für den Besuch des Zufalls-Surfers auf einer Seite, wenn er hierfür Anläufe in genau der Höhe der Anzahl der Seiten des Webs nimmt. Bestünde das Web also aus 100 Seiten, und eine Seite hat einen PageRank von 2, so würde der Zufalls-Surfer sie bei 100 „Surfgängen“ im Mittel zweimal erreichen.

Wie bereits erwähnt, unterscheiden sich die beiden Versionen des Algorithmus sich nicht grundlegend. Letztlich muss der PageRank einer Seite aus der Algorithmus-Version 2 lediglich mit der Anzahl der Webseiten multipliziert werden, um zum PageRank der Algorithmus-Version 1 zu gelangen. Selbst Page und Brin ist in Ihrer wohl bekanntesten Veröffentlichung „The Anatomy of a Large-Scale Hypertextual Web Search Engine“ der Fehler unterlaufen, die erste Version des PageRank-Algorithmus als Wahrscheinlichkeitsverteilung zu charakterisieren, bei der die Summe der PageRank-Werte aller Seiten gleich eins sei.

Im Folgenden wird für die weiteren Betrachtungen der oben zuerst genannte Algorithmus verwandt. Dies hat den einfachen Hintergrund, dass Berechnungen hiermit wesentlich einfacher sind, da die Größe des Webs vollkommen außer Acht gelassen werden kann.

Die Eigenschaften des PageRank

Die Eigenschaften des PageRank sollen jetzt anhand eines Beispieles veranschaulicht werden.

Hierzu wird ein kleines 3-Seiten-Web aus den Seiten A, B und C betrachtet, wobei Seite A sowohl auf Seite B als auch auf Seite C verlinkt. Seite B verlinkt lediglich auf Seite C und Seite C wiederum verlinkt auf Seite A. Der Dämfungsfaktor d wird Angaben von Lawrence Page und Sergey Brin zufolge für tatsächliche Berechnungen üblicherweise auf 0.85 gesetzt. Der Einfachheit halber wird d an dieser Stelle ein Wert von 0.5 zugewiesen, wobei die Höhe von d zwar Auswirkungen auf den PageRank hat, das hier zu erläuternde Prinzip jedoch nicht beeinflusst. Es ergeben sich die folgenden Gleichungen für den PageRank der einzelnen Seiten:

PR(A) = 0.5 + 0.5 PR(C)
PR(B) = 0.5 + 0.5 (PR(A) / 2)
PR(C) = 0.5 + 0.5 (PR(A) / 2 + PR(B))

Dieses Gleichungssystem lässt sich sehr einfach für den PageRank der einzelnen Seiten lösen. Es ergeben sich die folgenden Werte:

PR(A) = 14/13 = 1.07692308
PR(B) = 10/13 = 0.76923077
PR(C) = 15/13 = 1.15384615

Es zeigt sich, dass die Summe der PageRanks aller Seiten gleich drei und somit gleich der Anzahl der Seiten ist. Dies ist keine spezifisches Ergebnis für unser Beispiel, da der PageRank Algorithmus einen Erwartungswert für den Besuch von Seiten bei Anläufen in Höhe der Anzahl der Seiten darstellt.

Für ein kleines 3-Seiten-Beispiel lässt sich ein Gleichungssystem unproblematisch lösen. Das tatsächliche WWW besteht jedoch mittlerweile aus mehreren Milliarden Webseiten, so dass die Lösung eines entsprechenden Gleichungssystems nicht mehr möglich ist.

Die iterative Berechnung des PageRank
Aufgrund der Größe des Webs erfolgt in der Praxis der Suchmaschine Google eine näherungsweise, iterative Berechnung des PageRank. Dies bedeutet, dass zunächst jeder Seite ein PageRank zugewiesen wird, und anschließend der PageRank aller Seiten in mehreren Berechnungsrunden ermittelt wird. Diese näherungsweise Berechung soll wiederum anhand unseres kleinen Beispiels demonstriert werden, wobei als Ausganswert für den PageRank einer jeden Seite zunächst 1 angenommen wird.

Iteration   PR(A)           PR(B)            PR(C)

0            1                  1 1
1            1                  0.75               1.125
2            1.0625          0.765625        1.1484375
3            1.07421875   0.76855469    1.15283203
4            1.07641602   0.76910400    1.15365601
5            1.07682800   0.76920700    1.15381050
6            1.07690525   0.76922631    1.15383947
7            1.07691973   0.76922993    1.15384490
8            1.07692245   0.76923061    1.15384592
9            1.07692296   0.76923074    1.15384611
10          1.07692305   0.76923076    1.15384615
11          1.07692307   0.76923077    1.15384615
12          1.07692308   0.76923077    1.15384615
Es zeigt sich, dass sich in unserem Beispiel bereits nach sehr wenigen Iterationen eine sehr gute Näherung an die tatsächlichen Werte ergibt. Für die Berechnung des PageRanks für das komplette WWW werden von Lawrence Page und Sergey Brin ca. 100 Iterationen als hinreichend genannt.

Entscheidend ist, dass die Summe der PageRanks aller Seiten nach der Durchführung der iterativen Berechnung gegen die Anzahl aller Seiten konvergiert. Der durchschnittliche PageRank aller Seiten geht mithin gegen 1. Jede Seite hat einen minimalen PageRank von (1-d). Der theoretisch maximale PageRank einer Seite beträgt dN+(1-d), wobei N die Anzahl aller Webseiten ist. Dieser theoretische Wert käme zustande, wenn sämtliche Webseiten ausschließlich auf eine Seite verlinken, und auch diese wiederum ausschließlich auf sich selbst verlinkt.

Die Implementierung des PageRank

Quelle: pr.efactory.de

Überblick über das PageRank-Verfahren der Suchmaschine Google


Im Verlauf der letzten Jahre hat sich Google weltweit zur bedeutendsten Suchmaschine entwickelt. Maßgebend verantworlich hierfür war neben einer hohen Performance und einer großen Benutzerfreundlichkeit vor allem die anderen Suchmaschinen teilweise weit überlegene Qualität der Suchergebnisse. Diese Qualität der Suchergebnisse beruht ganz wesentlich auf dem PageRank-Verfahren.
An dieser Stelle soll ein möglichst breiter Überblick über alle Aspekte des PageRank-Verfahrens wiedergegeben werden. Unser Überblick stützt sich dabei im Kern auf Veröffentlichungen der Google-Gründer Lawrence Page und Sergey Brin aus ihrer Zeit als Graduiertenstudenten an der Stanford University.

Aktuelle Änderungen im PageRank (Bild: Sistrix.de)

Vielerorts wird angeführt, dass seit den Forschungsarbeiten am PageRank-Verfahren vor allem angesichts der Dynamik des Internets zu viel Zeit vergangen ist, als dass die veröffentlichten Dokumente immer noch für die Bewertungsmethodik der Suchmaschine Google maßgebend sind. Es soll auch nicht bezweifelt werden, dass im Verlauf der letzten Jahre mit großer Wahrscheinlichkeit zahlreiche Änderungen, Anpassungen und Modifikationen am ursprünglichen PageRank-Algorithmus stattgefunden haben. Allerdings war gerade das PageRank-Verfahren ein wichtiger Faktor für den Erfolg der Suchmaschine Google, womit zumindest das Konzept des PageRank-Verfahrens immer noch grundlegend sein sollte.

Das PageRank-Konzept

Im Zuge der Entwicklung des World Wide Webs wurden verschiedene Verfahren zur Bewertung von Webseiten mit dem Ziel der Relevanzbeurteilung durch Suchmaschinen entwickelt. Ein aus unmittelbar einleuchtenden Gründen auch heute immer noch von praktisch allen Suchmaschinen genutzter Maßstab ist das Vorkommen eines Suchbegriffs in den Inhalten einer Webseite. Dieses Vorkommen wird nach den verschiedensten Kriterien wie etwa der relativen Häufigkeit des Vorkommens (der sog. Keyword-Dichte), den Stellen des Vorkommens des Suchbegriffs oder auch der Exponiertheit des Suchbegriffs im Dokument gewichtet.
Aus der Absicht, Suchmaschinen resistent gegen Webseiten zu machen, die auf der Basis von Analysen der inhaltsspezifischen Bewertungskriterien generiert wurden (Doorway Pages), entstand das Konzept der Link-Popularität. Dabei fließt die Anzahl der eingehenden Links für ein Dokument als ein grundsätzliches Kriterium für die Bedeutung einer Webseite in die Relevanzbeurteilung ein. Diesem Ansatz liegt zu Grunde, dass ein Dokument um so wichtiger ist, je häufiger es von anderen verlinkt wird. Hierdurch wird weitestgehend verhindert, dass automatisch generierte „suchmaschinenoptimierte“ Webseiten ohne jeglich Einbindung in das WWW oben in den Suchmaschinenergebnissen erscheinen. Es zeigte sich allerdings, dass auch das Konzept der Link-Popularität schnell von Webmastern antizipiert werden konnte, indem sie von ebenso unbedeutenden, automatisch generierten Seiten eingehendeLinks für Doorway Pages schufen.

Im Gegensatz zum Konzept der Link-Popularität nutzt das PageRank-Konzept nicht einfach die absolute Anzahl eingehender Links für die Beurteilung der Bedeutung einer Webseite. Die Argumentation der Google-Gründer gegen das Konzept der einfachen Link-Popularität war, dass ein Dokument zwar bedeutsam ist, wenn es von vielen anderen verlinkt wird, nicht jedes verlinkende Dokument ist jedoch gleichwertig. Vielmehr sollte einem Dokument – völlig unabhängig von seinen Inhalten – ein hoher Rang zugewiesen werden, wenn es von anderen bedeutenden Dokumenten verlinkt wird.

Die Bedeutsamkeit eines Dokuments bestimmt sich im Rahmen des PageRank-Konzepts also aus der Bedeutsamkeit der darauf verlinkenden Dokumente. Deren Rang wiederum bestimmt sich ebenfalls aus dem Rang verlinkender Dokumente. Die Bedeutsamkeit eines Dokuments definiert sich stets rekursiv aus der Bedeutsamkeit anderer Dokumente. Da – wenn auch über viele hintereinanderfolgende Links hinweg – der Rang eines jeden Dokuments eine Auswirkung auf den Rang eines jeden anderen hat, beruht das PageRank-Konzept letztlich auf der Linkstruktur des gesamten Webs. Obwohl diese ganzheitliche Betrachtung des WWW es nicht vermuten lässt, gelang es Page und Brin das PageRank-Konzept mittels eines relativ trivialen Algorithmus umzusetzen.

Copyright-Verstöße Google löscht Millionen Links


Im Kampf gegen Verletzungen des Urheberrechts drückt Google auf die Löschen-Taste. Der Web-Konzern hat nach eigenen Angaben im großen Stil Links zu Inhalten aus seinem Angebot entfernt, die zuvor von Copyright-Inhabern gemeldet wurden.

Berlin/Mountain View – Google hat im vergangenen Jahr wegen möglicher Urheberrechtsverletzungen in 5,4 Millionen Fällen Inhalte, Webseiten und Web-Adressen aus seinen Angeboten – ohne YouTube – gelöscht. Das erklärte der Web-Konzern am Donnerstag in einem Blogpost.

Pro Monat bearbeitet Google demnach durchschnittlich 1,2 Millionen Anfragen, Inhalte wegen möglicher Copyright-Verletzungen offline zu nehmen. Unter den gelöschten Daten befanden sich allein 3,3 Millionen Weblinks in den Suchergebnissen. 97 Prozent der angeprangerten Inhalte werden laut Google entfernt. Verschiedene Anfragen können dabei sich auf ein und dasselbe Ziel beziehen.
„Der Kampf gegen Online-Piraterie ist sehr wichtig“, schreibt Google-Manager Fred von Lohmann in seinem Blogeintrag. „Wir wollen nicht, dass unsere Suchergebnisse die Menschen auf Stellen im Netz lenken, wo die Urheberrechte verletzt werden.“ Um das Ausmaß der Löschungen deutlich zu machen, erfasst der Konzern die wegen Copyright-Verletzungen entfernten Inhalte nun im „Transparency Report“. Dort waren bislang vor allem die staatlich verfügten Löschungen dokumentiert worden.

Die Suchmaschine bietet Rechteinhabern ein Verfahren an, mit dem Verstöße gegen das Urheberrecht gemeldet und unterbunden werden können. Ob diese Prozedur ausreicht, gegen Copyright-Verletzungen im Internet vorzugehen, ist allerdings umstritten. Verlegerverbände und Musikverwerter wie die deutsche Gema hatten dem Internet-Konzern in der Vergangenheit immer wieder vorgeworfen, zu wenig gegen Inhalte-Klau im Netz zu unternehmen und finanziell von Verstößen gegen das Urheberrecht zu profitieren.

Google betonte nun, die aktuellen Zahlen belegten, dass die Benachrichtigungen der Rechteinhaber über mögliche Urheberrechtsverletzungen konsequent geprüft würden. Anfragen würden durchschnittlich innerhalb von elf Stunden bearbeitet. Bei bekannten Organisationen, die den Status eines „vertrauenswürdigen Partners“ hätten, betrage dieser Zeitraum sogar nur sieben Stunden. Anfragen von Firmen und Organisationen wie Microsoft , NBC Universal oder dem Verband der US-Musikindustrie RIAA machten dem größten Anteil aus.

Google wies zugleich darauf hin, dass nicht jede Anfrage zur Löschung von Inhalten gerechtfertigt sei. So habe eine Fahrschule in Großbritannien den Ausschluss der Homepage eines Wettbewerbers aus dem Google-Index verlangt, nur weil dort auch eine alphabetisch sortierte Ortsliste zu finden war.

suc/dpa

Google+ Buch für Neulinge steht zum kostenlosen Download bereit


Das eBook „Plus Eins – Das Google+ Buch für Jedermann“ kann man ab sofort kostenlos herunterladen. Das Buch richtet sich in erster Linie an Anfänger, hat aber auch für eingefleischte Plusser den ein oder anderen Tipp parat. Darüber hinaus gibt es Interviews mit Google+ Chef Vic Gundotra und anderen Experten.

Auch wenn Google+ seit dem Start im Juni 2011 schon etwa 100 Millionen Nutzer für sich gewinnen konnte, ist das soziale Netzwerk noch nicht im Mainstream angekommen. Genau aus diesem Grund ist das Engagement von Philipp Steuer zu begrüßen, denn sein Google+ Buch ist besonders für Menschen, die sich mit dem Google-Netzwerk noch nicht auseinander gesetzt haben, eine willkommene Starthilfe.

google+ buch jedermann

Download Plus Eins das Google Buch für Jedermann

GOOGLE+ FOLLOWER SIND GUT FÜR DAS GOOGLE RANKING


Ob Google+ nun tot ist oder durch Google künstlich beatmet wird, darf Monat für Monat neu debattiert werden, sobald neue Zahlen präsentiert werden. Aber die Vermutung war schon immer, daß Google nicht nur die Clicks auf +1, sondern auch die Followerzahlen für das Ranking in den Suchergebnissen berücksichtigt. Ein kurzer, natürlich nicht repräsentativer Test, will nun Folgendes herausgefunden haben:

Twitter und die Anzahl der Follower ist laut dieser Studie übrigens egal. Nun muß man sich selber überlegen, welche Trafficquellen wichtiger sind: die eher Realtime-orientierten Quellen wie Facebook, Google+ oder Twitter, oder eben das gute Ranking in Suchergebnissen von Google.

Infographic: Testing Social Signals

SEO: Engagement auf Google+ schlägt Facebook und Twitter


Wie groß der Einfluss eines hohen Engagements bei Google+ offenbar schon jetzt für das Google-Ranking ist, zeigt ein nicht-repräsentativer Test der Suchmaschinen-Marketing-Profis von TastyPlacement. Demnach wird das eigene Ranking durch Google+-Follower und die Anzahl der erhaltenen +1-Votes deutlich positiver beeinflusst als durch Facebook- und Twitter-Aktivitäten. Suchmaschinenoptimierer sollten sich spätestens jetzt stärker mit Google+ SEO auseinandersetzen.

Für den Google+-SEO-Test haben die Marketing-Experten 6 Webseiten in 6 US-Städten eingerichtet. Die Webseiten waren alle in den gleichen Nischenbereichen angesiedelt und verfügten über eine ähnliche Namensgebung. Im Rahmen des Tests wurden schließlich verschiedene Social-Media-Werbeaktionen gestartet – etwa Google+ Promotions, um +1-Votes zu generieren. Nach einem Monat glich TastyPlacement dann die durchschnittlichen Veränderungen im Google-Ranking mit den entsprechenden Social-Media-Aktivitäten ab, wie es bei Business Insider heißt.

Google+ SEO bringt mehr als Facebook und Twitter

Wenig überraschend für viele SEO-Experten erreichte dabei Google+ den größten positiven Effekt auf das Google-Ranking. Mit nur 100 Google+-Followern für eine verlinkte Testseite konnte ein Plus von 14,63 Positionen bei verschiedenen Keywords erreicht werden. 300 +1-Votes brachten immer noch ein Plus von 9,44 Positionen. 70 Facebook-Shares und 50 Facebook-Likes brachten dagegen „nur“ 6,9 Positionen im Google-Ranking. Twitter-Aktivitäten hatten noch weniger Einfluss auf das Ranking. Während Tweets und Retweets immer noch einen leicht positiven Effekt (2,88) hatte, wirkte sich die Zahl der Twitter-Foller – in diesem Fall 1.000 Follower – sogar leicht negativ aus (-1,22).

Auch wenn die Studie nicht aussagekräftig ist, unumstritten ist, dass Google+ für SEO-Experten an Bedeutung gewinnt. Es wird sogar diskutiert, ob die klassischen Verlinkungen zukünftig durch die Zahl der Shares und +1-Bewertungen abgelöst werden könnten – das Aus für den klassischen Linkaufbau, der in den vergangenen Jahren die Suchmaschinenoptimierung beherrscht hat. Wie ein optimiertes Google+ Profil das Ranking einer Website verbessern könnte, zeigen 5 einfache Ansätze für SEO mit Google+.

SEO-Infografik: Google-Ranking und Social-Media-Aktivitäten (Volle Größe nach Klick)

Google+ SEO Infografik
Google+ SEO Infografik (c) TastyPlacement

Die Gründerszene-SEO-Seminare


 Jetzt eines von zwei Tickets gewinnen!

Wie schafft man es, hoch in Suchmaschinen zu ranken, ohne Black-Hat-SEO oder Hunderte von kleinen Praktikanten, die wild Backlinks in Blogs drapieren? Welche Rolle spielt Social-Media beim sogenannten Social-Search? Bei den diesjährigen SEO-Seminaren rund um die Themen SEO-On- und -Offpage, Social-Search und der Kombination von allen dreien werden hilfreiche Praxistipps geliefert. Und zum sonnigen Einstieg in den hoffentlich bald nahenden Frühling verlost Gründerszene zwei Seminartickets zum spannenden Thema Eurer Wahl!

Suchmaschinenoptimierung, SEO, SEO-Seminare, Black Hat SEO, Whits Hat SEO, Seo Seminar Berlin,berufliche weiterbildung, Gründer-Seminar, Gründerseminar, Gründerszene-Seminare, kurse, Online-Seminare, Seminar, seminar beratung, seminar e, Seminar Season Two, seminare, seminare 2012, seminare für existenzgründer, seminare für mitarbeiter, Seminare für Startups, seminare schulung, Unternehmensseminar, Unternehmerseminar, workshop seminare,

Gründerszene SEO-Seminare

White-Hat-SEOLinkbuilding, On- und Offpage-Optimierung, Social-Search & Co. Was im Jahre 2012 Social-Media für eine Rolle bei SEO spielen wird, welche Tipps und Tricks es im SEO-On- und Offpage zu beachten gilt und das Kompaktwissen in unserem Praxistag; das alles ist zu erfahren bei den Gründerszene-SEO-Seminaren! Folglich stellen wir alle vier Seminare plus Inhalt kurz vor.

Als Referent für die SEO-Seminare konnten wir Client Director Jan Borgwardt von LBi gewinnen. Als Verantwortlicher für eine Vielzahl namhafter Kunden weist er nicht nur Detailwissen in den wichtigsten Online-Marketing-Disziplinen auf. Speziell für den Searchbereich, SEO und SEA, plant er immer wieder Kampagnen, die sich durch ihre Anforderungen von den Standards unterscheiden. Auch interne und externe Schulungen gehören zur regelmäßigen Tätigkeit des gelernten Bankkaufmanns und Wirtschaftsinformatikers.

SEO-Onpage – besseres Ranking in Suchmaschinen

Suchmaschinen verarbeiten Sprache. Und das besser, als man denken möchte! Jedoch können die besten Suchmaschinen nichts ausrichten, wenn die eigene Seite redaktionell nicht durchdacht und entsprechend umgesetzt ist. So lernt ihr in diesem Seminar nicht nur Qualitätssignale und deren Auswirkung richtig einzuschätzen, sondern auch hilfreiche Tools und Best-Practice-Beispiele.

Zu den Terminen:

SEO-Offpage – Linkbuilding war gestern

Gute Rankings in Suchmaschinen sind essentiell für ein erfolgreiches Online-Marketing. Doch wie erreicht man diese? Und ist ein Platz 1 wirklich immer das Beste? Wer durch praktische Übungen eigene Linkbuilding-Maßnahmen planen und konzipieren oder zum Beispiel SEO-Agenturen besser überprüfen will, der ist beim Offpage-Seminar bestens aufgehoben.

Zu den Terminen:

SEO und Social-Media: Social-Search: SEO der Zukunft?

Soziale Medien und Plattformen sind für die meisten von uns das “täglich Brot“. Ein einfacher Austausch mit Freunden und Kollegen, Familie und Businesskontakten gehört zu unseren täglichen Bedürfnissen. Suchmaschinen wissen das und wittern hier nicht nur reichhaltige Informationen, weshalb Social-Media eine immer wichtigere Rolle bezüglich Suchmaschinenoptimierung spielen wird.

Zu den Terminen:

Praxistag SEO – Suchmaschinenoptimierung von A – Z

SEO wird zwar immer komplexer, aber nicht unbedingt komplizierter. Wichtig ist es vor allem, Suchmaschinen zu verstehen, um den Überblick zu behalten und dem Wettbewerb eventuell sogar einen Schritt voraus sein zu können. In dem achtstündigen Gründerszene-Praxistag wird daher ein praxisbezogenes Komplettpaket angeboten, in dem keine Frage offen bleibt.

Zu den Terminen:

Ticketverlosung für SEO-Seminare!

An diesem Dienstag gibt es also Sonnenschein und … zwei Tickets zu gewinnen!! Wer Lust auf völlig kostenlose Weiterbildung hat, der schreibe doch bitte unter diesen Artikel, warum gerade er das Ticket dringend nötig hat und gerne gewinnen würde. Ende der Aktion ist Freitag, der 20. April 2012 und der Gewinner wird persönlich benachrichtigt! Good Luck :)!
P.S.: Das vollständige Seminarprogramm mit der langen Liste an Seminaren findet Ihr übrigens auf der Gründerszene-Seminarseite.

Google SEO 2012 – Einblicke in die Hintertüren


Wie indexiert Google Webseiten im Jahr 2011 und wie werden diese bewertet?

Hier ein paar Fakten, die „noch“ nicht öffentlich sind:

Wie scraped Google das Web?

Lasst uns erstmal Google Spiders ( Bots die Content im WWW indexieren ) in 4 Hauptgruppen aufteilen.

  1. Backlink Spiders –  sind die Grundlegensten und die gibt es seit dem es auch Google gibt. Es sind auf irgendeiner Art und Weise Autobahn-Builder für die andern Spiders. Gebaut sind Sie wie Viren – Sie folgen einen Link, dann alle von dieser neuen Seite, multiplitzieren sich selber und dann folgen sie alle von dieser Webseite. Kurz gesagt: Sie lieben es Code und Backlinks zu „essen“. Zurück zu den Servern werden Informationen des <head> geschickt und Backlinks ( Falls kein Wert im <head> zu finden ist, wird zufälliger Content gefiltert und das gibt ein —). Wird man erwischt, wenn man einen toten Link benutzt ( der nirgendwo hinführt ) bekommt man einen Penalty, da in dem Moment ein Spider ausstirbt. Google hasst es wenn man seine Spider tötet.

Die Spider haben auch eine limitierte Anzahl um sich selbst zu reproduzieren ( Limitiert an der Server-Kapazität ), das erklärt warum manche Webseiten die meisten Seiten indexiert bekommen und manche nur 1-2 Unterseiten. ( Es ist möglich, dass es 2 Spiders gibt – Einer für die Meta-Informationen und einer für die Backlinks, unmöglich herauszufinden )

  1. Content Spiders –  sind die Kreation aus der ersten Google Revolution. Die scrapen Content von allen Webseiten. Es gibt ein wenig Erkenntniss, das sie sogar Texte verstehen und identifizieren können. Sie werden wissen ob ein Artikel gespinnt ist, ob ein Artikel über ein Thema ist und ob er relevant zum Webseiten Thema ist. Diese Text Spider sind sehr schwer, es kostet unmengen an Serverlast. Genutzt werden die Backlinks Spider um das Web zu erforschen. Sie lieben ständig erneuerten Content. Sie sind so schwer, so dass sie nicht gezwungen werden wollen jedes mal den selben Text zu scrapen jedes Mal wenn Sie eine Webseite betreten. Wenn man also einen Link löscht, nachdem der Backlinks Spider einen indexiert, bevor aber der Content Spider einen trifft, kann man einen großen Schaden in der SEO erwarten, da sie schwer sind und Google einem einen Penalty verhängt wenn man sie tötet.
  1. Foto Spiders – ein weiterer Effekt der Google Bilder Evolution. Sie lieben Bilder und auf irgendeiner Art und Weiße sind sie in der Lage, Fotos zu erkennen ( Keine details, aber Farben, Strukturen & Muster und ein wenig pornographische Bilder ) und sie lesen Fotos nach relevanten Tags und platzieren diese. Sie fahren auf Autobahnen und nutzten Content Spiders um Informationen über Fotos zu finden.
  1. Video Spiders – ein weiteres Experiment von Google. Diese schlauen Gefährten machen einige atemberaubende Sachen. Bis jetzt haben sie noch keine Möglichkeit Videos selbst zu sehen, so nutzten sie die Informationen von Content Spiders um Videos zu finden und scrapen Thumbnails ( Vorschaubilder ), Tags, Ratings, Kommentare, um zu entscheiden ob es ein gutes oder schlechtes Video ist. Erstellt wurden sie in der Era von YouTube ( Warum braucht Google YouTube? ( Ehemmm…*hust )

Genug über Spider. Nur Google selber weiß wie viele Kreaturen Sie haben.

Über Google Dance:

Was ist der Google Dance?

Kurz gesagt – Jeder Roboter der Google Familie hat genug Power um eine Webseite zu bewerten. Darauf basierend, wird eure Webseite aufsteigen, oder absteigen.

Sagen wir bei einem Maximum von 1.000.000 Punkten starten neue Webseiten mit „0“ Punkten. Nachdem der Backlink Roboter zu Besuch kommt, sieht dieser z.B. das man viele Authoritäts Links hat und gutes OnPage SEO. Also gibt dieser sehr wichtige Spider einem 231.246 Punkte. Man ist auf der Seite 2 in den Google Ranking hiernach.

Jetzt Content Spider. Es hat kein qualitativen Content gefunden. Alles kopiert. Content Spider mögen dies nicht, man bekommt -56.214 Punkte. Nach ein paar Tagen fällt man auf der Seite 17 deswegen.

Jetzt kommt ein weiterer Spider und dieser re-valiiert Ihre Webseite. Manche geben Ihnen ein +, manche ein -. Nach 2 Wochen herumtanzen ( Ihr löscht einige Links, bekommt ein paar minderwertige oder sogar xRumer Russenlinks aus einer schlechten Liste? -13.521 vom Backlink Spider ) Man kommt auf der Seite 3.

Macht das JETZT Sinn?

Was ist die Google Sandbox / Penalty?

Immer wenn man mehr Minuse bekommt, als Pluse, wird man vom Sandbox erwischt ( Als Beispiel, Google findet herauß das man duplicate Content Farmen hat die zu einem Verlinken. Backlinks Spider würden das nicht herausfinden, aber Content Spider hingegen schon ) Penalty? Wenn man urplötzlich einen Verlust in den Rankings aufnehmen muss ( Zum Beispiel von 400.000 Punkten auf 200.000 ) heißt das für Google man hat es vergeigt = Penalty. Zur Erinnerung = Google funktioniert indem es Scripte benutzt. Ihr würdet sagen – es waren nur 10.000 Backlinks von einer frei zugänglichen xRumer Liste, das ist nicht viel! – Google sagt: SPAM.

Warum gibt es nicht einen Spider der ALLES regelt? Simple Antwort = Kosten. Sie können es sich nicht leisten Millionen von Servern zu haben. Deshalb wird die Arbeit auf verschiedenen Robotern verteilt ( Ja ,Google nutzt auch normale Server ).  Dann werden alle Informationen zum Super Netzwerk zurückgeschickt. Übertrieben großes Netzwerk, das einen großen Computer erstellt ( Computer 42? ).

Dieses  Netzwerk berechnet die Positionen, anhand der Punktzahl die Ihr bekommt.

Wie wird bestimmt, ob eine Webseite Authorität hat?

Ziemlich trivial. Positionen auf Google werden von diesen Faktoren bestimmt:

  1. 1. Authorität
  2. 2. Backlinks
  3. 3. Content
  4. 4. Anderer, weniger wichtige Sachen

Was ist Authorität?

Ganz einfach:

2+3+4=1

Ist PageRank noch wichtig?

Ja und Nein. Der Page Rank wurde originell erfunden um die Authorität zu bestimmen. Dies ist es nicht mehr. Es nutzt die einfachste Form von 2 + 3 = 1 um einen Wert zu bestimmten ohne den Wert von +4 ein zu kalkullieren und teilweise neue Updates von „3“ sind hier mit drin, also ist es sehr ungenau.

Ist No Follow zu was zu gebrauchen?

Es ist, aber nicht so viel wie Do Follow Backlinks, da es von Content Spidern gescraped wird, also hat es einen kleineren Wert und es erstellt keine Autobahnen für andere Spiders ( Sie werden nicht erlaubt einzutretten ).

Was ist angesagt in diesen Tagen?

Artikel mit 800+ Wörter Singel Artikel Submissions ( Nur bitte nicht auf 100+ Artikel Verzeichnissen den selben Artikel  SPAMMEN! ), große AUTHORITÄTS Backlinks, Social Backlinks, Virales Marketing, News Feeds, Backlinks aus geschlossenen webseiten ( diese kosten Geld oder es ist schwer dort reinzukommen )

Ist Google intelligent?

Die Menschen hinter Google – EXTREM. Ich kenn einen, der für kurze ein paar Tage bei Google gearbeitet hat. Man kann auf jeden Fall sicher sein, dass die Head Programmierer Millionäre sind – soviel dazu. Google als Suchmaschine – Nein. Es ist nur ein Script und jedes Script hat eine Hintertür. Den einen oder anderen Trick hab ich auch schon gefunden (Unveröffentliche Tricks mein ich icon wink Google SEO 2011   Einblicke in dem heutigem SEO ) Man muss nur „aus der Box rauß denken“.

Die Perfekte Webseite?

Ungefähr 10 Links auf jeder Seite. Externe Links zu Authoritäts Webseiten die irgendwie zur selben Kategorie fallen. Ein paar Videos, 2+ Fotos für jeden Artikel. 80% unqiue Content. Ein paar große Zitate. Nur natürlich wirkende Backlinks. Ein paar Backlinks die zu den Fotos zeigen.  50% aller Unterseiten haben relevante Backlinks. Maximum 40% von Foren Backlinks, 30% Blog Backlinks, 20% Profil Backlinks. Minimum 30% Authoritäts Links. Artikel / Content variiert in der Wortanzahl. Alles von 300+ bis 1.500+. Minimun von 30-40 Wörtern Unique Content auf jeder Webseite.

Quelle:mehr-backlinks.de

SEO 2012: Worauf wir uns im frischen Jahr konzentrieren


Nein, ich schaffe es einfach nicht, Vorausschauen oder Trends aufzuschreiben. Denn das ist doch alles nur Rätselraten. Sinn macht es aber, zum Jahreswechsel die Strategie zu überprüfen und die Arbeitsweise an neue Situationen anzupassen. Neben einigen internen Änderungen (die euch gar nix angehen) hier die Themen, mit denen wir im Vergleich zu 2011 anders arbeiten möchten:

  • (Noch) mehr Contenterlebnis auf die Seiten: Alle Updates im vergangenen Jahr hatten nur eine Richtung: Google möchte den Usern den zum Keyword am besten passenden Inhalt zeigen. Und, hey, das war schon immer so. Dass auch miese Seiten gut ranken können, ist ja nur ein Bug im Google-Algorithmus. Da wir (vor allem für unsere Kunden) langfristig denken, empfehlen wir auch weiterhin und noch stärker, NICHT auf Google-Bugs zu optimieren, sondern die Suchmaschine möglichst zufrieden zu stellen. Und wenn Verweildauer und Bouncerate nun mal wichtige Faktoren sind, prima. Dann erhöhen wir halt das Content-Erlebnis der User mit tollen Überschriften, einer perfekten Content-Strukturierung und lesenswerten Inhalten oder Videos oder sonst was.
  • Präzisere Keyword-Aussteuerung: Alle reden von “Qualitäts-Content” – und bestellen dann doch wieder *irgendwelche* 5-Sterne-Texte für eine Handvoll Euros. Hiermit erkläre ich das Jahr 2012 zum Content-Differenzierungs-Jahr. Es gibt Keywords, die Seiten mit aktuellem Inhalt erfordern. Es gibt Keywords, nach deren Eingabe im besten Falle Seiten mit “Do”-Inhalt erscheinen, die User sollten also etwas kaufen können. Es gibt Keywords, die brauchen nur minimalen Content. Und es gibt Keywords, bei denen muss man seine Tastatur leer schreiben. The Difference makes the Difference!
  • Technische Aufrüstung: Es reicht nicht mehr, einfach eine Seite ins Web zu knallen und mit Links drauf zu zielen. Heute gibt es XML-Sitemaps, Rich Snippets, Anbindungen an soziale Netze, Google Webmaster Tools und Analytics, Feed-Einbindungen, hohe Performance-Ansprüche u.s.w.. Es war zwar noch nie so einfach, eine Webseite zu veröffentlichen – aber noch nie war es so schwer, wirklich alles zu bedenken.
  • Content- und Linkaufbau gehören zusammen: Wenn ich mir die Projekte im vergangenen Jahr anschaue, freue ich mich vor allem über die Kurven der Seiten, bei denen wir die Möglichkeit hatten, Content- UND Linkaufbau synchronisiert zu entwickeln. Ist ja auch eigentlich logisch: Neue Links gibt es immer nur dann, wenn neuer Content entstanden ist. Und neuer Content ohne neue Links wirkt auch irgendwie merkwürdig ;-)
  • Mehr Social Media: Das Thema habe ich lange unterschätzt, weil mir die vielen Krabbelgedanken in Twitter, Facebook und G+ einfach nicht liegen. Aber ich muss zugeben, dass ich auch nicht mehr “ohne” sein möchte. Und wenn ich mir die Herkunfts-Statistiken anschaue, gehören mindestens diese drei sozialen Dienste zu jeder Content-Strategie.
  • Daten, Fakten, Gedanken: Wie haben wir eigentlich vor vier oder fünf Jahren SEO gemacht? Ich kann mir wirklich nicht mehr vorstellen, wie man damals ohne Sichtbarkeits- oder Visibility-Indizes eine Domain bewerten konnte. Oder wie man überhaupt den Keyword-Raum einer Seite definieren konnte. Doch Vorsicht: Tools können auch nicht alles. Man sollte immer wissen, woher diese Daten kommen, was sie sagen und welche Entscheidungs-Optionen man hat. SEO-Tools können die Optimierung auf eine viel höhere Basis bringen – aber ersetzen nicht das Denken.
  • Mehr Projektmanagement: Ein Projekt ist eine zu organisierende Herausforderung, für die knappe Ressourcen, aber ein klares Ziel zur Verfügung stehen. Ohne Ziel keine Richtung, ohne die Kenntnis der Ressourcen und der Risiken kein gutes Ende. Ich habe mir vorgenommen, auch hier im SEO-Book in den nächsten Monaten ein paar Praxis-Tipps aus meiner langen Projektmanagement-Vergangenheit aufzuschreiben.
Quelle:seo-book.de

10 Sem Tipps und Tricks


Ziele für das Suchmaschinen Marketing definieren

Suchmaschinen Marketing ist ein partnerschaftliches Projekt. Definieren Sie zunächst die zu erreichenden Ziele. Welche Kennzahlen sind Ihnen wichtig? Analysieren Sie Ihre Website und gewinnen Sie so weitere wertvolle Erkenntnisse.

Anzeigen und Keywords gruppieren

Erstellen Sie thematisch aufgebaute SEM-Kampagnen, unterteilen Sie diese in mehrere Anzeigengruppen und gruppieren Sie die Keywords darunter. So setzen Sie strategische Schwerpunkte und gewinnen Übersicht.

Anzeigentexte verfassen

Formulieren Sie für Ihre Anzeigegruppen individuelle Texte und passen Sie diese Ihren Produktgruppen an. Gut formulierte Anzeigentexte mit aussagekräftigem Titel und konkreten Beschreibungen sowie Handlungsaufforderungen sind im Suchmaschinen Marketing unerlässlich.

Festlegung der Click-Preise

Legen Sie zunächst fest, wie viel Sie maximal bereit sind, pro Klick auf Ihre Anzeige zu bezahlen. Stellen Sie dann das gewünschte Tages- oder Monatsbudget ein und aktivieren Sie den Account.

Tracking im Suchmaschinen Marketing

Nutzen Sie Tracking-Tools, um die Effizienz Ihrer Suchmaschinen-Kampagnen zu messen.

Kontinuierliche Optimierung

Optimieren Sie kontinuierlich Ihre Kampagnen, indem Sie beispielsweise das Bidding oder die Keywordauswahl ändern. Betrachten Sie dabei die Resultate, etwa die Conversion-Rate und die Zielerreichung (CPO, ROI) und nicht nur eine hohe Anzeigenposition.

Welcher Text funktioniert am besten?

Starten Sie Anzeigengruppen mit mehreren Anzeigentexten und fahren Sie mit jenem Text fort, der am besten funktioniert. Erstellen Sie von diesem Text neue Variationen und nehmen Sie weitere Tests vor. Die Anzeigen der Wettbewerber zu beobachten ist ebenfalls aufschlussreich.

Werben im Content-Werbenetzwerk

Erstellen Sie Kampagnen, die auf das Content-Werbenetzwerk ausgerichtet sind. Es ermöglicht Werbung in verschiedenen Anzeigenformaten mit dem Schwerpunkt Branding. Sie können so eine größere Zielgruppe und noch mehr potenzielle Kunden erreichen.

Testen und optimieren Sie Ihre Zielseiten

Um die Conversionrate zu erhöhen, nutzen Sie zur Optimierung Ihrer Zielseiten generelle Tools wie den Google Website Optimizer und führen Sie A/B Tests oder Mulitvariates Testen (MVT) durch. Entspricht die Zielseite nicht gängigen Usability-Anforderungen, können die definierten Ziele kaum erreicht werden.

Suchmaschinenoptimierung

Denken Sie auch an Suchmaschinenoptimierung. Im Zusammenspiel von Suchmaschinen Marketing und Suchmaschinenoptimierung entstehen wertvolle Synergien.

Wir helfen ihnen dabei ihre Seite der zeit anzupassen und bringen sie durch langjährige Erfahrung auf die ersten Plätze der Suchmaschinen wir ihre Multimedia Agentur helfen ihnen auch ihre Seite mit den Modernste Features auszustatten so das sie immer auf dem neusten stand im Kampf um Kunden sind. Einfach ihre Daten in unser Kontaktformular eintragen wir analysieren ihre seite kostenlos und senden ihnen dann eine Kostennote natürlich unverbindlich und kostenlos

SEO Ausblick 2012


Im Jahr 2011 gab es einige einschneidende Ergebnisse, die die Suchmaschinenoptimierung und das Online Marketing nachhaltig geändert haben. Um nur zwei zu nennen: Panda Update und Google +1. Einen detaillierten Jahresrückblick haben wir uns geschenkt, wir wollen aber die Gelegenheit nutzen um in die Zukunft zu blicken und eine Voraussage zu wagen, welche drei Trends uns im SEO Jahr 2012 begleiten werden.

SEO und Social

Spätestens seit 2010 wurde jedes Jahr von den Demagogen zum Social Meida Jahr ausgerufen. Für 2012 stimmen die SEOheads freudig mit ein. Zwar war während des Jahres 2011 Social Media, allen voran Facebook auch abseits der Fachpresse omnipräsent in den Medien, hauptsächlich zum Thema Datenschutz, aber der Erfolg reiner Social Kampagnen blieb doch überschaubar, der Einfluss auf SEO auch.

Zum einen mussten Marketeer enttäuscht zur Kenntnis nehmen, dass Nutzer in den sozialen Netzen weitaus pragmatischer sind, als gedacht, zum anderen blieben die großen Erfolgsmeldungen von Facebook Shops o.ä. aus. Natürlich ließen sich Social Kampagnen auch 2011 schon vortrefflich nutzen, um Brand Building zu betreiben und in einen Kundendialog zu treten, die Nutzung seitens der Unternehmen sah in Social aber hauptsächlich einen weiteren Sende Kanal.

Voraussage:

Spätestens in 2012 wird Social ein maßgeblicher Baustein erfolgreicher Suchmaschinenoptimierung. Google wird das eigene Soziale Netzwerk Google Plus weiter pushen, vielleicht auch durch eine geschickte Verknüpfung mit Chrome, der 2012 der meist verwendete Browser sein wird.
Einfacher kann es für Google nicht mehr werden, die Präferenzen der Nutzer zu verfolgen und auszuwerten. Wobei Auswerten auch ein gutes Stichwort ist: Seit einigen Wochen kann Google Ajax crawlen und damit auch Kommentare in Facebook und Co. Demnach werden shares, likes, und +1´s ein wichtiges Ranking Signal. Denn:

Nutzerverhalten

Google hat eine ziemlich genaue Vorstellung davon, wie lange sich Besucher auf einer Seite aufhalten, wie viele Seiten betrachtet werden und ob der Nutzer schnell zu Google zurückkehrt und eine neue Suchanfrage startet. Durch die Verwendung von Analytics, Google Konten und Chrome wird das Bild noch schärfer.

Voraussage:
Google möchte nach wie vor den Nutzern das beste Ergebnis liefern.
Panda zielte in die Richtung und kommende Algorithmus Änderungen werden in eine ähnliche Richtung gehen (s. auch #3). Umso mehr “softe” Daten Google auswerten kann, um so weniger wird die Suchmaschine auf harten Fakten wie Backlinks und Linkprofil angewiesen sein.
Synergie aus User Experience und SEO werden weiter in den Fokus rücken. Für den Bereich Online Shopping rechnen wir mit einer Bewertungsplattform seitens Google in den nächsten zwölf Monaten, die es Google erlauben wird reliabel die Zufriedenheit von Online Käufern zu erheben.

Beyond Linkbuilding

Der Link ist nach wie vor Googles liebste Währung, wenn es darum geht die Popularität einer Webseite zu bestimmen. Dementsprechend beruht Suchmaschinenoptimierung nach wie vor zu einem gesunden Teil auf Linkbuilding.

Voraussage:
Wir werden an dieser Stelle nicht den xten Tod von SEO ausrufen, aber unserer Meinung nach wird der Link als Ranking Signal an Stärke verlieren. Wie schon unter #1 bzw. #2 beschrieben bieten sich Google mittlerweile bessere Parameter, um zu bestimmen, ob eine Seite die gewünschten Informationen für Nutzer bereit hält. Natürlich werden Links von vertrauenswürdigen Webseiten auch im Jahr 2012 durchschlagen, sofern die umgebenden Faktoren stimmen, aber nicht mehr so deutlich wie noch 2011 und davor.

Bonus Voraussage:

Google wird 2012 weiter in den eCommerce Bereich drängen. Aktuell erwirtschaftet Google den Großteil des Umsatzes durch Werbung. Global Player wie Amazon und Facebook, die vom restlichen Internet losgelöste Ökosysteme etablieren bedrohen damit nachhaltig Googles Einkommensquelle Nr.1.
Google wird versuchen sich unabhängiger von der Werbung zu machen und am direkten Online Shopping mitzuverdienen. Der einfachste Schritt wäre Google Shopping in ein kostenpflichtiges Angebot zu wandeln.

Auch Google Wallet wird eine größere Verbreitung als Payment Anbieter finden. Dabei wird Google kein neues Ökosystem, analog zu Amazon, schaffen, sondern sich verstärkt auf die lokalen Händler (brick & mortar) konzentrieren und Angebote schaffen, die es ermöglichen On- und Offline Shopping weiter zu verknüpfen.

Quelle:wds7.at

Google Algorithmus Updates


Google ist und bleibt einer der beliebtesten Suchmaschinen weltweit. Viele Online Unternehmen sind bereits schon von dem Google Algorithmus abhängig. Der Google Algorithmus ist das Set von Regeln und Ausdrücken die bestimmen, wie eine Website in den Google Suchergebnissen positioniert wird. In einfachen Worten gesagt, wenn ihr nach einem beliebigen Keyword sucht (in dem Falle jetzt „SEO Entwicklung“), wird dieser Algorithmus die Platzierung der Suchergebnisse bestimmen. Für jedes Online Geschäft und für jeden Blogger ist es enorm wichtig ein Auge auf die regelmäßigen Google Algorithmus Updates und Veränderungen zu werfen.

Google ist einer der Suchmaschinen, die ihren Algorithmus so oft verändern, dass es für manche Leute schwierig ist, die Updates nach zu verfolgen. Der offensichtlichste Grund für diese häufigen Änderungen ist der Kampf gegen Spam und den Black Hat SEO Techniken.

Die meisten Veränderungen sind gering, aber jedes Jahr finden etwa 500 bis 600 solcher Veränderungen statt. Selbstverständlich gibt es auch größere Algorithmus Updates, die Google alle paar Monate durchführt. Die Infografik, die ich euch hier vorstellen möchte zeigt euch in einer sehr überschaulichen Art und Weise, wie viel der Algorithmus seit der Entstehung von Google geändert hat.

Einige dieser großen Updates sind sicherlich das „Caffeine Update“, das „Panda farmer, die query encryption und viele mehr. Bisher haben SEO Gurus ihren Kopf noch über dem Wasser halten können,
doch Google wird von Zeit zu Zeit dafür sorgen, dass auch diese Aufgabe schwieiriger wird. In der Infografik könnt ihr sehen, was alles diese kleinen und großen Google Updates getan haben und wie sie die SEO Welt beeinflusst haben.

Google Algorithm Updates

Klickt auf das Bild, um es in voller Größe anzuschauen. Das letzte Google Panda Update geschah am 27. Februar 2012 und verlief unter dem Namen Panda 3.3.

Die Leute, die in den letzten Jahren einen erheblichen Rückgang ihres Traffics erleben mussten, sollten ihre Augen auf folgende Google Panda Updates werfen.

Google Panda Update Timeline

  1. Panda 1: 23. Februar 2011
  2. Panda 2.0: 11 April 2011
  3. Panda 2.1: 9. Mai 2011
  4. Panda 2.2: 21. Juni 2011
  5. Panda 2.3: 23. Juli 2011
  6. Panda 2.4: 12. August 2011
  7. Panda 2.5: 28. September 2011
  8. Panda 3.0: 13. Oktober 2011
  9. Panda 3.1: 18. November 2011
  10. Panda kleineres Update: 19 Dezember 2011
  11. Panda 3.3: 27. Februar 2012

Wie man der Timeline entnehmen kann, wird jeden Monat etwa ein Google Algorithmus Update durchgeführt. Die Google Panda Updates wurden an den oben genannten Terminen durchgeführt
,welche einer der beliebtesten Google Algorithmus Veränderungen ist, de in den letzten Jahren passiert sind. Seit der Google Panda am 23. Februar 2011 ins Leben gerufen wurde hat er bereits 12% der Suchmaschinen Ergebnisse beeinflusst und hat so viele Spieler aus ihren Geschäften geworfen, obwohl es zur gleichen Zeit anderen Leuten sehr geholfen hat.

Anstatt nach jedem Google Panda Update & Google Algorithmus Update Änderungen an eurer Website vorzunehmen, wäre mein Vorschlag an euch, eine qualitativ und hilfreiche Website zu gestalten. Kümmert euch um alle Faktoren, die On-Site SEO, Keyword Recherche, On-Page SEO, Link Building, Social Media Promotion, Website Usabilty, Web-Design und weiter umfassen.

Seo-Prognose 2012 – alles wird besser … (oder schlechter)


Seo-Prognose 2012

Seo-Prognose 2012

Nachdem Julian mit seiner Seo Prognose für 2012vorgelegt hat und Karl gezeigt hat, was keine Marketing-Trends 2012sind, möchte ich auch einen Ausblick auf der verheißungsvolle Seo-Jahr 2012 geben. Ich denke, dass folgende Jahr wird in die Geschichtsbücher eingehen. Selten waren die Voraussetzungen so ideal für tiefgreifende Veränderungen, emporstrebende Lichtgestalten, ungeahnte Entwicklungen und überhaupt. Ich bin mir ziemlich sicher, dass alles so kommen wird:

Januar 2012

Relaunch bei Facebook: die timeline wird in die rechte untere Ecke verschoben, im zentralen Bereich sind nun Anzeigen platziert. Man kann nun nicht nur die Namen, sondern auch Interessen von Personen taggen. Für jeden Tag zahlt facebook 10 Cent – ein neues Business schießt aus dem Boden. Der neue Dienst “sell-my-friend.com” gewinnt über Nacht 20 Mio neue Mitglieder.

Februar 2012

Google veröffentlicht ein neues Algo-Update mit Namen “SeoRaptor”. Seiten mit Werbung im sichtbaren Bereich werden nun ohne Gnade aus dem Index gekegelt. Drei Wochen später wird das “SeoRaptor”-Update allerdings nach Rücksprache mit der Adwords-Abteilung wieder zurückgenommen. Versehentlich stürmen anschließend massenhaft Facebook-Fanpages bei fast allen Keywords an die Spitze der Google-Suchergebnisse.

Aufgrund einer Datenverkehrsstauung – die, wie sich erst später herausstellt, von Familienministerin Köhler mit Hilfe einer Bundestrojaner-DDoS-Attacke initiert wurde – ist Deutschland für fast 5 Tage offline.

März 2012

Bei der Seo Campixx kommen leider einige Kollegen ums Leben. Das Entertainment-Programm zugunsten des Seo-Witwen-Vereins ist doch etwas zu progressiv. Der Wettbewerb “Sprung vom 10 Meter Turm” floppt, weil kein Wasser im Pool ist. Nach dem dritten Teilnehmer wird das Spiel beendet. Ansonsten ist die Veranstaltung ein Bombenerfolg. Mit 123 parallelen Workshops am Samstag nachmittag wird ein neuer Seo-Konferenz Rekord für die Ewigkeit aufgestellt. Leider waren davon 119 unbesucht, weil mediadonis mit dem Thema “Kings of Links – 10.000 Links für 1 Euro vs. 1 Link für 10.000 Eur” die Massen einfängt.

April 2012

Sascha Pallenberg deckt einen unfassbaren Skandal auf: Deutsche Blogger tauschen Links! Spon, taz und tagesschau springen auf die Story auf – “Tauschgate” führt zu einem nie gesehenen gegenseitigem Blog-Bashing, in dessen Verlauf das Konzept der Blogroll als Weltverschwörung enttarnt wird. Wem kann man eigentlich noch trauen? fragt sich die aufgewühlte Öffentlichkeit. Erst durch das beherzte Eingreifen von Bundespräsident Christian Wulf kehrt wieder Ruhe ein, nachdem Suchmaschinenoptimierer als die schuldigen Ideengeber entlarvt wurden. Die politische Elite debattiert darüber, ausgehende Links unter Strafe zu stellen.

Mai 2012

Revolution am Suchmaschinenmarkt: Microsoft rollt völlig überraschend seine neue Suchmaschine aus. Sie heißt “Bong!” (mit Ausrufezeichen). Begeistert wird der “Google-Killer” von der Fachwelt hochgelobt. Alles ist schicker und moderner, gefühlt noch schneller – am Algorithmus hat sich aber nichts geändert. (Die Namensrechte hat Microsoft übrigens vom “Bösen Seo” gekauft, der daraufhin Rocket übernimmt 😉

Juni 2012

Apple Logo new

Apple Logo new

Google reagiert auf Microsofts neue Konkurrenz-Suchmaschine “Bong!” mit einem geschickt lancierten Bong!-Skandal. Wie Danny Sullivan aufdeckt, werden die Bong!-Ergebnisse händisch in China erstellt. Die Fachwelt ist entsetzt und lässt das bejubelte Bong! fallen. Aufmacher im Spiegel: “Bong! und der Sack Reis!”

Apple und Adobe gehen zusammen. Der Photoshop-Hersteller setzt ein überarbeitetes Logo durch.

Juli 2012

PageRank 10 für alle Seo-Websites! Riesenfreude weltweit: alle Websites, die irgendwo das Keyword “Seo” stehen haben, bekommen einen pageRank 10 in der Google-Toolbar. Ohrenbetäubender Jubel erfüllt die Seosphäre und der Champagner fließt in Strömen, bis … – bis am nächsten Tag im offiziellen Google-Blog zu lesen ist, dass der pageRank ab sofort abgeschafft wird. Stattdessen führt Google einen neuen “Anti-SeoRank” ein: jede Website, die das keyword “Seo” auf der Seite stehen hat, wird algorithmisch um 100 Plätze nach hinten geschoben. Die Suche nach dem Keyword “Seo” zeigt auf den ersten 10 Seiten nur weiße Seiten.

August 2012

Google+ launcht ein neues Feature: “Die Suche nach der Nadel im Heuhaufen“. Dabei kann man ein Fotos seines Arbeits- oder Wohnzimmers direkt mit dem Handy hochladen und den gesuchten Gegenstand eingeben: der wird dann via +Crowdsourcing im Bild markiert. Schöner Nebeneffekt für Google: die reale Lebenswelt der User kann Produkten viel effektiver zugeordnet werden.

September 2012

Searchmetrics übernimmt Seomoz. Für Kenner der Szene war dieser Schritt keine Überraschung, nachdem Bong!  im großen Stil bei  Searchmetrics eingestiegen ist. Sistrix reagiert umgehend, schluckt Majestics und erweitert sein Keywordset über Nacht auf 100 Mio, die stündlich aktualisiert werden. Die große Halali auf dem Toolmarkt beginnt. Sistrix kündigt eine eigene Suchmaschine an…

Google vermietet ab sofort einen Link auf der Startseite der Google-Suche, unter dem Eingabefeld – Kosten: 1 Mio Dollar pro Tag.

Oktober 2012

Wikipedia wird eingestellt. Nachdem Gründer Jimmi Wales über ein Jahr lang vergeblich versucht hat, die Seite durch Spenden am Leben zu erhalten, stand er vor der Frage: Werbung oder nicht! Konsequenterweise hat er sich dagegen entschieden und Wikipedia über Nacht abgeschaltet. Das wirbelt die Serps so durcheinander, dass man später vom legendären “Google WikiRumble” sprechen wird.

November 2012

Datenskandal bei Google: eine unbekannte Hackergruppe hat über 100 Mio. Google+ Profile gehackt und droht mit der Veröffentlichung. Ein Erpresserschreiben wird öffentlich, in dem für jedes Profil 10 Dollar verlangt werden – insgesamt also 1 Bio Dollar Lösegeld. Google steht am Scheideweg und entschließt sich zu zahlen. Um das nötige Kleingeld aufzutreiben, wird youTube an Apple verkauft. Einige Zeit später wird bekannt, dass die Profile sowieso öffentlich waren.

Dezember 2012

Die im März initierte Offline-Attacke von Christina Schröder zeigt Wirkung: Die Geburtenrate schießt in die Höhe. Amazon launcht sein Baby-Tablett, und Bong! sponsort die dazu gehörende Baby-Suchmaschine. Die Schlacht um die Baby-Fanpage zwischen Google+ und Facebook beginnt – und lässt ein spannendes Jahr 2013 erwarten…

SEO Trends im Jahr 2012


Das Jahr neigt sich dem Ende zu und ich werde am 23. aufhören und mir dann eine wohlverdiente Pause bis zum 02.01. geben. Da denke ich, dass ich doch mal ein paar Worte zu dem sagen werde, was 2012 für SEOs wichtig wird.

#1 Userverhalten

Eine der für mich komplett unverständlichen Dinge im Online Business seit Jahren ist, dass Usability in Deutschland immer noch derart stiefmütterlich behandelt wird. Ganz ehrlich: Wenn Ihr einen auch nur halbwegs größeren Online Shop oder eine sonstige große Webseite besitzt, dann macht User Testings oder holt euch am besten direkt einen Usability Experten ins Haus. Ich kann einfach nicht verstehen, wie man monatlich Unsummen in Google Adwords und auch in SEO steckt, aber keinen Cent in Userbefragungen und Conversionrateverbesserungen. Wenn man seine Conversionrate auch nur um ein halbes Prozent steigert, dann macht das bei vielen Online Shops einen erheblichen Betrag aus.

So, Usability ist also schon für sich wichtig genug. Noch dazu wird im Jahr 2012 eine Webseite mit schlechter Usability sehr ernsthafte Rankingprobleme bekommen. Während Google bisher oft beide Augen zudrückte, hat sich das 2011 gewandelt und 2012 wird diese Technik verfeinert werden und Google wird versuchen herauszufinden, ob der zweite Button von Links auf eurer Webseite denn dem User etwas bringt oder nicht. Ich hoffe gleichzeitig, dass das Google Analytics Team weiter an der guten Arbeit dranbleibt und die algorithmischen Änderungen den Webmastern in ihren Analytics Accounts oder den Webmastertools deutlich macht. Denn wenn Google den Webmastern noch genauer sagen kann, was an Ihrer Webseite falsch ist (und damit meine ich nicht Links, das werden sie sicher nicht tun), dann ist allen geholfen: Wir bauen automatisch bessere Webseiten, Google bekommt bessere Landingpages und alle sind happy :-) . Auch der Karl meinte das in seinem Post.

[Ich wurde gefragt, ob ich das hier erwähnen will, klar! Stepstone sucht derzeit einen Mitarbeiter für Usability. Bewerben! ]

#2 Social Media

Ich bleibe dabei: Auch 2012 wird Social Media nur einen sehr geringen Einfluss auf SEO haben. Für einige Branchen freilich wird es immer wichtiger, insbesondere für beispielsweise Nachrichtenseiten. Insgesamt aber werden Triebwerkshersteller und Möbel-Shops auch weiterhin weniger Fans haben als Failblog oder Icanhazcheezburger.com. Ich denke, dass Google einen guten Social Media Score definitiv als ein positives Signal (unter sehr vielen) nimmt, aber manche Branchen sind einfach nicht dafür geeignet. Dazu gehören so gut wie alle Online Shops. Ich habe heute endlich alle Weihnachtsgeschenke beisammen und werde den Teufel tun, diese auf Facebook zu posten. Wenn ich mir ein Bett kaufe ebenso, einen Pullover? GÄHN!

Was die SEO Branche verkennt, ist dass Social Media für SEO zwar wichtiger geworden ist, aber niemals wirklich zum wichtigsten Faktor werden kann. Das könnte sich ändern, wenn Google+ einen durchschlagenden Erfolg hat – aber noch ist nichts in der Hinsicht passiert. Deswegen verstehe ich auch nicht, warum jeder zweite SEO mittlerweile Social Media anbietet, aber niemand Usability (siehe Punkt 1). Naja, man geht eben nach dem Markt…

Dass Social Media insgesamt (abgetrennt von SEO) immer wichtiger wird, das kann man übrigens nicht mehr verneinen.

#3 Google strategisch

Kennt Ihr schon die neue Google.com Shopping Startseite? Nein? Hier ist sie. Oder die Google Flight Search? Dort kann man Flüge suchen. Noch besser ist der Google Public Data Explorer. WieNils immer wieder in seinen erstklassigen Vorträgen betont, muss man als SEO auch ein Auge darauf haben, was Google so plant. Wer zum Beispiel heutzutage ein neues Flugsuche Portal eröffnen will, der sollte sich das ganz genau überlegen. Google wird immer besser darin, Daten zu aggregieren und dann sortiert auszuliefern. So auch bei Google Recipes, wo ich mal nach einem Hähnchengericht mit Worcestersauce, weniger als 300 Kalorien und unter 15 Minuten Zubereitungszeit gesucht habe. Das zum Beispiel ist definitiv nicht der Untergang der Kochplattformen – im Gegenteil. Aber der SEO von Chefkoch.de sollte sich damit auseinandersetzen, auch wenn in Deutschland niemand die Verticals von Google explizit nutzt (bis auf Maps). Trotzdem: Rich Snippets und Meta-Tagging werden wichtiger.

#4 Personalisierte Suche

Wie Marcell in seinem erstklassigen “Trends 2012″ erklärt hat, wird die personalisierte Suche weiter ausgebaut. Alleine schon das “Alle Ergebnisse von http://www.domain.de blockieren” und andere Sachen werden stark einfliessen. Das gehört bei meinem Rückblick stark zu “#1 Userverhalten”, weil diese Ergebnisse nicht nur userbasiert, sondern eventuell auch bald regionsbasiert kommen. Auch in Sachen Linkbuilding gab es erste Andeutungen (Patente von Google), mit denen sie die Herkunft eines Links genauer beurteilen wollten – also braucht man vielleicht in Zukunft nicht mehr nur deutsche oder österreichische Links, sondern welche aus Berlin, Hamburg oder Graz.

Der große Wandel?

Nein, auch im Jahr 2012 wird sich grundlegend nichts an SEO ändern. Es hat sich allerdings schon sehr viel geändert und die Branche bleibt sehr lebendig. Mein Tipp für alle da draussen, die SEO machen: Bleibt am Ball! Wer dieses Jahr gut weggekommen ist, der muss das nicht unbedingt auch im nächsten Jahr. Auf Konferenzen fahren und selbst Nachforschungen betreiben lohnt sich mehr denn je, denn besonders die deutschen SEO Blogs wollen oder können nicht mehr alle Neuerungen vermitteln. Es sind auch zu viele, zu jedem Rankingfaktor gibt es unzählige Sachen zu erzählen.

Wer auf seinem alten Stand stehenbleibt und sich denkt, “Ich brauche nichts mehr lernen”, der wird sich spätestens 2013 umschauen, wo seine Projekte oder Kunden denn geblieben sind. Der Algorithmus verändert sich, die Mitbewerber verändern sich und auch das Internet insgesamt verändert sich. Manche finden das schlecht, ich sehe darin unzählige neue Möglichkeiten.

Was ich schade finde und was sich auch 2011 schon stark abgezeichnet hat, ist der Verlust der “Nerd-SEOs”, die es sonst immer gab: Das waren oft sehr junge Leute, die sich hobbymäßig mit dem Thema beschäftigten. Diese werden immer seltener, an ihre Stelle treten Professionals, die von der Uni gleich als SEO eingestellt werden – und dann nur den berufsbedingten Zugang zur Branche haben, aber leider manchmal wenig Herzblut. Nichtsdestotrotz habe ich 2011 viele neue SEOs kennengelernt, oft alte Bekannte getroffen und hoffe, diese im neuen Jahr auch wieder zu sehen.

Die SEO-Prognosen, Trends, News für das Jahr 2012


In diesem Beitrag möchte ich bewusst keine SEO-Prognosen oder Marketing Trends für das Jahr 2012 abgeben, den das haben schon einige andere gemacht!

Darunter findet man die möglichen SEO-Trends, Online Marketing Trends und eine SEO-Prognose für 2012 zum schmunzeln.

Mehr oder weniger sind auch die No-Go´s bzw. keine Trends für das Jahr 2012enthalten, aber das muss man selber nachlesen, um es zu verstehen.

Sonst wird sich für den Beginn des Jahres 2012 nicht wirklich etwas ändern und wenn eine Veränderung eintritt, dann geschieht das im Internet ziemlich schnell und kann jetzt nicht wirklich vorhergesagt werden…

Prognosen, News und Trends im SEO-Bereich 2012

Genau zu diesen Themen haben Julian von Seokratie, Karl Kratz und der Bilder-SEO – Martin Mißfeldt jeweils einen Artikel geschrieben, wobei mir die SEO-Prognosen für das Jahr 2012 am besten gefallen haben!

Doch ganz langsam und der Reihe nach…

Julian von Seokratie hat noch schnell vor seiner Feiertagsunterbrechung die SEO Trends bzw. seine SEO Trends für das Jahr 2012 in einen Artikel verpackt und kling sehr interessant was er da geschrieben hat!

Dabei geht es um die folgenden Punkte:

  • Userverhalten
  • Social Media
  • Google strategisch
  • Personalisierte Suche
  • Ein Blick auf “Der grosse Wandel?”

PfeilHier geht es zum Artikel: SEO Trends 2012

Karl Kratz hingegen hat (Keine) Online Marketing Trends für das neue Jahr zusammengestellt und wirft einen Blick auf das nahende 2012, wobei es eine etwas ausgefallene Zusammenstellung geworden ist.

Doch zusammengefasst ist es schöner Blick auf Möglichkeiten für das Jahr 2012 und man sollte unbedingt einen Blick auf den Artikel werfen…

PfeilHier geht es zum Artikel: Online Marketing Trends 2012

Zu guter letzt kommen die SEO-Prognosen von Martin Mißfeldt für das Jahr 2012 und diese kann ich wirklich nur empfehlen, da einige Überraschungen dabei sein könnten!

Einzig mit der SEO-Prognose für den Dezember 2012 stimme ich ihm nicht ganz zu und habe in den Kommentaren meine persönliche Prognose für das Ende des Jahres 2012 hinzugefügt.

Das Interessante an der ganzen SEO-Prognose für das Jahr 2012 wird aber erst im Dezember 2012 kommen, wenn wir gemeinsam auf die Prognose zurückblicken und feststellen was eingetroffen ist und was nicht…

PfeilHier geht es zum Artikel: SEO-Prognose 2012

Onpage-SEO Checkliste – Tipps für eine bessere Suchmaschinenoptimierung


Onpage-SEO ist eine der beiden wichtigen Säulen der Suchmaschinenoptimierung (neben der Offpage-Optimierung).

Onpage bedeutet, dass man auf der eigenen Website die Inhalte und Technik so optimiert, dass Suchmaschinen die Website optimal analysieren und bewerten können.

Mehr noch. Man kann durch verschiedenste Maßnahmen die eigenen Inhalte in Google und Co. weiter nach oben bringen und auch die Zahl der Nutzer, die dann auf die eigenen Suchergebnis-Einträge klicken, erhöhen.

Dabei geht es hier aber ausschließlich um erlaubte Maßnahmen, die Google selber auch empfiehlt oder zumindest nicht verbietet.

Onpage-SEO Checkliste

Die folgende Liste zeigt die wichtigsten “Baustellen” für die Onpage-Suchmaschinen-Optimierung. Je mehr man davon optimiert, um so besser sind die Chancen in Google gut gelistet zu werden.

Denn auch wenn externe Links noch immer sehr wichtig sind, vernachlässigen viele die Onpage-Optimierung und verschenken auf diese Weise viel Potential.

Die folgenden Tipps sind natürlich in gewissem Maße subjektiv. Aber aus meiner Erfahrung habe ich diese nach bestem Wissen und Gewissen niedergeschrieben. :-)

  1. Inhalt
    • Wichtig ist zum einen, dass man einzigartige Texte schreibt (Unique Content). Also nicht einfach woanders abschreiben oder Texte sogar kopieren.
    • Desweiteren sollte man sich pro Artikel auf 1 Thema mit 1 Hauptkeyword beschränken. Je fokussierter ein Artikel ist, um so relevanter ist er in Google’s Augen für dieses Thema.
    • Man sollte nicht nur für Suchmaschinen schreiben, sondern besonders auch für Menschen.
    • Achtet auf eine gute Lesbarkeit und eine gute Rechtschreibung (muss nicht perfekt sein).
    • Eine Mindestlänge von 150-200 Wörtern ist hilfreich, damit Google überhaupt was zum analysieren hat. Nach oben hin gibt es eigentlich keine Grenzen, auch wenn man bedenken sollte, dass viele User nicht die Ruhe haben, ewig lange Artikel zu lesen.
    • Regelmäßig veröffentliche Inhalte erfreuen sowohl die Leser, als auch die Suchmaschinen.

    Empfehlung:
    Einzigartige und auf ein Thema fokussierte Inhalte sind die beste Grundlage.

  2. Keywords
    • Pro Artikel sollte man sich auf 1-2 Hauptkeywords konzentrieren.
    • Im Artikeltext sollte man diese Keywords (und Synonyme) mehrmals verwenden. EineKeyword-Density von 3-4% ist Okay.
    • Gibt es mehrere Keywords, die das selbe beschreiben? Dann erstmal im Google AdWords Keyword Tool prüfen, nach welchem häufiger von den Usern gesucht wird.
    • Man sollte immer die Keywords aus der Perspektive der User aussuchen. Nach was sucht die Zielgruppe?
    • Die Hauptkeywords sollte man zusätzlich in den Meta-Tags, der Überschrift, den Bild-Alt-Texten etc. einsetzen.

    Empfehlung:
    Man sollte sich auf wenige wichtige Keywords pro Artikel/Seite beschränken, es mit der Optimierung aber auch nicht zu weit treiben.

  3. Textstruktur
    • H1-H6 benutzen um den Text mit Zwischenüberschriften zu strukturieren.
    • wichtige Keywords können hin und wieder mit <b> oder <strong> hervorgehoben werden.
    • Listen mit <ul> oder <ol> machen den Text leichter lesbar und heben Inhalte hervor.
    • Die wichtigsten Keywords sollte zudem möglichst schon im ersten Absatz vorkommen.

    Empfehlung:
    Eine gute Text-Struktur erleichtert nicht nur das Lesen, sondern sorgt auch für Hervorhebungen wichtiger Textinhalte und Keywords.

  4. Duplicate Content
    • Es wird sich darüber gestritten, ob ein Canonical-Tag notwendig ist. Dieser von Google eingeführte Tag soll definieren, was die primäre URL eines Artikels ist, da in WordPress und auch anderen Software-Lösungen die selben Artikel durchaus mit mehreren URLs aufrufbar sind.
    • Ich setze den Canonical-Tag allerdings nicht ein und habe bisher keine negativen Auswirkungen spüren können.

    Empfehlung:
    Bei einem neu gestarteten Blog schadet es sicher nicht, den Canonical-Tag einzusetzen. Das Plugin wpSEO* und auch andere SEO-Plugins erzeugen diesen Tag automatisch.

  5. Meta-Tags
    • Die Meta-Tags stehen im Header einer Seite und sind nur für Suchmaschinen etc. sichtbar.
    • Der Title-Tag ist aus SEO-Sicht sehr wichtig und er wird in den Suchergebnissen als großer blauer Link bei den Suchergebnissen dargestellt (siehe Screenshot).
      Title - Onpage SEO
      Damit sorgt er nicht nur für ein besseres Ranking, sondern muss auch so attraktiv und interessant sein, dass er die Google-Nutzer zum Klicken anregt.
      Im Title-Tag sollten natürlich auch die wichtigsten Keywords drin sein. Natürlich aus SEO-Gründen, aber auch weil diese dann fett markiert werden, wenn jemand in Google danach sucht (siehe Screenshot)
    • Die Meta-Description hat heute zwar nicht mehr so starken Einfluss auf die Suchmaschinenoptimierung, aber auch diese ist wichtig. In den Google Suchergebnissen wird diese ebenfalls angezeigt und beeinflusst damit natürlich auch die Klickrate.
      Description - Onpage SEO
      Auch hier sollten natürlich die wichtigsten Keywords vorkommen und die Description sollte neugierig machen und zum Klicken anregen.
    • Der Meta-Tag Keywords ist rein SEO-technisch nicht mehr relevant. Ich befülle ihn trotzdem, da er einfach dazu gehört. :-)
      Zudem hängt wpSEO bei mir automatisch die Keywords an den Title mit an. (Hier findet ihr meine aktuellen wpSEO-Einstellungen.)
      Mein fertig generierter Title sieht dann so aus: “eingegeber Title > Kategorien > Keywords”
      Die Keywords sieht man dann in der Regel nicht in den Suchergebnisseiten, aber SEO-technisch hat sich dieser Aufbau positiv ausgewirkt.

    Empfehlung:
    Man sollte Title, Description und Keywords für jeden Artikel manuell eingeben und die wichtigsten Keywords in allen dreien einbauen. Zudem sollte man für jede Seite unterschiedliche Meta-Tag-Angaben machen und nicht überall das selbe benutzen. Das ist ein Fehler den viele Anfänger machen. Zudem sollte man es mit der Länge nicht übertreiben und z.B. nicht 50 Keywords eintragen.

  6. Bilder
    • Bilder sollte man generell verwenden, da sie das Leseerlebnis verbessern und auch für zusätzliche SEO-Möglichkeiten sorgen.
    • Der Dateiname des Bildes sollte die wichtigsten Keywords enthalten.
    • Den Alt-Text sollte man unbedingt nutzen und auch dort eine lesbare und kurze Beschreibung des Bildes mit den wichtigsten Keywords hinterlegen.
    • Der Title-Text kann verwendet werden, hat aber wohl keine großen SEO-Auswirkungen.
    • Aber bitte darauf achten, dass ihr keine Urheberrechte bei den Bildern verletzt.

    Empfehlung:
    Ich verwende gern Bilder und nehme mir auch die Zeit, den Dateinamen und den Alt-Text passend auszuwählen.

  7. interne Verlinkung
    • Eine interne Verlinkung ist sehr wichtig, um verwandte Themen zu verbinden und so einzelnen Seiten mehr Relevanz zu verleihen.
    • Zum einen sollte man manuell aus neuen Artikeln auf passende alte Artikel verlinken.
    • Man sollte auch immer wieder alte Artikel mit Links zu neueren passenden Artikeln ausstatten.
    • Ein “Ähnliche Artikel”-Plugin verlinkt automatisch X thematisch passende Artikel. Ich nutze dafür das Plugin “Yet Another Related Posts Plugin“
    • Zudem sollte man die Hauptnavigation einfach nutzbar und sofort sichtbar einbauen. Von Flashspielereien sollte man absehen.
    • Eine Auflistung der Kategorien z.B. in der Sidebar ist auch sehr nützlich, da jeder User einen anderen Interessenschwerpunkt hat und so direkt zu relevanten Artikeln gelangt.
    • Ich habe nach einer Weile auch sogenannte Sneeze Pages eingeführt. Darin sammle ich zu einem Thema die besten zeitlosen Artikel. In einem Blog mit hunderten oder sogar tausenden Artikeln ist es sonst für neue Leser schwer, die “alten Perlen” zu finden. Und aus SEO-Sicht macht so eine zusätzliche Verlinkung natürlich auch Sinn.
    • Will man einen Artikel besonders in Google puschen, so verlinkt man von mehreren anderen thematisch passenden Artikeln und auch der Startseite auf diesen Artikel.
    • Man sollte nicht immer mit dem selben Ankertext (häufig die Artikel-Überschrift) verlinken, sondern diesen variieren. Also zum Beispiel die wichtigen Keywords des Zielartikels als Linktext verwenden.

    Empfehlung:
    Man sollte passende Artikel verlinken und auch darauf achten, dass nicht jeder Leser den Blog gleich nutzt. Der eine nutzt die Suchfunktion, einer die Kategorien und einer klickt auf die ähnlichen Artikel. Deshalb sollte man verschiedene interne Verlinkungen anbieten.

  8. externe Verlinkung
    • Viele trauen sich nicht nach außen zu verlinken. Das ist aber Quatsch.
    • Zum einen sollte man ruhig auf thematisch passende Artikel in anderen Blogs verlinken. Die eigenen Leser wissen es zu schätzen, wenn man nicht nur gute Inhalte, sondern auch weiterführende Links anbietet und dann kommen Sie auch gern wieder.
    • Und auch Google sieht gut verlinkt Blogs gern. Denn das Internet ist keine Einbahnstraße. Und wer nicht nur thematisch passende Links bekommt, sondern auch thematisch passende Links nach Außen setzt, tut auch was für die SEO.
    • Man sollte es nur nicht übertreiben (hunderte externe Links auf einer Seite fallen Google durchaus negativ auf) und auch nicht z.B. aus “Geld verdienen”-Gründen bezahlte Links auf völlig themenfremde Seiten setzen.

    Empfehlung:
    Das Web lebt von der Verlinkung und man sollte nicht damit sparen. Dieser Linkgeiz ist nicht nur Blödsinn, sondern auch kontraproduktiv.

  9. URLs
    • In WordPress kann man statt einem Link mit einer Nummer, einen sogenannten Permalink erzeugen. Das sind “sprechende” Links, die Keywords enthalten. Das ist sowohl aus SEO Sicht von Vorteil, als auch für die Leser.
    • Und in den Google Suchergebnissen wird die URL auch angezeigt:
      URL - Onpage SEO

    Empfehlung:
    Sprechende URLs sollte die Standardeinstellung sein und dann muss man sich auch um nichts mehr kümmern.

  10. Technik
    • Das Thema Ladezeiten wird immer wichtiger. Deshalb sollte man mit loads.in oder anderen Tools testen, wie lange die eigene Seite lädt.
    • Durch verschiedene Maßnahmen kann man die Ladezeiten verbessern. Kleine Bilddatei-Größen, weniger Bilder, weniger Datenbankintensive-Plugins, Seiten-Caching usw.
      Auf Blogprojekt.de wird es bald eine große Serie zur Ladezeit-Optimierung geben.
    • Man sollte auch darauf achten, dass der HTML- und CSS-Code nicht zu viele Fehler enthalten.
    • Ladezeit-intensive JavaScript-Dateien sollte man erst am Ende der Seite laden.
    • Der neue asynchrone Google Analytics-Code bremst nicht mehr das Laden einer Seite.
    • Man sollte zudem seine Software (z.B. WordPress) regelmäßig aktualisieren, um keine Sicherheitslücken offen zu lassen. Wenn man sich Malware oder ähnliches einfängt, dann kann das auch negative Auswirkungen auf das Ranking haben.

    Empfehlung:
    Auch wenn man sich mit HTML und Co. nicht so auskennt, sollte man dafür sorgen, dass die eigenen Seiten schnell und möglichst fehlerfrei sind.

  11. Webspace/Server
    • Wer am Webspace spart, der spart an der falschen Stelle. Man kann sicher klein anfangen und für ein paar Euro pro Monat seine Website oder seinen Blog hosten. Aber wenn die Besucherzahlen steigen und die Seiten langsamer laden oder sogar hin und wieder nicht erreichbar sind, sollte man auf einen besseren Webspace wechseln. Bei mir hat der Wechsel auf einen Server über Nacht rund 10% mehr Besucher gebracht und langfristig die Grundlage für weiteres Wachstum gelegt.
    • Man sollte bei der Wahl des Anbieters darauf achten, dass ein möglichst kostenloser und automatischer Transfer in höhere Tarife möglich ist. So hat man später keinen Stress und die Nichterreichbarkeit der eigenen Website während des Umzuges ist relativ gering.
    • Manche wählen auch Webspace aus dem Auslands. Oft erhöhen sich dadurch aber die Antwortzeiten des Servers und damit auch die Ladezeiten.

    Empfehlung

  12. Der erste Webspace muss nicht teuer sein, aber man sollte auf ein paar Dinge achten und später dann auch in höhere Tarife umziehen, wenn die Besucherzahlen steigen.
  13. Usability
    • Google möchte den Usern das bestmögliche Nutzererlebnis bieten. Das bedeutet auch, dass z.B. die Bounce Rate ein Ranking-Faktor ist. Damit sind User gemeint, die sofort wieder einen Blog/Website verlassen, weil der erste Eindruck nicht gut ist, ihnen störende Werbung entgegen schlägt oder auf eine andere Art und Weise die Usability schlecht ist.
    • Deshalb hat die Usability der eigenen Seiten auch Einfluss auf das Ranking in Google.
    • Mehr zum Thema Usability kommt hier im Blog später in einem Artikel.

    Empfehlung:
    Wer dafür sorgt, dass das Erlebnis der User auf den eigenen Seiten positiv ist, der bekommt z.B. mehr Backlinks, Tweets und längere Verweilzeiten. All das hilft auch aus SEO-Sicht.

  14. Domain
    • Die Domain ist nicht mehr so wichtig, wie sie das vor vielen Jahren war. Damals hat man allein für die in der Domain enthaltenen Keywords sehr gut gerankt.
    • Trotzdem wähle ich auch heute noch meine Domains so aus, dass wichtige Keywords möglichst drin vorkommen. Es hilft halt doch noch ein wenig.
    • Zudem sollte die Domain gut lesbar sein und die Leser sollten sie sich auch merken und buchstabieren können.
    • mehr als 1-2 Keywords sollte man aber nicht in die Domain packen, da dies dann schon wieder spammig aussieht.
    • Wer eine ältere (passende) Domain bekommen kann, die schon viele Backlinks im Web hat und z.B. durch einen guten PageRank zeigt, dass sie keinen Penalty von Google bekommen hat, kann bei seinem neuen Blog damit für einen guten Vorteil sorgen.
    • Im Nachinein würde ich die Domain möglichst nicht mehr ändern. Man kann zwar Weiterleitungen einrichten, aber etwas Linkkraft verliert man dadurch eigentlich immer. Zudem ist der Vorteil durch einen etablierten Blog-Name/Domain bei Stammlesern dann auch weg.

    Empfehlung:
    Man sollte vorher gut über die Domainwahl nachdenken und auch an die Zukunft denken. Also nicht zu allgemein, aber auch nicht zu eng den Blognamen wählen. Schließlich verändert man sich als Blogger auch mit der Zeit und geht neue Themen an oder lässt alte wegfallen.

  15. sonstiges
    • Es hilft, wenn man eine XML-Sitemap erzeugt, die alle Seiten enthält. Damit findet z.B. der Google-Crawler alle Seiten der eigenen Website/Blog. Für WordPress gibt es das nette Plugin “Google XML Sitemaps“
    • Technischen Blödsinn wie z.B. Frames, sollte man natürlich auch nicht mehr nutzen.
    • Das Social Web wird auch für die Suchmaschinenoptimierung immer wichtiger. Social Buttons (Twitter, Facebook etc.) können deshalb einiges bringen. Aber auch hier sollte man es nicht übertreiben.
    • Bitte auch keine Uralt-Tricks wie etwas weiße Schrift auf weißem Untergrund. Das funktionierte vor 10 Jahren, heute gibt es dafür Penalties.
    • Generell rate ich davon ab, “Black Hat” SEO-Tipps zu verwenden. Diese funktionieren meist nur für eine gewisse Zeit. Wer langfristig Erfolg haben will, der sollte sich auch an die Regeln von Google und Co. halten.

Fazit Onpage-SEO

Es gibt eine ganze Menge kleiner Puzzle-Teile, auf die man bei der Onpage-Optimierung achten sollte. Ein einziges davon wird wohl kaum für große Veränderung im Google Ranking sorgen. Wenn man jedoch möglichst viele davon optimiert, dann bringt dies auf jeden Fall positive SEO-Effekte.

Streitfall “Keyword-Density”

Noch ein Wort zur “Keyword-Density”. Damit ist das Verhältnis von bestimmten Hauptkeywords zur Gesamtwort-Zahl gemeint.

Kommt also z.B. das “Keyword A” 10 mal in einem Text mit insgesamt 200 Wörtern vor, dann handelt es sich um eine Keyword Density von 5% für dieses Keyword.

Früher hat es viel gebracht, einfach das Keyword, für das man ranken wollte, möglichst häufig zu verwenden. Das hat allerdings dazu geführt, dass viele regelrechtes “Keyword stuffing” betrieben haben. Die Texte waren kaum noch lesbar für User.

Auch deshalb hat Google die Bedeutung der Keyword Density gesenkt. Das heißt aber nicht, dass es unwichtig ist.

Man sollte die wichtigen Keywords schon mehrmals im Text einbauen. Ich finde 3-4% einen guten Richtwert, analysiere aber nun nicht jeden meiner Artikel darauf. Es ist mehr ein Bauchgefühl und ich achte mittlerweile einfach unbewusst darauf, dass ich die wichtigsten Keywords im Texte mehrmals wiederverwende.

Man sollte es also nicht übertreiben, aber es darf eben auch nicht so sein wie bei einem der Artikel eines Blog-Coaching-Teilnehmers, der das wichtigste Keyword einmal in der Überschrift verwendet hat, aber überhaupt nicht im Text.

Welche Erfahrungen haben Sie gemacht? Haben Sie Fragen oder Probleme hinsichtlich einer Optimierung Ihrer Inhalte? Als Internetagentur für Ihre Suchmaschinenoptimierung leisten wir gerne Hilfestellung! Kontaktieren Sie uns oder schreiben Sie einen Kommentar, wir freuen uns auf Sie!

SEO Headlines – On Page Optimierung für Suchmaschinen


Die Qualität von Überschriften sowie eine ansprechende Gestaltung von Headlines, Subheadlines und Content spielt nicht nur aus Sicht der inhaltlichen Strukturierung eine zunehmende Rolle – In unserer Reihe „On Page Optimierung für Suchmaschinen – Teil 1“ geben wir praktische Tipps zum Headline Aufbau in Verbindung mit qualitativ hochwertigem Content.

Wie Sie Headlines und Subheadlines richtig einsetzen – mit netupdater® CMS

Das netupdater® Content Management System (CMS) bietet Ihnen für jeden denkbaren Inhaltstyp standardmäßig die Eingabemöglichkeiten einer Headline (H1) sowie einer Subheadline (H2).

Eingabefelder des Redaktionssystems netupdater CMS, zu sehen ist das Feld Headline und Subheadline

Über diese Eingabefelder können Sie Ihre Überschriften als Klartext definieren. Als Hilfestellung gibt Ihnen das System automatisch die dabei zur Verfügung stehende Anzahl von Zeichen für eine erfolgreiche Suchmaschinenoptimierung an.

Über diese Felder hinterlegte Headlines werden bei Veröffentlichung des Inhalts automatisch in entsprechend ausgezeichneten Quelltext übersetzt und im Browser entsprechend Ihrer mittels CSS definierten Gestaltung gerendert.

Durch die korrekte Auszeichnung im Quelltext wird u.a sichergestellt, dass Suchmaschinen (bspw. via Googlebot) sofort erkennen können, um welchen Typ von Überschrift es sich handelt und wie dieser zu gewichten ist.

Eine einfache Eingabe von „Startseite“ als Titel im Feld „Headline“ würde somit im Quelltext wie folgt aussehen:

Quelltext HTML Auszeichnung einer Headline der Ordnung H1

Technische Aspekte

Damit Suchmaschinen eine Überschrift als solche erkennen, muss sie mit den HTML Tags für Überschriften ausgezeichnet werden.

Der englische Ausdruck lautet „headline“ (Kopfzeile) und wird in HTML mit „h“ + eine Zahl von 1 bis 6 abgekürzt. <h1> ist dabei die Headline ersten Ranges, also die wichtigste Überschrift.

Überschriften sind meist die ersten Wörter, die Suchmaschinen auf Webseiten lesen. Daher ist Suchmaschinenoptimierung für Überschriftenenorm wichtig, um diesen mitzuteilen worum es sich auf der Webseite inhaltlich handelt.

Worauf sollte man also bei der Deklarierung von Überschriften achten?

  • 1. Oberste Priorität gebührt dem Sinnzusammenhang zwischen Überschrift und Text (Content)
  • 2. Optimieren Sie Ihre Überschriften indirekt für Suchmaschinen, d.h. formulieren Sie wahrheitsgetreu und passend zur inhaltlichen Thematik. Versuchen Sie dabei aber auch zu berücksichtigen, dass die Überschrift der Suchanfrage eines Besuchers entsprechen sollte (Stichwort: Keyword Optimierung, aber in Maßen)
  • 3. Verwenden Sie Überschriftenformate stets sinngemäß und in absteigender Reihenfolge (h1-h6)

Welche Relevanz hat SEO für Headlines aktuell im Google Ranking?

Für Onpage SEO gilt mehr und mehr qualitativ hochwertiger und authentischer Content – in Verbindung mit entsprechender Aktualität.

Inhalte und Headlines welche bisher lediglich für Suchmaschinen nicht aber für den letztendlichen Rezipienten konzipiert oder gar mit unnötigen Keywords angereichert wurden, werden zunehmend erkannt und radikal im Ranking herabgestuft.

Viel sinnvoller ist es daher, künftig ein organisches Wachstum durch wahrheitsgemäße Gestaltung der Relevanz zwischen Headline und Content anzustreben. Dabei sollte die jeweilige Thematik möglichst umfassend und aus mehreren Standpunkten im Content beleuchtet werden. Mehrwerte gegenüber Mittbewerber-Angeboten sowie ein entsprechend hoher Aktualitätsbezug zeichnen ein optimiertes Angebot aus und sollten idealerweise bereits in die Gestaltung der Subheadline mit einfließen.

Weitere Informationen können Sie den Google Guidelines zur Gestaltung und zum Content entnehmen.

Unsere grundsätzliche Empfehlung:

  • Maximal 5 bis 8 Wörter, fassen Sie die Thematik der Seite kurz zusammen
  • Versuchen Sie Sonderzeichen möglichst zu vermeiden (Umlaute, Bindestriche, Satzzeichen)
  • Keywords maßvoll einsetzen und entsprechend Ihres Suchvolumens passend zum Inhalt wählen
  • Es gibt auf jeder Seite genau EINE <h1>-Überschrift, genau EINE <h2>-überschrift und maximal zwei oder drei <h3> bis <h5>-Überschriften. Zur Strukturierung kann eine <h6> auch weiterhin eingesetzt werden, bringt jedoch hinsichtlich einer Optimierung keinen Mehrwert. Für sonstige Titel denen jedoch noch eine höhere Gewichtung zukommen soll, ist der Einsatz eines <strong>- Tags vorzuziehen

Welche Erfahrungen haben Sie gemacht? Haben Sie Fragen oder Probleme hinsichtlich einer Optimierung Ihrer Inhalte? Als Internetagentur für Ihre Suchmaschinenoptimierung leisten wir gerne Hilfestellung! Kontaktieren Sie uns oder schreiben Sie einen Kommentar, wir freuen uns auf Sie!

Penalty – Google zeigt die Rote Karte


Was ist eine Penalty?

Penalties dienen zur Verbesserung der Qualität der Suchmaschinenergebnisse, indem Webseiten, die gegen die Richtlinien der Suchmaschinen verstoßen, abgestraft werden. Suchmaschinen möchten ihren Index sauber halten, was bedeutet, dass sie Spam-Seiten gar nicht erst aufnehmen möchten und bei der Berechnung der Rankings schlechtere Seiten auch an der dementsprechend schlechteren Position listen wollen. Wer also die Richtlinien missachtet und mit mehr als offensichtlichen Tricks arbeitet, wird irgendwann vom Algorithmus erfasst und bestraft. Wie genau diese Bestrafungen aussehen, werde ich in diesem Artikel noch näher erläutern.

Algorithmische und manuelle Penalty

© seoko.de

Google Penalty Checker

Check a domain for penalties

Powered by Li’l Engine’s Google Penalty Checker

Um handeln zu können und bestenfalls die Penalty aufzuheben, ist es erstmal wichtig zu wissen, wie diese Strafe zustande gekommen ist und was für unterschiedliche Penalties existieren. Hierbei wird zwischen der algorithmischen und der manuellen Penalty unterschieden. Bei der algorithmischen Penalty handelt es sich um Strafen, bei denen ein Crawler automatisch Verstöße gegen die Webmaster-Richtlinen festgestellt hat. Bei einer solchen Bestrafung soll es bereits ausreichen, die Verstöße zu beheben. Sobald der Crawler das nächste Mal auf der Domain ist, erkennt dieser die Behebung und nimmt die Abstrafung automatisch wieder zurück. Bei der manuellen Panalty hingegen handelt es sich meist um größere Verstöße. Sie werden von Googles Webspam-Team veranlasst. Genauer gesagt von einem Quality Rater. Das sind menschliche Gutachter, die Webseiten unter die Lupe nehmen. Sollten bei dieser manuellen Prüfung Verstöße gegen die Webmaster Guidelines festgestellt werden, wird die Seite an das Webspam-Team von Google weitergeleitet. Zusätzlich kann jeder User einen Spam Report absenden, wenn er der Meinung ist, eine Webseite verstoße gegen Googles Guidelines. Sollte eine Webseite zu Unrecht von einer Penalty betroffen sein, kann man einen Reconsideration Request einreichen, der zu einer erneuten Begutachtung der Seite führt. Es gibt drei Arten von Panalties. Die PageRank-Abwertung, die Rückstufung innerhalb der Rankings und die komplette Entfernung der Domain aus dem Index.

  • PageRank-Abwertung: Der PageRank wird in der Regel bei Domains abgewertet, wenn Links verkauft werden, die zusätzlich auch dofollw sind. Da der Einfluss des PageRanks inzwischen allerdings sehr gering ist, beeinflusst diese Abstrafung nicht das eigentliche Ranking.
  • Rückstufung im Ranking: Bei der Rückstufung im Ranking kann dies sowohl auf einzelne Keywords, als auch auf die gesamte Domain zutreffen. Penalties dieser Art sind als -30, -50, etc. Penalty bekannt. Die betroffene Seite ist in diesem Fall also nicht mehr auf den gewohnten Ranking-Positionen zu finden, sondern befindet sich auf schlechteren Positionen, die meist viele Seiten hinter der gewohnten Position liegen. Hierdurch bekommt die Domain logischerweise auch viel weniger Besucher. Diese Penalty lässt sich allerdings schwer bestimmen, da für eine schlechtere Platzierung auch viele andere Faktoren eine Rolle spielen können.
  • Entfernung aus dem Index: Die Entfernung aus dem Index führt zum Verlust des gesamten Traffics, der über diese Suchmaschine kommt. Diese Strafe wird nur bei sehr schweren Verstößen gegen die Richtlinien von Google verhängt.

Fehlerfindung

© seopur.de

Eine Penalty kann die verschiedensten Gründe bzw. Ursachen haben. Damit man schnell handeln und die Penalty wieder aufheben kann, sollte man natürlich wissen, wo man ansetzen sollte. Um zumindest einen groben Überblick darüber zu bekommen, welche Fehler man, bewusst oder unbewusst, gemacht hat, habe ich im folgenden Absatz einige typische Faktoren aufgelisten. Zur Vereinfachung werden diese Faktoren in OnPage und OffPage unterteilt. Zuerst widme ich mich den OnPage-Faktoren. Sollten diese der Grund für eine Penalty sein, dann handelt es sich in der Regel um einen Verstoß, den der Webseitenbetreiber relativ schnell beheben kann.

OnPage

  • Doorway Pages: Eine Doorway Page, auch Brückenseite genannt, ist eine Webseite, die speziell für Suchmaschinen erstellt und optimiert wird. Durch diese Pages wird versucht das Ranking einer Domain ganz gezielt zu manipulieren. In der klassischen Ausführung haben Doorway Pages keinen sinnvollen Content, sondern wiederholen unzählige Male das Keyword, für das sie optimiert worden sind. Folglich sind diese Doorway Pages für den User sinnlos, weswegen sie für diesen auch nicht von der eigentlichen Website aus zugänglich sind. Heutzutage ist es für die Crawler leicht diese klassischen Doorway Pages durch einfache Analysen zu erkennen und meistens werden diese dann auch als Manipulationsversuch gewertet.
  • Keyword Stuffing: Der Name erklärt sich eigentlich von selbst. Es handelt sich hierbei um eine Seite, auf der ein Keyword auffällig oft gennant wird.  Eine extrem hohe Nennung eines Keywords kann als Manipulationsversuch ausgelegt werden und somit zu einer Panalty führen.  Auch das Thema Hidden Text spielt hierbei eine Rolle.
  • © searchenginepeople.com

    Von Hidden Text spricht man, wenn ein Text von einem Besucher nicht gesehen werden kann, zum Beispielt weil dieser in der gleichen Schriftfarbe gehalten ist wie der Hintergrund der Seite.

  • Cloaking: Beim Cloaking werden verschiedene Informationen für die Crawler einer Suchmaschine und die menschlichen Besucher ausgeliefert, obwohl exakt die selbe URL aufgerufen wird. Dies kann zum Beispiel bei der Abfrage der IP-Adresse geschehen, da die Crawler einer Suchmaschine meist von den gleichen IP-Adressen aus die Webseiten abrufen. Hierdurch kann dem Crawler eine für Suchmaschinen optimierte Webseite ausgeliefert werden, während ein menschlicher Besucher etwas ganz anderes zu sehen bekommt.

OffPage

Sollten OffPage-Faktoren der Grund für eine Penalty sein, liegt der Fehler in der Linkstruktur der Webseite. Da es allerdings keine genauen Hinweise von Google gibt, wo sich hier der Fehler versteckt, kann man nur Vermutungen aufstellen. OffPage-Faktoren betreffen die Backlinks einer Webseite. Diese haben nach wie vor den stärksten Einfluss auf das Ranking. Oft entwertet Google aber auch einfach Links, die auf Manipulationsversuche hinweisen, anstatt eine Penalty zu verhängen. Das liegt daran, dass ein Domainbetreiber keinen Einfluss darauf nehmen kann, welche Backlinks er bekommt. Es wäre sonst sehr leicht, die Webseiten der Kokurrenz durch schlechte Links aus dem Index entfernen zu lassen. Trotzdem kann eine schlechte Backlinkstruktur Grund für eine Penalty sein. Einige typische Fehler habe ich deswegen aufgelistet.

  • Anchor-Text: Der Anchor-Text selbst zählt zu den ältesten Ranking-Kriterien und ist nach wie vor von Bedeutung. Das Keyword, auf das optimiert werden soll, wird also oft als Anchor-Text benutzt. Eine natürlich Backlink-Struktur besteht allerdings nicht nur aus Keyword-Links. Vielmehr wird beispielsweise die URL selbst, der Autoren- oder  Domain-Name genutzt. Es ist also auffällig, wenn immer der gleiche Anchor-Text benutzt wird.
  • Linkaufbau: Die Geschwindigkeit des Linkwachstums ist ebenfalls nicht außer Acht zu lassen. Wenn plötzlich innerhalb kurzer Zeit sehr viele neue Links aufgebaut werden, so wirkt dies nicht natürlich. Selbstverständlich wird auch das Auftreten besonderer Ereignisse miteinbezogen. Werden also beispielsweise neue Inhalte veröffentlicht, die so gut ankommen, dass sie schnell und viel verbreitet werden und somit das Linkwachstum ankurbeln, so wird dies – meistens–  nicht negativ beurteilt. Wenn aber, vereinfacht dargestellt, eine Domain normalerweise im Monat um die 10 Backlinks bekommt und dann plötzlich innerhalb von einer Woche 500 Links gesetzt werden, ohne dass auf der Domain etwas verändert wurde, dann widerspricht dies dem Muster des bisherigen Linkwachstums und es besteht die Gefahr, dass diese Links entweder überhaupt nicht gewertet werden oder es zu einer Panalty kommt.
  • Qualität der Backlinks: Sowohl eine auffällig hohe Anzahl qualitativ hochwertiger Links wie auch eine auffällig hohe Anzahl qualitativ minderwertiger Links können Grund für eine Abstrafung sein. Hat man also zum Beispiel nur Backlinks von  Webkatalogen und Social Bookmarks, so liegt der Verdacht auf Linkbuilding nahe. Dies kann wiederum darauf hindeuten, dass versucht wird, das Ranking zu manipulieren.
  • Gekaufte und getauschte Links: Das Kaufen und Tauschen von Links zur Verbesserung des Rankings ist laut den Google Webmaster Guidelines untersagt. Hierbei werden sowohl Domains, die Links offensichtlich verkaufen, als auch diejeingen, die sie kaufen, bestraft. Wie genau Google gekaufte Links algorithmisch bestimmt, ist nicht bekannt. Aber es gibt Faktoren, die auf einen gekauften Link hinweisen. Dazu gehören beispielsweise Verlinkungen auf themenirrelevanten Domains. Wenn also eine Domain, die das Thema Strom behandelt auf eine Mode-Domain verlinkt, so wirkt das doch recht unnatürlich. Auch die Position eines Links ist nicht unwichtig. Ein Link aus dem Footer schreit geradezu „für mich wurde bezahlt!“.
  • Deep-Link-Ratio: Man unterteilt Backlinks meist in Links zur Startseite und Links zu Unterseiten, sogennanten Deep-Links. Das Verhältnis zwischen diesen Backlinks wird Deep-Link-Ratio genannt. Deep Thinking about Deep Linking ist der Titel eines Beitrags von Andi Bruckschlögl, der sich mit genau dem Thema auseinandersetzt und zu dem Schluss kommt, dass eine unausgewogene Deep-Link-Ratio möglicherweise für eine Rückstufung im Ranking verantwortlich sein kann.

Matt Cutts hat vor ziemlich genau einem Jahr in einem Video die Frage beantwortet, wann Penalties wieder aufgehoben werden. Wie bereits erwähnt, ist es hierfür wichtig, wie die Strafe zustande gekommen ist.

Ehrlichkeit währt am längsten

Was soll man also tun, wenn die eigene Domain von einer Panalty betroffen ist? Hierfür gibt es keine Musterlösung. Aber man sollte schnell und bedacht handeln. Alle Links abbauen? Dies ist wohl kaum die Lösung aller Probleme. Die Suchmaschine selbst gibt nämlich nicht Preis, um welche Links es sich handelt. Werden also schnellstmöglich alle Links entfernt, macht Google sicherlich Luftsprünge vor Freunde. Denn hierdurch gibt zum einen der Domain-Betreiber zu, dass er Links gekauft, hat und legt Google zum anderen offen, bei wem. Doch Ehrlichkeit währt bekanntermaßen am längsten. Hat man also wirklich schlechte Links eingekauft, am besten noch von bekannten Netzwerken, die damit handeln, sollte man sich Gedanken drüber machen, ob diese Panalty nicht eventuell verdient ist! Oft trifft es auch die Richtigen. Was also, wenn das der Fall ist? Dann hat Eisy in seinem Artikel die Antwort für euch: „Hört auf Links aus Quellen zu kaufen, aus denen theoretisch jeder schnell kaufen kann. Nehmt die Finger weg von minderwertigen Links. Gebt einige Euro mehr für einen echt guten Link aus!“ Wenn es sich um OnPage-Fehler handelt, sieht das ganze einfacher aus. Denn diese gilt es schnellstmöglich zu reparieren, um die Auswirkungen zu minimieren und aufzuheben. Heißt also, alles beheben, was von Google beanstandet wurde, und dann die Möglichkeit nutzen, die eigene Seite noch einmal überprüfen zu lassen. Wenn alles, was bemängelt wurde, behoben wurde, wird die Seite meist relativ schnell wieder in den Suchergebnissen gelistet bzw. auf alte Plätze hochgesetzt. Einen anderen interessanten Artikel, der sich mit dem Thema Penalty beschäftigt, findet man auf searchengineland.com. Auch dieser  Artikel handelt davon, dass Google offenbar Webseiten bestrafen möchte, die es mit SEO übertreiben. Das hat zumindest Matt Cutts, der Leiter von Googles Webspam-Team, auf der SXSW-Konferenz angedeutet.

Frohe Ostern

Quelle: seo-united.de

Google Rankingfaktoren 2012


 

Heute ist mir ein ganz besonderes Schmuckstück an Infografik unter die Augen gekommen. Nach der spannenden Analyse von Searchmetrics, die bereits die Rankingfaktoren für 2012 aufgestellt haben, hat sich nun auch Martin Mißfeldt vom tagseoblog.de die Mühe gemacht und eine Grafik gebastelt. Und ich muss neidvoll anerkennen, sie ist genial.
Infografik der Google Rankingfaktoren 2012 von Martin Mißfeldt

Diese Infografik zeigt wirklich alles worauf es bei der Suchmaschinenoptimierung ankommt. Alle wesentlichen Punkte sind aufgeführt und perfekt zueinander ins Verhältnis gesetzt. Deshalb kann und will ich euch die Grafik nicht vorenthalten. Ich hoffe, dass ist für Martin in Ordnung und danke ihm in diesem Zusammenhang für dieses Meisterwerk

Alexa Ranking manipulieren


Immer wieder hört man von einem SEO, der berichtet, dass er durch unzähliges Aufrufen seiner Seite, den Traffic respektive das Ranking von Alexa manipulieren könne. Dem möchte ich nachgehen und prüfen, ob dies möglich ist. Es werden 2 VBScripte angewendet, welche die Seite mehrmals am Tag öffnen und interne Seiten aufrufen wird. Der InternetExplorer eignet sich für diesen Test am besten, da er über ein programmierbares Objektmodell verfügt. Um eine Verbindung mit Alexa herzustellen, muss die Toolbar installiert werden (kann direkt von der Seite http://www.alexa.com bezogen werden). Am 14.04.2010 wurde die Domain registriert und begonnen wurde die Testreihe am 18.04.2010.

VBScript 1 – öffnet die Seite 30 mal hintereinandernDim oAppIE
Set oAppIE = CreateObject("InternetExplorer.Application")
Dim objWshShell
Set objWshShell = CreateObject("WScript.Shell")
Dim varSleep
varSleep = 6000
oAppIE.Visible = True
For a = 1 to 30
oAppIE.Navigate2 "http://www.seo-labor.com"
WScript.Sleep varSleep
Next
oAppIE.Quit

VBScript 2 – öffnet die Seite und springt zu den einzelnen KapitelnDim oAppIE
Set oAppIE = CreateObject("InternetExplorer.Application")
Dim objWshShell
Set objWshShell = CreateObject("WScript.Shell")
Dim varSleep
varSleep = 10000
oAppIE.Visible = True
' Bei arrLine(), den Wert der letzten Line eintragen
Dim arrLine(8),x
arrLine(0) = "http://www.seo-labor.com/"
arrLine(1) = "http://www.seo-labor.com/#Einleitung"
arrLine(2) = "http://www.seo-labor.com/"
arrLine(3) = "http://www.seo-labor.com/#Testliste"
arrLine(4) = "http://www.seo-labor.com/"
arrLine(5) = "http://www.seo-labor.com/#Interne_Verankerung"
arrLine(6) = "http://www.seo-labor.com/"
arrLine(7) = "http://www.seo-labor.com/#Alexa_Ranking_manipulieren"
arrLine(8) = "http://www.seo-labor.com/"
For x=0 to UBound (arrLine)
oAppIE.Navigate2 arrLine(i)
i=i+1
WScript.Sleep varSleep
Next
oAppIE.Quit

Alexa Zahlen in der Übersicht

Datum Rank Germany Benutzer Bounce Dauer
14.04.2010 n/a n/a n/a n/a n/a
18.04.2010 22.874.263 n/a 1.0 Pls n/a n/a
19.04.2010 7.328.228 n/a 1.3 Pls 66% 3 Minuten
20.04.2010 4.080.577 187.348 1.2 Pls 58% 6 Minuten
21.04.2010 3.470.391 160.173 1.3 Pls 61% 5 Minuten
22.04.2010 2.770.155 122.792 1.3 Pls 65% 7 Minuten
23.04.2010 2.579.874 111.269 1.4 Pls 67% 7 Minuten
24.04.2010 2.323.130 96.256 1.6 Pls 67% 7 Minuten
25.04.2010 2.201.884 92.311 1.5 Pls 67% 7 Minuten
26.04.2010 2.044.493 82.401 1.5 Pls 65% 6 Minuten
27.04.2010 1.913.438 74.662 1.4 Pls 67% 6 Minuten
28.04.2010 1.876.832 72.915 1.4 Pls 66% 6 Minuten
29.04.2010 1.840.764 71.170 1.4 Pls 67% 6 Minuten
30.04.2010 1.768.799 69.402 1.4 Pls 67% 6 Minuten
01.05.2010 1.639.863 63.674 1.4 Pls 67% 5 Minuten
02.05.2010 1.586.305 59.003 1.3 Pls 68% 5 Minuten
03.05.2010 1.503.298 56.797 1.3 Pls 69% 5 Minuten

Zumsammenfassung der Zahlen -Alexa Ranking manipulieren-

Nach dem Testlauf von 16 Tagen, darf man feststellen, dass sich die Zahlen postiv entwickelten. Die einzelnen Wertungen für das Ranking, konnten jeden Tag an Boden gut machen und einige Plätze überspringen. Die Bounce ging wie erwartet nach oben, da zum Zeitpunkt der Versuchsreihe, nur eine Seite online stand. Die Dauer der Zugriffe sowie die Benutzerzahlen verschlechterten sich.

Quelle: seo-labor.com

Social Media oder Suchmaschinenmarketing


Eigentlich wurde die Frage, ob man sich heute eher auf Social Media oder auf Suchmaschinenmarketing für Traffic- bzw. Leadgenerierung fokusieren sollte,hier im Blog und an anderen Stellen bereits ausreichend behandelt. Ob Marketer oder Personalmarketer, wenn man sich heute online erfolgreich positionieren will, muss man beide Aspekte gleichermaßen im Auge behalten.

Eine gute virale Employer Branding Kampagne, die ordentlich Likes, Tweets und G+s sammelt, ist meiner Meinung nach nur halb so gut, wenn die Karrierepage ( Stellenbörse auf der Webseite), auf der der Suchende letztendlich landen soll, für Sachmaschinen nur schwer oder gar nicht zu erfassen ist. Der virale Effekt verglüht und es bleibt nichts übrig.  Daher ein nochmals besonderer Hinweis an die Personaler – falls in Eurem Unternehmen Bewerbermanagementsoftware mit integrierter Stellenbörse eingesetzt wird, lasst Euch zumindest hier die Suchmaschinenfreundlichkeit bestätigen.  Viele der aktuell verbreiteten Lösungen sind nämlich diesbezüglich Schrott.

Selbstverständlich gilt der Gedanke auch umgekehrt. Eine gut optimierte und indexierbare Karrierseite/Stellenbörse, die keine Interaktionen im Social Web verursacht, verschenkt viel Potential. Dabei kann man mit Kleinigkeiten anfangen. Sind denn Eure Stellen (oder weitere relevante Inhalte)  mit Social Buttons (Likes usw.) versehen?

Falls ja, werdet ihr Euch freuen, dass Google Analytics seit Neuestem erweiterte Möglichkeiten zur Messung und Auswertung Eurer Social Aktivitäten bzw. Interaktionen zur Verfügung stellt. Welche Interaktion wieviele Nutzer gebracht hat, wie lange bleiben sie auf der Seite, was machen sie da, wie konvertieren sie im Vergleich zum Suchtraffic, letztendlich was kosten  sie – sind die Fragen die man jetzt wesentlich einfacher beantworten können wird.

Quelle: wollmilchsau.de, infografik.de

Suchmaschinenoptimierung ist wichtigstes Instrument


Im Vergleich zu anderen Onlinemarketing-Disziplinen spielt die Suchmaschinenoptimierung für deutsche Internetunternehmen die größte Rolle. Das soll auch künftig so bleiben: Die Mehrheit der Firmen rechnet damit, dass die Bedeutung von SEO noch zunehmen wird.

Deutschlands Unternehmen messen innerhalb des Onlinemarketing-Mix der Suchmaschinenoptimierung eine herausragende Rolle zu, ergab eine Studie der Berliner SEO-Agentur Barketing. Auf Platz zwei im Ranking der Onlinemarketing-Instrumente liegt das Suchmaschinenmarketing (SEA).

E-Mailmarketing und Affiliate Marketing folgen mit etwas Abstand dahinter; beides Disziplinen, denen die Unternehmen noch eine hohe Bedeutung zu messen. Kaum von Bedeutung sind derzeit noch Social Media Marketing, Bannerwerbung und Werbung auf Smartphones und Tablets.

Ob mit Shop oder ohne, SEO ist eine die wichtigste Onlinemarketing-Disziplin

Diese Tendenzen werden nach Meinung der Verantwortlichen in den Unternehmen vorerst so bleiben. Lediglich elf Prozent der Umfrageteilnehmer glauben, dass Suchmaschinenoptimierung in Zukunft an Relevanz verlieren wird. Ein knappes Drittel geht davon aus, dass SEO seinen Rank auch künftig behalten wird. Mit 59 Prozent hält es die Mehrheit sogar für wahrscheinlich, dass die Bedeutung von Suchmaschinenoptimierung noch weiter zunehmen wird.

Knapp ein Viertel macht Mobile SEO

SEO zu vernachlässigen kann sich kein Unternehmen mehr leisten. Dennoch gaben elf Prozent der befragten Firmen an, keine Suchmaschinenoptimierung zu machen. Die große Mehrheit von 89 Prozent hat den Stellenwert jedoch inzwischen erkannt. Das zeigt sich auch an den Budgetprognosen: 57 Prozent der Unternehmen wollen künftig mehr Geld in SEO für den Heimatmarkt stecken.

Wer im Internet aktiv ist, kämpft nicht nur mit der regionalen oder nationalen Konkurrenz, sondern steigt unter Umständen in den globalen Wettkampf ein. Allerdings machen nur 38 Prozent der befragten Unternehmen SEO für den internationalen Markt. Die Mehrheit lässt dieses Potenzial noch ungenutzt. In Zukunft wollen aber 28 Prozent der Unternehmen in diesen Bereich investieren.

Die Mehrheit vertraut bei SEO nicht nur aufs eigene Können, sondern lässt das externe Spezialisten machen.

Die Mehrheit vertraut bei SEO nicht nur aufs eigene Können, sondern lässt das externe Spezialisten machen.

Für die meisten deutschen Unternehmen spielt der mobile Kanal noch keine große Rolle –  weder im Marketing, noch für den Abverkauf. Deshalb investiert nur knapp ein Viertel der Befragten in mobile Suchmaschinenoptimierung. Vermutlich wird das auch noch eine ganze Weile so bleiben. Zwar sind immer mehr Verbraucher mit Smartphones und Tablets im Internet unterwegs, dennoch ist die Investitionsbereitschaft in diesen Kanal nicht sehr ausgeprägt. Lediglich 15 Prozent wollen künftig mehr in Mobile SEO investieren.

Bekanntheit ist nicht ausschlaggebend

Bei der Wahl der SEO-Agentur achten Firmen kaum auf Zertifikate oder die Bekanntheit des Suchmaschinenoptimierers. Stattdessen sind Referenzen und Empfehlungen für zwei Drittel der Befragten entscheidend. Auch die Erfahrung einer Agentur beziehungsweise ihrer Mitarbeiter spielt bei der Wahl eine wesentliche Rolle.

Quelle: internetworld.de

Wir helfen ihnen dabei ihre Seite der zeit anzupassen und bringen sie durch langjährige Erfahrung auf die ersten Plätze der Suchmaschinen wir ihre Multimedia Agentur helfen ihnen auch ihre Seite mit den Modernste Features auszustatten so das sie immer auf dem neusten stand im Kampf um Kunden sind.

 

Garantiert spannende Geschichten für Suchmaschineneinträge


Ihr wollt mehr Aufmerksamkeit für euren Blog oder eure Webseite in der Netzgemeinde? Ihr seid davon überzeugt, dass ihr den Usern richtig was zu bieten habt, aber nun ja – kein Schwein schaut vorbei? Dann müsst ihr das schleunigst ändern. Aktive Kommunikation ist das Zauberwort.

Nutzt die vielen Presseportale, die sich im Netz tummeln, und erstellt euch einen E-Mail-Presseverteiler mit den für eure Branche wichtigsten Medien. Startet eine Online-PR-Kampagne in eigener Sache! In einer Pressemitteilung könnt ihr erzählen, was es Neues gibt und warum man unbedingt auf eure Seite klicken sollte.

ABER: Hier kommt es auf die Verpackung an! Es gibt Stories, die holen keinen hinterm Ofen vor. Und dann gibt es Klasse-Geschichten, die vielen anderen Bloggern und Portalen einen Backlink wert sind. Mit wirklich relevanten Inhalten auf eurer Webseite zu einem spannenden Thema und mit einer knackigen Pressemitteilung könnt ihr viel erreichen. So bekommt ihr nicht nur mehr Besucher auf eure Seite, sondern sammelt auf natürliche Weise Backlinks ein. Das nennt man dann auch Content Marketing. Denn: Am Ende findet euch Google auch extrem gut, weil der Algorithmus künftig noch mehr auf die Relevanz der Inhalte setzen wird.

Hier die besten Themen für eine Pressemitteilung:

1. Nutzwertige Listen und „How to“-Ratgeber
Die Cover der Zeitschriften sind voll davon. Warum? Weil die Leser Listen super finden.
10 Tipps gegen die Frühjahrsmüdigkeit
Die 15 besten Steuerspartipps
Abnehmen in 5 Tagen
Reifen wechseln in 5 Schritten

2. Ein Whitepaper
Ist ganz schön aufwendig, aber genau deshalb so beliebt. Kein anderer wird sich die Arbeit machen, sondern lieber darauf verlinken.

3. Eine eigene Studie
Ist immer eine beliebte Meldung. Kostet leider viel Zeit – und wenn man sie in Auftrag gibt, auch viel Geld. Damit die Studie glaubwürdig ist, muss sie auch statistischen Ansprüchen genügen. Auf der anderen Seite ist eine breite Streuung fast garantiert. Redakteure freuen sich immer über diese Art von redaktionellem Futter.

4. Ein neues Produkt oder ein neuer Service
Hier kommt es darauf an, interessant zu beschreiben, was daran WIRKLICH neu und anders ist, warum das Produkt so viel toller ist als das alte. Und warum man es genau jetzt unbedingt kaufen sollte. Je mehr Details desto besser. Preise nicht vergessen und ein schönes Bild anhängen!

5. Saisonaler Aufhänger
Jedes Jahr kommt der Frühlingsanfang, Weihnachten oder die Bikinisaison. Wenn eure Produkte oder Dienstleistung damit logisch und nachvollziehbar in Verbindung gebracht werden können, dann ist der saisonale Aufhänger ein feines Lockmittel für Redakteure. Wer Heuschnupfenmittel verkauft, der kann zum Frühlingsanfang punkten, Fitness-Studios sind im Vorfeld der Bikinisaison gefragt und ein Geschenkefinder hat vor Weihnachten Hochkonjunktur. Aber ein neues E-Commerce-Package-Dingens zu Herbstanfang – gähn!

6. Promi-Faktor
Ihr kennt zufällig einen Prominenten? Und der verwendet auch noch eure Produkte oder euren Service? Dann raus damit. Der Glanz eines Promis färbt immer ab, und eine Meldung ist euch gewiss. Ihr könnt euch aber auch auf eine Person beziehen, die aufgrund ihrer Position glaubwürdig ist. Ein Arzt zum Beispiel, oder ein Pilot, ein Rechtsanwalt, ein altehrwürdiger Firmengründer, ein Start-up-Millionär – was eben zu eurem Produkt passt. Noch besser: Ihr platziert auf eurer Webseite ein umfangreiches Interview und verwendet in der Pressemitteilung Auszüge davon.

7. Veranstaltungshinweise
Ihr plant eine Konferenz, ein Seminar, einen Vortrag. Nun, der Termin an sich ist nicht soo spannend. Also müsst ihr schon ein paar interessante Inhalte preisgeben, damit sich die Blogger und Redakteure damit befassen. Neugier wecken ist das Zauberwort. Wenn ihr es schafft davon zu überzeugen, dass man nach dem Seminar ein besserer, klügerer, schönerer, erfolgreicherer und überhaupt… Mensch ist, dann habt ihr gewonnen.

8. Eine News aus dem Tagesgeschehen
Eine Förderung wird gekürzt oder eingeführt, eine neue Rocklänge ist das Must-Have der Saison, Google hat ein Up-Date herausgebracht: Was hat das mit euch zu tun? Nehmt einen Aufhänger aus dem Tagesgeschehen und beschreibt, wie eure Produkte davon profitieren oder dass sie genau dazu passen. Es gibt Prämiengutscheine für Weiterbildung? Klar, bei euren Seminaren kann man die auch einlösen!

Quelle: virato.de
 
Wir helfen ihnen dabei ihre Seite der zeit anzupassen und bringen sie durch langjährige Erfahrung auf die ersten Plätze der Suchmaschinen wir ihre Multimedia Agentur helfen ihnen auch ihre Seite mit den Modernste Features auszustatten so das sie immer auf dem neusten stand im Kampf um Kunden sind.