Die Gründerszene-SEO-Seminare


 Jetzt eines von zwei Tickets gewinnen!

Wie schafft man es, hoch in Suchmaschinen zu ranken, ohne Black-Hat-SEO oder Hunderte von kleinen Praktikanten, die wild Backlinks in Blogs drapieren? Welche Rolle spielt Social-Media beim sogenannten Social-Search? Bei den diesjährigen SEO-Seminaren rund um die Themen SEO-On- und -Offpage, Social-Search und der Kombination von allen dreien werden hilfreiche Praxistipps geliefert. Und zum sonnigen Einstieg in den hoffentlich bald nahenden Frühling verlost Gründerszene zwei Seminartickets zum spannenden Thema Eurer Wahl!

Suchmaschinenoptimierung, SEO, SEO-Seminare, Black Hat SEO, Whits Hat SEO, Seo Seminar Berlin,berufliche weiterbildung, Gründer-Seminar, Gründerseminar, Gründerszene-Seminare, kurse, Online-Seminare, Seminar, seminar beratung, seminar e, Seminar Season Two, seminare, seminare 2012, seminare für existenzgründer, seminare für mitarbeiter, Seminare für Startups, seminare schulung, Unternehmensseminar, Unternehmerseminar, workshop seminare,

Gründerszene SEO-Seminare

White-Hat-SEOLinkbuilding, On- und Offpage-Optimierung, Social-Search & Co. Was im Jahre 2012 Social-Media für eine Rolle bei SEO spielen wird, welche Tipps und Tricks es im SEO-On- und Offpage zu beachten gilt und das Kompaktwissen in unserem Praxistag; das alles ist zu erfahren bei den Gründerszene-SEO-Seminaren! Folglich stellen wir alle vier Seminare plus Inhalt kurz vor.

Als Referent für die SEO-Seminare konnten wir Client Director Jan Borgwardt von LBi gewinnen. Als Verantwortlicher für eine Vielzahl namhafter Kunden weist er nicht nur Detailwissen in den wichtigsten Online-Marketing-Disziplinen auf. Speziell für den Searchbereich, SEO und SEA, plant er immer wieder Kampagnen, die sich durch ihre Anforderungen von den Standards unterscheiden. Auch interne und externe Schulungen gehören zur regelmäßigen Tätigkeit des gelernten Bankkaufmanns und Wirtschaftsinformatikers.

SEO-Onpage – besseres Ranking in Suchmaschinen

Suchmaschinen verarbeiten Sprache. Und das besser, als man denken möchte! Jedoch können die besten Suchmaschinen nichts ausrichten, wenn die eigene Seite redaktionell nicht durchdacht und entsprechend umgesetzt ist. So lernt ihr in diesem Seminar nicht nur Qualitätssignale und deren Auswirkung richtig einzuschätzen, sondern auch hilfreiche Tools und Best-Practice-Beispiele.

Zu den Terminen:

SEO-Offpage – Linkbuilding war gestern

Gute Rankings in Suchmaschinen sind essentiell für ein erfolgreiches Online-Marketing. Doch wie erreicht man diese? Und ist ein Platz 1 wirklich immer das Beste? Wer durch praktische Übungen eigene Linkbuilding-Maßnahmen planen und konzipieren oder zum Beispiel SEO-Agenturen besser überprüfen will, der ist beim Offpage-Seminar bestens aufgehoben.

Zu den Terminen:

SEO und Social-Media: Social-Search: SEO der Zukunft?

Soziale Medien und Plattformen sind für die meisten von uns das “täglich Brot“. Ein einfacher Austausch mit Freunden und Kollegen, Familie und Businesskontakten gehört zu unseren täglichen Bedürfnissen. Suchmaschinen wissen das und wittern hier nicht nur reichhaltige Informationen, weshalb Social-Media eine immer wichtigere Rolle bezüglich Suchmaschinenoptimierung spielen wird.

Zu den Terminen:

Praxistag SEO – Suchmaschinenoptimierung von A – Z

SEO wird zwar immer komplexer, aber nicht unbedingt komplizierter. Wichtig ist es vor allem, Suchmaschinen zu verstehen, um den Überblick zu behalten und dem Wettbewerb eventuell sogar einen Schritt voraus sein zu können. In dem achtstündigen Gründerszene-Praxistag wird daher ein praxisbezogenes Komplettpaket angeboten, in dem keine Frage offen bleibt.

Zu den Terminen:

Ticketverlosung für SEO-Seminare!

An diesem Dienstag gibt es also Sonnenschein und … zwei Tickets zu gewinnen!! Wer Lust auf völlig kostenlose Weiterbildung hat, der schreibe doch bitte unter diesen Artikel, warum gerade er das Ticket dringend nötig hat und gerne gewinnen würde. Ende der Aktion ist Freitag, der 20. April 2012 und der Gewinner wird persönlich benachrichtigt! Good Luck :)!
P.S.: Das vollständige Seminarprogramm mit der langen Liste an Seminaren findet Ihr übrigens auf der Gründerszene-Seminarseite.
Advertisements

Google SEO 2012 – Einblicke in die Hintertüren


Wie indexiert Google Webseiten im Jahr 2011 und wie werden diese bewertet?

Hier ein paar Fakten, die „noch“ nicht öffentlich sind:

Wie scraped Google das Web?

Lasst uns erstmal Google Spiders ( Bots die Content im WWW indexieren ) in 4 Hauptgruppen aufteilen.

  1. Backlink Spiders –  sind die Grundlegensten und die gibt es seit dem es auch Google gibt. Es sind auf irgendeiner Art und Weise Autobahn-Builder für die andern Spiders. Gebaut sind Sie wie Viren – Sie folgen einen Link, dann alle von dieser neuen Seite, multiplitzieren sich selber und dann folgen sie alle von dieser Webseite. Kurz gesagt: Sie lieben es Code und Backlinks zu „essen“. Zurück zu den Servern werden Informationen des <head> geschickt und Backlinks ( Falls kein Wert im <head> zu finden ist, wird zufälliger Content gefiltert und das gibt ein —). Wird man erwischt, wenn man einen toten Link benutzt ( der nirgendwo hinführt ) bekommt man einen Penalty, da in dem Moment ein Spider ausstirbt. Google hasst es wenn man seine Spider tötet.

Die Spider haben auch eine limitierte Anzahl um sich selbst zu reproduzieren ( Limitiert an der Server-Kapazität ), das erklärt warum manche Webseiten die meisten Seiten indexiert bekommen und manche nur 1-2 Unterseiten. ( Es ist möglich, dass es 2 Spiders gibt – Einer für die Meta-Informationen und einer für die Backlinks, unmöglich herauszufinden )

  1. Content Spiders –  sind die Kreation aus der ersten Google Revolution. Die scrapen Content von allen Webseiten. Es gibt ein wenig Erkenntniss, das sie sogar Texte verstehen und identifizieren können. Sie werden wissen ob ein Artikel gespinnt ist, ob ein Artikel über ein Thema ist und ob er relevant zum Webseiten Thema ist. Diese Text Spider sind sehr schwer, es kostet unmengen an Serverlast. Genutzt werden die Backlinks Spider um das Web zu erforschen. Sie lieben ständig erneuerten Content. Sie sind so schwer, so dass sie nicht gezwungen werden wollen jedes mal den selben Text zu scrapen jedes Mal wenn Sie eine Webseite betreten. Wenn man also einen Link löscht, nachdem der Backlinks Spider einen indexiert, bevor aber der Content Spider einen trifft, kann man einen großen Schaden in der SEO erwarten, da sie schwer sind und Google einem einen Penalty verhängt wenn man sie tötet.
  1. Foto Spiders – ein weiterer Effekt der Google Bilder Evolution. Sie lieben Bilder und auf irgendeiner Art und Weiße sind sie in der Lage, Fotos zu erkennen ( Keine details, aber Farben, Strukturen & Muster und ein wenig pornographische Bilder ) und sie lesen Fotos nach relevanten Tags und platzieren diese. Sie fahren auf Autobahnen und nutzten Content Spiders um Informationen über Fotos zu finden.
  1. Video Spiders – ein weiteres Experiment von Google. Diese schlauen Gefährten machen einige atemberaubende Sachen. Bis jetzt haben sie noch keine Möglichkeit Videos selbst zu sehen, so nutzten sie die Informationen von Content Spiders um Videos zu finden und scrapen Thumbnails ( Vorschaubilder ), Tags, Ratings, Kommentare, um zu entscheiden ob es ein gutes oder schlechtes Video ist. Erstellt wurden sie in der Era von YouTube ( Warum braucht Google YouTube? ( Ehemmm…*hust )

Genug über Spider. Nur Google selber weiß wie viele Kreaturen Sie haben.

Über Google Dance:

Was ist der Google Dance?

Kurz gesagt – Jeder Roboter der Google Familie hat genug Power um eine Webseite zu bewerten. Darauf basierend, wird eure Webseite aufsteigen, oder absteigen.

Sagen wir bei einem Maximum von 1.000.000 Punkten starten neue Webseiten mit „0“ Punkten. Nachdem der Backlink Roboter zu Besuch kommt, sieht dieser z.B. das man viele Authoritäts Links hat und gutes OnPage SEO. Also gibt dieser sehr wichtige Spider einem 231.246 Punkte. Man ist auf der Seite 2 in den Google Ranking hiernach.

Jetzt Content Spider. Es hat kein qualitativen Content gefunden. Alles kopiert. Content Spider mögen dies nicht, man bekommt -56.214 Punkte. Nach ein paar Tagen fällt man auf der Seite 17 deswegen.

Jetzt kommt ein weiterer Spider und dieser re-valiiert Ihre Webseite. Manche geben Ihnen ein +, manche ein -. Nach 2 Wochen herumtanzen ( Ihr löscht einige Links, bekommt ein paar minderwertige oder sogar xRumer Russenlinks aus einer schlechten Liste? -13.521 vom Backlink Spider ) Man kommt auf der Seite 3.

Macht das JETZT Sinn?

Was ist die Google Sandbox / Penalty?

Immer wenn man mehr Minuse bekommt, als Pluse, wird man vom Sandbox erwischt ( Als Beispiel, Google findet herauß das man duplicate Content Farmen hat die zu einem Verlinken. Backlinks Spider würden das nicht herausfinden, aber Content Spider hingegen schon ) Penalty? Wenn man urplötzlich einen Verlust in den Rankings aufnehmen muss ( Zum Beispiel von 400.000 Punkten auf 200.000 ) heißt das für Google man hat es vergeigt = Penalty. Zur Erinnerung = Google funktioniert indem es Scripte benutzt. Ihr würdet sagen – es waren nur 10.000 Backlinks von einer frei zugänglichen xRumer Liste, das ist nicht viel! – Google sagt: SPAM.

Warum gibt es nicht einen Spider der ALLES regelt? Simple Antwort = Kosten. Sie können es sich nicht leisten Millionen von Servern zu haben. Deshalb wird die Arbeit auf verschiedenen Robotern verteilt ( Ja ,Google nutzt auch normale Server ).  Dann werden alle Informationen zum Super Netzwerk zurückgeschickt. Übertrieben großes Netzwerk, das einen großen Computer erstellt ( Computer 42? ).

Dieses  Netzwerk berechnet die Positionen, anhand der Punktzahl die Ihr bekommt.

Wie wird bestimmt, ob eine Webseite Authorität hat?

Ziemlich trivial. Positionen auf Google werden von diesen Faktoren bestimmt:

  1. 1. Authorität
  2. 2. Backlinks
  3. 3. Content
  4. 4. Anderer, weniger wichtige Sachen

Was ist Authorität?

Ganz einfach:

2+3+4=1

Ist PageRank noch wichtig?

Ja und Nein. Der Page Rank wurde originell erfunden um die Authorität zu bestimmen. Dies ist es nicht mehr. Es nutzt die einfachste Form von 2 + 3 = 1 um einen Wert zu bestimmten ohne den Wert von +4 ein zu kalkullieren und teilweise neue Updates von „3“ sind hier mit drin, also ist es sehr ungenau.

Ist No Follow zu was zu gebrauchen?

Es ist, aber nicht so viel wie Do Follow Backlinks, da es von Content Spidern gescraped wird, also hat es einen kleineren Wert und es erstellt keine Autobahnen für andere Spiders ( Sie werden nicht erlaubt einzutretten ).

Was ist angesagt in diesen Tagen?

Artikel mit 800+ Wörter Singel Artikel Submissions ( Nur bitte nicht auf 100+ Artikel Verzeichnissen den selben Artikel  SPAMMEN! ), große AUTHORITÄTS Backlinks, Social Backlinks, Virales Marketing, News Feeds, Backlinks aus geschlossenen webseiten ( diese kosten Geld oder es ist schwer dort reinzukommen )

Ist Google intelligent?

Die Menschen hinter Google – EXTREM. Ich kenn einen, der für kurze ein paar Tage bei Google gearbeitet hat. Man kann auf jeden Fall sicher sein, dass die Head Programmierer Millionäre sind – soviel dazu. Google als Suchmaschine – Nein. Es ist nur ein Script und jedes Script hat eine Hintertür. Den einen oder anderen Trick hab ich auch schon gefunden (Unveröffentliche Tricks mein ich icon wink Google SEO 2011   Einblicke in dem heutigem SEO ) Man muss nur „aus der Box rauß denken“.

Die Perfekte Webseite?

Ungefähr 10 Links auf jeder Seite. Externe Links zu Authoritäts Webseiten die irgendwie zur selben Kategorie fallen. Ein paar Videos, 2+ Fotos für jeden Artikel. 80% unqiue Content. Ein paar große Zitate. Nur natürlich wirkende Backlinks. Ein paar Backlinks die zu den Fotos zeigen.  50% aller Unterseiten haben relevante Backlinks. Maximum 40% von Foren Backlinks, 30% Blog Backlinks, 20% Profil Backlinks. Minimum 30% Authoritäts Links. Artikel / Content variiert in der Wortanzahl. Alles von 300+ bis 1.500+. Minimun von 30-40 Wörtern Unique Content auf jeder Webseite.

Quelle:mehr-backlinks.de

SEO 2012: Worauf wir uns im frischen Jahr konzentrieren


Nein, ich schaffe es einfach nicht, Vorausschauen oder Trends aufzuschreiben. Denn das ist doch alles nur Rätselraten. Sinn macht es aber, zum Jahreswechsel die Strategie zu überprüfen und die Arbeitsweise an neue Situationen anzupassen. Neben einigen internen Änderungen (die euch gar nix angehen) hier die Themen, mit denen wir im Vergleich zu 2011 anders arbeiten möchten:

  • (Noch) mehr Contenterlebnis auf die Seiten: Alle Updates im vergangenen Jahr hatten nur eine Richtung: Google möchte den Usern den zum Keyword am besten passenden Inhalt zeigen. Und, hey, das war schon immer so. Dass auch miese Seiten gut ranken können, ist ja nur ein Bug im Google-Algorithmus. Da wir (vor allem für unsere Kunden) langfristig denken, empfehlen wir auch weiterhin und noch stärker, NICHT auf Google-Bugs zu optimieren, sondern die Suchmaschine möglichst zufrieden zu stellen. Und wenn Verweildauer und Bouncerate nun mal wichtige Faktoren sind, prima. Dann erhöhen wir halt das Content-Erlebnis der User mit tollen Überschriften, einer perfekten Content-Strukturierung und lesenswerten Inhalten oder Videos oder sonst was.
  • Präzisere Keyword-Aussteuerung: Alle reden von “Qualitäts-Content” – und bestellen dann doch wieder *irgendwelche* 5-Sterne-Texte für eine Handvoll Euros. Hiermit erkläre ich das Jahr 2012 zum Content-Differenzierungs-Jahr. Es gibt Keywords, die Seiten mit aktuellem Inhalt erfordern. Es gibt Keywords, nach deren Eingabe im besten Falle Seiten mit “Do”-Inhalt erscheinen, die User sollten also etwas kaufen können. Es gibt Keywords, die brauchen nur minimalen Content. Und es gibt Keywords, bei denen muss man seine Tastatur leer schreiben. The Difference makes the Difference!
  • Technische Aufrüstung: Es reicht nicht mehr, einfach eine Seite ins Web zu knallen und mit Links drauf zu zielen. Heute gibt es XML-Sitemaps, Rich Snippets, Anbindungen an soziale Netze, Google Webmaster Tools und Analytics, Feed-Einbindungen, hohe Performance-Ansprüche u.s.w.. Es war zwar noch nie so einfach, eine Webseite zu veröffentlichen – aber noch nie war es so schwer, wirklich alles zu bedenken.
  • Content- und Linkaufbau gehören zusammen: Wenn ich mir die Projekte im vergangenen Jahr anschaue, freue ich mich vor allem über die Kurven der Seiten, bei denen wir die Möglichkeit hatten, Content- UND Linkaufbau synchronisiert zu entwickeln. Ist ja auch eigentlich logisch: Neue Links gibt es immer nur dann, wenn neuer Content entstanden ist. Und neuer Content ohne neue Links wirkt auch irgendwie merkwürdig ;-)
  • Mehr Social Media: Das Thema habe ich lange unterschätzt, weil mir die vielen Krabbelgedanken in Twitter, Facebook und G+ einfach nicht liegen. Aber ich muss zugeben, dass ich auch nicht mehr “ohne” sein möchte. Und wenn ich mir die Herkunfts-Statistiken anschaue, gehören mindestens diese drei sozialen Dienste zu jeder Content-Strategie.
  • Daten, Fakten, Gedanken: Wie haben wir eigentlich vor vier oder fünf Jahren SEO gemacht? Ich kann mir wirklich nicht mehr vorstellen, wie man damals ohne Sichtbarkeits- oder Visibility-Indizes eine Domain bewerten konnte. Oder wie man überhaupt den Keyword-Raum einer Seite definieren konnte. Doch Vorsicht: Tools können auch nicht alles. Man sollte immer wissen, woher diese Daten kommen, was sie sagen und welche Entscheidungs-Optionen man hat. SEO-Tools können die Optimierung auf eine viel höhere Basis bringen – aber ersetzen nicht das Denken.
  • Mehr Projektmanagement: Ein Projekt ist eine zu organisierende Herausforderung, für die knappe Ressourcen, aber ein klares Ziel zur Verfügung stehen. Ohne Ziel keine Richtung, ohne die Kenntnis der Ressourcen und der Risiken kein gutes Ende. Ich habe mir vorgenommen, auch hier im SEO-Book in den nächsten Monaten ein paar Praxis-Tipps aus meiner langen Projektmanagement-Vergangenheit aufzuschreiben.
Quelle:seo-book.de

5 SEO Tipps für Bing


Quelle: bilgicagi.com
 

Ihr habt sicherlich schon aus zahlreichen Quellen über das Internet erfahren , dass Yahoo und Microsoft sich offiziell auf eine Suche konzentrieren, die die Landschaft dieses Feldes verändern wird welche natürlich Auswirkungen auf die meisten SEO’s hat. Hier ist eine Liste von SEO Tipps , wie ihr euch auf die Verschmelzung von Yahoo und Bing vorbereiten könnt.

1. Kontinuierlicher Konzentrat auf Google.

In den letzten Wochen gab es viel Rummel über Yahoo und Bing , doch im Endeffekt bleibt Google der König aller Suchmaschinen. Bing und Yahoo erhalten im Durchschnitt nur 28 % an Suchanfragen.

2. Das Gesetz der Yahoo Suchdienste

Mit dem ersetzten Yahoo Suchalgorithmus von Bing , werden die meisten Yahoo Dienste in Zusammenhang gebracht :

Link Quellen , Yahoo Verzeichnis
Link Daten , Yahoo Seiten Explorer
Plattform für das Suchen von Apps , BOSS und Yahoo Such Monkey
uvm.

Ob die Dienste von Yahoo durch Bing ersetzt werden , wird sich in der nächsten Zeit heraus stellen. Wenn ihr die Vorteile dieser Funktionen nutzen wollt , dann legt am besten jetzt los bevor es zu spät ist.

3. Führt einen Link Research durch

Einer der wichtigsten Yahoo Funktionen die auf den meisten SEO’s und Webmastern berufen ist , wird der Yahoo Site Explorer sein. Dieses Tool bietet eine Ideale Link Information aus allen Suchmaschinen und ist für die Konkurrenz Intelligenz anwendbar.

Wenn Yahoo dieses Tool einstellen sollte , wird sich die Link Building Strategie dramatisch verändern. Obwohl das Einrichten der Webseiten von der Abwesenheit von Public Link Informationen verbessern werden soll, wird es schwierig sein eine neue Webseite zu entdecken und Wettbewerber Links zu kopieren.

4. Optimieren für Bing

Da Bing versucht die Macht von Yahoo zu übernehmen , steuern Yahoo / Bing zusammen rund 25 % bis 30 % der Suchanfragen. Dies stellt eine große Menge an Traffic dar, die ihr nicht auf die Leichte Schulter nehmen solltet. Der Bing Algorithmus wird sich im Laufe der Zeit verändern und mit in der Veränderung wird auch die Yahoo Technologie mit enthalten sein , dennoch könnt ihr eure Webseite mit den folgenden Tipps für Bing optimieren ,

Holt euch eine entsprechende Domain die mit den Suchanfragen übereinstimmt. Bing und Google bieten einen bestimmten Bonus auf Webseiten an , die eine Domain haben die genau der Suchanfrage entsprechen.

Meldet euch bei Bing Webmaster Tools an . Dieses Tool stellt Daten und Einblicke dar , wie Bing eure Webseite durschaut und wie ihr die entsprechenden Optimierung vornehmen könnt.

Suchergebnisse innerhalb von Bing werden immer größer und größer und es werden immer mehr Karten, Videos , Bilder integriert , als wie bei Google. Für mehr Sichtbarkeit müsst ihr versuchen in die oberste Liste zu kommen.

5. SEO ausbauen für die Zukunft

Mit nur zwei großen Suchmaschinen innerhalb dieses Spiels wird es schwieriger für neue Webseiten sein ihren Rank zuu steigern ohne einen riesigen Werbebudget auszugeben. Es kommen immer mehr Barrieren ins Internet und werden von Jahr zu Jahr größer und Suchmaschinenoptimierung wird immer schwieriger für neue Webseiten sein. Also worauf wartet ihr noch ?