Google SandBox?

StartSeite

Mysteriöse Google Filter - der SandBox Effekt.

Der Webmaster Sandkasten, die SandBox von Google.

Der Begriff Google SandBox dürfte jeden Webmaster bekannt sein. Jedoch spätestens bei Definition und Beschreibung des SandBox Effektes scheiden sich bereits die Geister. Für meinen Geschmack wurde der Begriff SandBox in der Vergangenheit durch die Webmaster deutlich überstrapaziert. Für jeden subjektiv gefühlten Ranking Verlust mußte die sandige Krabbelkiste als pauschale Erklärung herhalten. Fehler und Unfähigkeit bei der Optimierung von Webseiten konnten gegenüber dem Auftraggeber mit dem mysteriösen Effekt entschuldigt werden. Jeder Hilferuf bei schlecht rankenden Webseiten wurden in den SEO Foren mit einem einzigen nebulösen Wort beantwortet. Die Existenz der SandBox wurde vom offiziellen Google Sprecher Matt Cutts immer verneint, den Filter Effekt haben aber viele Webmaster real erlebt. Wer die SandBox genau kannte, konnte diese Eigenart des Algo sogar für sich positiv nutzen.

Was ist oder war die Google SandBox wirklich?

Der Google SandBox Filter nimmt die Domain Sichtbarkeit.

Was bezeichnet man als SandBox? Wann und wie schlug der Google Filter zu? Ich möchte es einmal aus meiner Sicht kurz und knapp erklären. Eine neue Domain bewirbt sich aggressiv um kommerzielle Keys. Nach dem wichtigsten Makern bei der Bewertung von Domains, müßte die Webseite rasant aus dem Nirvana auftauchen und Top Positionen belegen. Schneller und aggressiver Angriff auf Top-Positionen sind von jeher klassische Merkmale für SEO Manipulation und Spam. Also ist es folgerichtig, wenn sich Google eine Auszeit oder Bedenkzeit einräumt um die Bewerbung einer Tiefenprüfung zu unterziehen. Das Projekt wandert in die SandBox, verliert über Nacht nahezu die komplette Sichtbarkeit in den SERP. Ein Relaunch einer vormals defakto nicht optimierten Webseite konnte den SandBox Filter ebenfalls aktivieren. Klevere Webmaster nuzten die Zeit des Schattendaseins, um das Projekt von der Konkurrenz unbeobachtet auf den Tag X vorzubereiten. Sie wußten, so sicher wie die SandBox zuschlägt, so sicher kamen betroffene Webseiten auch wieder aus dem Filter. Per Stichtag wurden beim Update tausende Seiten aus den Filtern entlassen. In den Top 10 rappelte es förmlich. Das kollektive Raunen kann man heute noch in den threads der Webmaster Foren nachlesen. Aber gibt es die SandBox noch? Haben nicht schon lange intelligentere Filter die vormals leicht kalkulierbare SandBox abgelößt?

Google PlayPen - Laufgitter oder Traffic Bremse für Webmaster?

Google PlayPen, Webmaster und SEO im Traffic Laufgitter.

Viele erfahrene Webmaster haben das subjektive Gefühl, permanent auf der Stelle zu treten. Trotz qualitativ und quantitv ausgewogenen Wachstum der Webseiten, erfüllt der Besucher Zuwachs nicht gewohnte Erwartungen. Nimmt Google die Webworker etwa an die Leine? Gibt es eine Traffic-Drossel für organische Besucher aus der Google Suche? Wurde die Sandkiste von einer PlayPen, einem virtuellen Laufgitter abgelöst? Quasi ein Keyword sensitiver Traffic Korridor mit limitierten Besucherströmen?

Welchen Sinn würde eine Traffic-Drossel machen?

Gute SERP sollten von ihrem Angebot vielfältig sein, die Wahrung der Diversität ist von entscheidender Bedeutung. Bewertet man eine Webseite ausschließlich nach den Rankingfaktoren, dann würden einige wenige Webgiganten ein unglaublich breites Spektrum an Suchanfragen bedienen. Das wäre sicher ein traumhafter Zustand für den Domain Inhaber, ist aber völlig unakzeptabel und frustrierend für den Suchenden. Folglich muß das Wachstum der SERP Sichtbarkeit gedrosselt bzw. gedämpft werden. Nur wenige Giganten - wie beispielsweise Amazon - werden Dank ihrer hohen User Akzeptanz einen üppigen Traffic Korridor erreichen. Es gibt viele Webseiten in jedem Themen Bereich mit ähnlich hohen SEO Score, nur eine Hand voll der Dienste erreichen dauerhaft hohe Sichtbarkeit. Es wird immer vom Sterben irgend welcher Seitentypen gesprochen. Verbirgt sich nicht dahinter das notwendige Regulativ, eine Überpopulationen oder zu dominante Webseiten auszubremsen. Wer will bsw. die Top 10 der SERP mit Artikelverzeichnissen oder Bookmarkseiten blockiert sehen? Warum soll das Suchvolumen zu einem Themengebiet von wenigen Platzhirschen bedient werden, wenn es eine große Zahl qualitativ gleichwertiger Seiten gibt? Der Wettbewerb allein kann das nicht regeln, wir kennen das aus der Wirtschaft - Monopolisierung, Marktbereinigung und Preisabsprachen. Eine Suchmaschine will aber nicht nur die Marktführer präsentieren, sondern ein möglichst breite diverse Auswahl qualitativ hochwertiger Angebote.

Welche Indizien sprechen für eine PlayPen oder Google Traffic Bremse?

Sprunghafter Besucher Anstieg, Indiz für neuen Traffic Korridor.

Jeder Webmaster wird bestätigen, der Google Algo wird immer dynamischer. Ultimative globale Updates zu einem Stichtag sind eigentlich Geschichte, Veränderungen immer öfter selektiv auf Themen und Keyword Bereiche begrenzt. Dennoch verzeichnen große Projekte erstaunliche Traffic Sprünge. Für mich ein eindeutiges Indiz für die Zuweisung von kleineren oder größeren Traffic Korridoren. Abgesehen von Penalties filtert Google Keywords und Keyword Kombinationen auch bei gesunden Domains. Auch wenn die Webseite beim Monitoring der wichtigsten Keys keine wesentlichen Veränderungen zeigt, können sich massiv die Besucherströme über die Kombinationen rund um die Schlüsselworte ändern. Die Referer aus den Logfiles lassen sich speziell im Longtail mit den aktuellen SERP oft nicht nachvollziehen. Selbst bei einer Suchanfrage werden die Ergebnisse zunehmend dynamisch. Beim durchblättern der Suchergebnisse von einem fixen geografischen Standort aus, erscheint sehr oft exakt die selbe URL aus einer vorherigen Ergebnisseite in der Folgenden wieder. Welche Möglichkeiten sich bei diesem Spiel mit Suchvorschlägen, dem GEO-Targeting, der personalisierten Suche und den vielen verschiedenen Google Datencentern ergeben, kann man nur ahnen.