Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

würfelt Google?

Arithmos

Erfahrener Benutzer
Registriert
06. Sep. 2007
Beiträge
3.929
Reaktionspunkte
8
In einem bekannten SEO-Forum wird derzeit die Frage diskutiert, ob es bei Google so etwas wie eine Traffic-Drossel gibt. Also ob Google die Höhe des Traffics begrenzt, die eine bestimmte Seite oder ein Google bekanntes Netzwerk von Seiten über Google erhält. Und zwar über die dynamische Veränderung der Suchresultate.

Ich finde das nicht abwegig und habe daher mal über ein paar Tage die Top10 Positionen von 500 wichtigen Keywords bei google.de geprüft.

Bekannt ist in diesem Zusammenhang vermutlich der IndexWatch von Sistrix: https://tools.sistrix.de/iw/

Dort wird aber anscheinend nur untersucht, ob eine Seite in den Top10 ist, oder nicht.

Ich habe aber darüber hinaus auch geprüft, welche Änderungen sich innerhalb der Top10 ergeben, denn schon von Platz1 zu Platz2 ist es ein erheblicher Traffic-Unterschied. Von Platz 10 ganz zu schweigen.

Das Ergebnis:

Innerhalb von nur jeweils 24 Stunden änderten sich mehr als 35% der Top-10 Positionen aller 500 untersuchten Keywords.

Die Änderungen auf den Positionen fielen wie folgt aus

Platz 1: 8%
Platz 2: 15%
Platz 3: 17%
...
Platz 9: 56%
Platz 10: 62%

Nur bei jeweils ca. 80 der untersuchten Keywords gab es keine Änderungen innerhalb von 24h. Bei

ebook
magazine
suchmaschinenoptimierung

änderten sich bis zu 100% der Top10 Positionen.

Aus Anwendersicht begüße ich dieses Verhalten von Google, weil ich nicht glaube, dass die Inhalte der Website auf Position1 grundsätzlich 10mal so viel Traffic verdienen, wie z.B. die der Website auf Postion 3.

Aus Sicht des Projektierers wirft das aber ganz neue Fragen auf - insbesondere auch für diejenigen, die viel Geld in die Inhalte stecken und dann möglicherweise feststellen, dass sie eine dauerhafte Top3 Position oder den entsprechenden Traffic prinzipbedingt gar nicht erreichen können. Das sollte man bei der Kalkulation also vielleicht mal im Hinterkopf behalten...

Gruß
M.
 
Zuletzt bearbeitet:
Hallo Matthias,

bei Nischenkeys und ganz unwichtigen Keys ist dem nicht so,
was darauf schließen lässt, dass die Verschiebungen auf den viel stärkeren Optimierungswahn bei Topkeys zurückzuführen sind.
Ebenso bitte beachten, dass der Algo bei Topkeys generell einen viel kürzeren Bewertungs- und Prüfintervall aufweist und G zudem zig mal am Tag zwischen den DC switcht.
Ebenso tauscht G bei guten Keys bewusst Platzierungen, um die CTR und andere Werte zu vergleichen.


Ich finde also, es hat rationelle Gründe. An eine "Trafficsperre" glaube ich nicht.
Grüße
 
uff sowas ist mir jetzt noch nie aufgefallen.
Ich habe eher feste Plätze und ich prüfe zu diversen Zeiten im Monat.
Es klingt interessant - kann ich aber nicht so glauben.

Ich glaube eher es liegt an der normalen Dynamik.
Bevor wir rätseln ......gib doch mal 2-3 Wörter vor und wir machen 2-3 mal am Tag einen Screenshot.
Da sieht man(n) ja eher woran es liegt.



Falls Du noch Themen für eine Analyse suchst.....ich hätte da einen Wunsch.;)
Wie lang ist der optimale Text.
Also Durchschnitt von Platz 1, Durchschnitt von Platz 2 usw.
Als Key am besten eine Kombination damit die Suche bei Unterseiten landet.
Wenn Du sowas hinbekommst wäre es wirklich interessant.

Beste Grüße

L. ;)
 
Also ob Google die Höhe des Traffics begrenzt, die eine bestimmte Seite oder ein Google bekanntes Netzwerk von Seiten über Google erhält.

Wenn, dann ist es vermutlich eher die Konsequenz, als das Ziel einer bestimmten Maßnahme.
 
Das wäre sinnfrei WhiteLight, bedingt durch die gewiss mehr als 150 Rankingfaktoren, lässt sich der Optimalwert EINES Rankingfaktors niemals rausfinden. Diese Prüfung würde zu falschen Tatsachen führen.
Soll heißen: Sind beim Pole-Position-Kandidaten eine Vielzahl von Rankingfaktoren auf Optimalwerten, kann er gut und gerne auch nur 20% des Optimalwertes für die Textlänge haben.
 
@Sunblind + WhiteLight:
Ich habe die "wichtigsten" generischen Keywords aus meiner Liste genommen. Das mag bei Keywords mit weniger Traffic weniger stark ausgeprägt sein bzw. über längere Intervalle erfolgen. Oder auch gar nicht.

@WhiteLight:
Für den Screenshot könnt Ihr ja mal die drei genannten nennen:

ebook
magazine
suchmaschinenoptimierung

Gruß
M.
 
Zuletzt bearbeitet:
So oder so - finde ich - muss an dieser Stelle mal ein RIESIGES DANKE an Dich ausgesprochen werden, Matthias. Für die Durchführung der Tests an sich, und vor allem weil Du die Ergebnisse Deiner Tests hier öffentlich uns allen zur Verfügung stellst.

Danke!
 
Matthias Du machst wirklich interessante Auswertungen. Gefühlsmäßig würde ich Deine Ergebnisse bejahen. Außerdem finde ich Whitelights Denkansatz sehr interessant, auch wenn die Textlänge bei Topprojekten nicht unbedingt ein gutes Kriterium sein mag, sieht dies bei Minisites auf Nischen anders aus und es gäbe hier bei etwas Überlegen sicherlich auch ein paar verwertbare SEO-Erkenntnisse, die man aus solchen Analysen ziehen könnte. Bei Bedarf mache ich mir auch Gedanken ;)
 
Habt Ihr eigentlich mal darüber nachgedacht was wäre, wenn jeder die gleichen SEO-Erkenntnisse (wie Du es ausdrückst) hätte?
Richtig, es wäre das gleiche Ergebnis als hätte niemand je etwas von SEO gehört.

;)
 
Habt Ihr eigentlich mal darüber nachgedacht was wäre, wenn jeder die gleichen SEO-Erkenntnisse (wie Du es ausdrückst) hätte?
Richtig, es wäre das gleiche Ergebnis als hätte niemand je etwas von SEO gehört.

;)

Ich bin durchaus ein Freund der Statistik und solange sie meinem Menschenverstand und dem Besucher nicht zuwiderläuft, würde ich diese gerne einsetzen. Darüber, dass aus diesen Erkenntnissen, die Matthias aus den Sumaergebnissen ziehen kann, keine goldene Regel angewandt werden kann, sind wir uns wohl alle einig, ebenso wie der geringe Prozentsatz an "Seos", der diesen nun anwenden würde, keinerlei ins Gewicht fällt.

Trotzdem könnte es eine Hilfestellung auf Fragen sein, die man ansonsten nicht beantworten kann.
 
Naja, ihr könnt rechnen und grübeln so lange ihr wollte, solltet ihr mal einige wenige handfeste Fakten herausgefunden haben, wurden in dieser Zeit die Faktoren und Algos wieder 10 mal geändert ;)

(n)ever change a running system
;)
 
Naja, ihr könnt rechnen und grübeln so lange ihr wollte, solltet ihr mal einige wenige handfeste Fakten herausgefunden haben, wurden in dieser Zeit die Faktoren und Algos wieder 10 mal geändert ;)

(n)ever change a running system
;)

Ja ich verstehe Deine Argumentation vollkommen. Man müßte die richtigen Fragen stellen, um wirklichen Nutzen daraus ziehen zu können.

Außerdem wird Matthias was besseres zu tun haben, als solchen Dingen nachzugehen.
 
Naja, ihr könnt rechnen und grübeln so lange ihr wollte, solltet ihr mal einige wenige handfeste Fakten herausgefunden haben, wurden in dieser Zeit die Faktoren und Algos wieder 10 mal geändert ;)

(n)ever change a running system
;)
Einspruch!...die wichtigsten Grundfaktoren sind/bleiben meist unverändert...
Allerdings "erscheinen" einige jetzt etwas anders, bzw. müssen anders angewendet bzw. weiter ergänzt werden...
"Nebenfaktoren" sind derzeit der "Renner"...

grüsse,
engel
 
Einspruch!...die wichtigsten Grundfaktoren sind/bleiben meist unverändert...
Allerdings "erscheinen" einige jetzt etwas anders, bzw. müssen anders angewendet bzw. weiter ergänzt werden...
"Nebenfaktoren" sind derzeit der "Renner"...

grüsse,
engel

Nenn mir die wichtigen und die Nebenfaktoren Thomas, und Du bekommst von mir die goldene Seo-Tastatur ;)
Da ändert sich so vieles..
 
Klar passt es mit den Texte nur zum Teil aber in kleinen Bereichen kommst Du nur mit OnPage immer noch auf die erste Seite. Hier wären 5% mehr oder weniger schon nett.

Bei anderen Dingen interessiert es mich eh nicht - ist ja für die User.
Für mich wäre daher so eine Auswertung wie geschrieben schon interessant.
 
Klar passt es mit den Texte nur zum Teil aber in kleinen Bereichen kommst Du nur mit OnPage immer noch auf die erste Seite. Hier wären 5% mehr oder weniger schon nett.

Bei anderen Dingen interessiert es mich eh nicht - ist ja für die User.
Für mich wäre daher so eine Auswertung wie geschrieben schon interessant.

Problem ist, dass der Nischenbereich in ca. 1-2 Jahren keiner mehr ist :) Das SEO-Volk geht zunehmend nur noch auf die Nischenkeys, und das schon seit einer ganzen Weile.

Also: Beeilen ! ! ! ;)
 
geht zunehmend nur noch auf die Nischenkeys,

Ist doch prima......wenn das so kommt gehe ich halt mehr an die Spitze. ;)
Du dies ist schon alles klar......wenn Du wie M. mehrere x.xxx oder mehr Abfragen machst entsteht halt ein Querschnitt der mich einfach interessiert ....nicht mehr und nicht weniger.
Und irgendwo muss man(n) halt für sich zu einem Ergebnis kommen....oder schreibst Du Texte mit 10 Wörtern?


Das Google mehrere Faktoren kennt ....ja davon habe ich auch schon gelesen.
 
Zurück
Oben