Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

Frage zur Realisierbarkeit

jelli222

New member
Registriert
29. Jan. 2005
Beiträge
54
Reaktionspunkte
0
Hi zusammen,

mir schwirrt derzeit eine Idee im Kopf herum, deren Realisierung nur mit Hilfe von Suchmaschinen möglich wird.
Ich möchte nicht näher auf die genaue Idee eingehen, da ich sie derzeit noch für etwas "besonderes" halte, aber ich hoffe ihr könnt mir auch so weiterhelfen :-)

Es geht darum, dass die User einer Plattform selbst Contentseiten erzeugen können, die für die Personen super relevant sind, die nach genau den verwendeten Keywords (mit denen die Contentseiten angelegt werden) suchen.
Man kann sich das in etwa so vorstellen, als dass eine Unterseite für den Aktienkurs einer speziellen Aktie angelegt wird, der auf dieser Unterseite angezeigt wird.

Sprich wenn ich bei Google eingebe "Aktienkurs XYZ Aktie 01.03.2008" dann soll ein Link zu der erstellen Contentseite bei Google erscheinen.

Das Problem ist jetzt nur, dass im Laufe der Zeit sicher einige hunderttausende (vom Aufbau identische) dieser Contentseiten angelegt werden.
(Kann man sich so vorstellen, dass jeden Tag ein neuer Aktienkurs für einige tausend Aktien vorliegt). In meinem Fall würde sich allerdings der komplette Content anstatt nur des Datums unterscheiden.

Meine Frage:
Ist es möglich (ohne einen PR von 8 aufwärts ;-) ), dass Google ALLE bzw. einen Großteil dieser Contentseiten indexiert (auch wenn es einige Zeit dauert) ?

Um das nochmals vorwegzunehmen - ich möchte keinesfalls eine Seite "pushen" indem Müll-Unterseiten produziert werden.
Jede Contentseite ist für den "suchenden" der verwendeten Keywords äusserst relevant - ich befürchte nur, dass die Sumas das als Spam werten, da der Aufbau der Seiten identisch sein wird, und der Content evt. nur wenige Worte ausmacht. Und wenn dann z.B. wöchentlich 500 dieser Seiten hinzukommen...

Eure Meinung - ist diese "Massenindexierung" auf irgendeinen Art und Weise in absehbarer Zeit (Monate) möglich ?
Evtl. per automatisch aktualisierter Sitemap ?
Eine Vorraussetzung würde auf jeden Fall sein, dass die Seite auch paralell in sofern finanziell vermarktet wird, dass der PR in absehbarer Zeit mind. 3-4 erreichen sollte.

Ich bin gespannt auf Eure Meinungen !
Viele Grüsse
Jana
 
Zuletzt bearbeitet:
Wenn die Startseite erst gelistet ist, werden beim nächsten Crawl die Unterseiten der nächsten Ebene Indiziert, ein Crawl später die nächste ebene und so weiter. Wenn das ganze über Startseite und zwei Ebenen aufgebaut ist, kann man eine Indizierung innerhalb von 2 bis 4 Wochen ohne großen Aufwand erreichen.

Wie gut sie dann gelistet werden steht auf einem anderen Blatt.
 
@mcdot: vermutest du das, oder ist das fakt mit den ebenen jeweils bei einem crawling durchlauf ?

das würde ja heissen, dass wenn ich 10.000 unterseiten von der startseite aus verlinken würde, dass die beim 2.crawl alle komplett indiziert sind ?!

ist bekannt wie oft gecrawlt wird pro woche/monat ?
 
Ist es möglich (ohne einen PR von 8 aufwärts ;-) ), dass Google ALLE bzw. einen Großteil dieser Contentseiten indexiert (auch wenn es einige Zeit dauert) ?
Nein, das geht nur mit PR8 aufwärts...
 
Wenn die Startseite erst gelistet ist, werden beim nächsten Crawl die Unterseiten der nächsten Ebene Indiziert, ein Crawl später die nächste ebene und so weiter. Wenn das ganze über Startseite und zwei Ebenen aufgebaut ist, kann man eine Indizierung innerhalb von 2 bis 4 Wochen ohne großen Aufwand erreichen.

Wie gut sie dann gelistet werden steht auf einem anderen Blatt.

äääääängääääääääll:laugh:
 
@mcdot: vermutest du das, oder ist das fakt mit den ebenen jeweils bei einem crawling durchlauf ?

das würde ja heissen, dass wenn ich 10.000 unterseiten von der startseite aus verlinken würde, dass die beim 2.crawl alle komplett indiziert sind ?!

ist bekannt wie oft gecrawlt wird pro woche/monat ?

Mehrfach durchexerziert und immer geklappt. Ob jedoch 10.000 Links von einer einzelnen Seite aus sofort gefolgt werden kann ich Dir nicht sagen. Bei so 50 Stück klappt es aber. Natürlich dürfen dabei keine Gründe vorliegen, die eine Indizierung verhindern, wie z.B. Doppelcontent oder zu wenig Content.

Den Crawlabstand kannst in den Metatags oder Sitemap festlegen oder auch in den Webmaster Tools. Diese Angabe wird aber nur als Vorschlag interpretiert, letzten Endes entscheidet Google selbst, wie oft Deine Seite gecrawlt werden soll. In der Regel ist es so, dass Seiten die öfters aktualisiert werden, auch öfters gecrawlt werden.

Als Beispiel, meine Recipes of the world - RecipeFlog.com hat knapp 3 Wochen gebraucht, bis alle rund 10.000 Seiten indiziert waren. Am besten klappt es, wenn Du ein Paar Backlinks hast, von Seiten die regelmäßig aktualisiert werden.

Theoretisch kann (und soll) eine Sitemap bewirken, dass wirklich alles aufgenommen wird, das klappt aber in der Regel aus dem Grund nicht, dass Google keine Seite indiziert, die nicht mindestens einen Link von einer Indizierten Seite hat.
 
Theoretisch kann (und soll) eine Sitemap bewirken, dass wirklich alles aufgenommen wird, das klappt aber in der Regel aus dem Grund nicht, dass Google keine Seite indiziert, die nicht mindestens einen Link von einer Indizierten Seite hat.

Junge.. lass es besser.

...
 
@Sunblind:

Warum lässt Du es nicht und hältst einfach mal den Mund ?
Ich habe hier früher recht oft mitgelesen und eigentlich bei JEDEM Deiner Beiträge gedacht "Was ist das denn für ein Trottel". Leider hat sich nicht viel geändert...

Ich möchte mich hier konstruktiv austauschen und möchte Dich bitten dich von diesem Thread fernzuhalten.

Vielen Dank !
 
@jelli222

Weiteres gerne per E-Mail (mcdot at mcdot.eu)
 
@Sunblind:

Warum lässt Du es nicht und hältst einfach mal den Mund ?
Ich habe hier früher recht oft mitgelesen und eigentlich bei JEDEM Deiner Beiträge gedacht "Was ist das denn für ein Trottel". Leider hat sich nicht viel geändert...

Ich möchte mich hier konstruktiv austauschen und möchte Dich bitten dich von diesem Thread fernzuhalten.

Vielen Dank !

weil er Recht hat?!?
Wenn Dir seichtes Geschmiere, das falsch ist, lieber ist...gerne zu...

grüsse,
engel
 
Den Crawlabstand kannst in den Metatags oder Sitemap festlegen oder auch in den Webmaster Tools. Diese Angabe wird aber nur als Vorschlag interpretiert, letzten Endes entscheidet Google selbst, wie oft Deine Seite gecrawlt werden soll. In der Regel ist es so, dass Seiten die öfters aktualisiert werden, auch öfters gecrawlt werden.

Falls Du hier auf den "revisit after" Metatag anspielst, dann hat der mit Google rein gar nix zu tun, der kommt ursprünglich von einer ganz anderen "Suchmaschine". "Crawlabstand" festlegen geht imho nicht. Meines Wissens beachtet derzeit kein einziger Crawler diesen Tag (auch nicht als "Vorschlag"). Aber ich bin kein SEO-Guru, so dass ich mich auch irren kann.

Ich hatte ursprünglich dieses "revisit after" auch verwendet (und einige meiner Seiten haben den Tag auch sicher noch, da ich ihn bislang nicht aktiv entfernt habe). In Wirklichkeit, kann er aber auch getrost weggelassen werden.

Ich bitte die SEOs mich ggf. zu verbessern :).

Ciao
Forsaken
 
Zurück
Oben