Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

Vielzahl neuer Sites in den Index

Sunblind

New member
Registriert
01. Apr. 2004
Beiträge
5.930
Reaktionspunkte
6
Hallö,

ich habe hier eine Vielzahl von neuen Seiten am Start, auf die ich gerne mal den G-Bot schicken würde. Ich möchte die URLs jedoch nicht bei G eintragen bzw. als neue Site melden.

Wie sollte man am geschicktesten vorgehen? Was empfehlt Ihr?

- 1-2 Social Bookmarks je URL?
- 1-2 Webkat-Einträge je URL?

Der Aufwand sollte sich möglichst in Grenzen halten, es geht nur darum dass G die Seite mal indexiert. Wie würdet Ihr handeln?
Sehr plumpe Maßnahmen, z.B. eine Linkliste auf eine meiner von G gut besuchten Seiten setzen, möchte ich natürlich vermeiden.

Grüße & Danke für Eure Ideen,
René
 
sie hier im Forum in deiner Sig zu verlinken wäre z.B. ein recht zügiger Weg...
Alternativ evtl. Kataloge/Bolgs/AVZ...

grüsse,
engel
 
Mit aktivierter Google Toolbar ansurfen... ;)

Bookmarks würden wohl am schnellsten und einfachsten gehen.
 
was heisst eine vielzahl?

wenn du magst, kannst du sie ja gerne hier -> http://consultdomain.de/forum/projektierung/31234-sammelthread-neue-minisites-oder-projekte.html vorstellen und du bekommst vll. auch noch ein paar nette meinungen von uns ;).

die seiten sind nach 1-2 tagen indexiert, geht also recht zügig. sollten es < 100 sein, würde es wohl nicht soviel sinn machen. da würde ich den weg einfach über social bookmark wählen und evtl. ein paar blog kommentaren.

viele grüsse,
andy
 
ich setz immer 1, 2 bookmarks bei neuen seiten und nach spätestens 1 woche sind sie bei g im index
 
Es gibt ja so Seiten wie domaintools.com oder so die mit der Domain als Parameter aufgerufen
eine statische Seite mit Backlink erstellen. Diese kann man automatisiert ansurfen und so sehr
viele sehr schwache teilw. nofollow Backlinks generieren.

Einziges Problem: Die Seiten brauchen auch ihre Zeit bis sie indexiert werden,
wenn sie überhaupt indexiert werden.

Siehe hier.

PS: Ich glaub er redet über xxx Seiten/Domains, geh ich da richtig in der Annahme.
Sonst würd er denk ich nicht fragen.


PS: Das Tool hab ich dafür mal gefunden:
http://www.mediafire.com/?mmvjnozmda2
Aber bei mir hat es nicht wie gewünscht funktioniert. Ich habs da nicht hochgeladen und
übernehme keine Garantie, dass das sauber ist.
 
Zuletzt bearbeitet:
Eventuell eignet sich das eine oder andere Projekt für eine Vorstellung in domainnetworking.de
 
denke mal eher er hat das eigene "Parkingsystem" inzwischen umgesetzt. Hat nen Haufen (xxx oder xxxx) Sites bzw. halt mal den Anfang davon und der soll natürlich mal in den Index, ranken tun die nischenkeys dann eh mit der zeit von selbst.

Gleiche Überlegung habe ich mir bei deinem Thread damals auch gestellt wie man dann solche Sites am besten und am kostengünstigsten mal reinbekommt. Denke auch, dass hierbei wohl AVZs eine gute und günstige Möglichkeit sind um dieses Seiten mal zu optimieren (2 - 4 Links von anderen IP netzen und gut ist).

Dann mal abwarten wie sich die entwickeln.

Good Luck und über Erfolge bzw. % Angaben der Besuchersteigerung etc. wäre ich dir sehr dankbar (gerne auch per PM)

Bis bald
Christoph
 
Social Bookmarks geht am schnellsten, in den meisten Fällen wird noch am gleichen Tag gespidert.
Von eigenen Seiten aus verlinken dauert momentan, selbst bei ständig vom Spider besuchten und gut rankenden Seiten, (bei uns) rd. 10 Tage bis zum ersten Besuch des Spiders, also im Vergleich zu früher extrem lange Zeit.
 
" edit ".........
 
Zuletzt bearbeitet:
G. hat die Zonenfiles und findet Websites auch ohne jeden Link. Dauert vielleicht etwas länger - dafür verteilt es sich zeitlich besser.
 
mal ganz simple gedacht:

Bei WP hat man einen neuen Artikel doch meist binnen Minuten indexiert.

Was passiert wenn man eine wertlose domain nur dafür verwendet, mittels WP einen Artikel zu veröffentlichen der überwiegend aus links zu den zu indexierenden Domains besteht?

Ggf. nur eine zweistellige Zahl links in den Artikel nehmen, nächsten Tag Artikel löschen und mit neuem Artikel die nächsten Domains.

Geht ja in der Anfrage nicht um Linkkraft usw. sondern nur um die Indexierung.

Was spricht gegen diese Variante?
 
Ja, dann doch lieber ganz ohne WP einen Ping senden. Vielleicht immer im Zehnerpack, alle 20 Minuten.

Das wird das einfachste sein...
 
Ping-o-Matic!

oder den Ping direkt an Google senden.

Schneller gehts nur über eine Linkliste (welche ja nicht bei Dir liegen muss).


Nachtrag:
Ne Linkliste ist eigentlich nicht schneller - der Ping ist ja auch für Massen in einer Sekunde durch.
 
Zuletzt bearbeitet:
nicht jeder laesst seine Seite auf "localhost" zeigen:hmmmm:

Korrekt, aber nicht jede IP-Adresse kann per Reverse-DNS in einen Domainnamen aufgelöst werden. Und auf zahlreichen IP-Adressen liegen mehrere unterschiedliche Domains, manchmal tausende Domains. Da hilft dann auch kein Reverse-DNS mehr.

Wenn man das alles berücksichtigt und z. B. eine .de-Domain auch nicht verlinkt ist, sind wir im Bereich des "invisible Web", also der verborgenen Seiten. Und dagegen würde dann nur ein .de-Zonefile helfen. Es sei denn, es handelt sich um anderweitig generierte Domains, z. B. bestehend aus Keywords oder bestimmten Kombinationen von Zahlen/Buchstaben. Und selbst dann bleibt noch eine große Restmenge übrig.

Wir haben auf die Art und Weise unsere Datenbank mit bald 11 Millionen .de-Domains erstellt, aber es wird zunehmend schwieriger, den Rest bis zu den 13,6 Millionen Domains zu erfassen.
 
Zurück
Oben