Hallo zusammen. Wie in einem anderem Post hier zu lesen bin ich gerade beim Aufbau einer DE Domainliste/ZoneFile.
Außerdem will ich einige Infos zu den Domains abspeichern. Unter anderem ob die Domain im Parking liegt.
Wie würdet ihr hier vorgehen?
Über die Nameserver? Welche Parking Nameserver gibt es da so?
In meine Liste sind mir bereits folgende Nameserver aufgefallen.
- ns1.sedoparking.com; ns2.sedoparking.com
- ns1.parkingcrew.net; ns2.parkingcrew.net
- ns1.domainprofi.de; ns2.domainprofi.de
Oder bleibt mir nichts anderes über als den Quellcode jeder Webseite zu parsen?
This, persönlich finde ich Dein Bestreben alle dot de Adressen zu ermitteln als sehr interessant, natürlich ist es überdies hinaus in meinen Augen sehr sinnvoll etwas über die Domains mit auszusagen.
Verhältnis von "gelebten" zu geparkten Domais gibt eine erste Aussage zum "Wert" der dot.
Ein hoher Anteil geparkter Domains pro Dot lässt darauf schließen das hier mehr Spekulanten wie Webseite Betreiber am Werke sind.
(Interessieren würde mich noch wie lange Du brauchst Deine Millionen gesammelten Dot de abzufragen auf den neusten Stand, ob Sie noch als Webseite existieren.)
Beim Domains die nur auf eine Parkinseite verweisen ohne Weiterleitung auf eine andere sonstige Webseite geht das auf den ersten Blick klar aus dem Quellcode hervor:
z. B. Kommt bei s e d o dann der Html text
" ... background:url("http://img.sedoparking.com/templates/brick_gfx/1011/sprite1011.png") ... "
oder:
" ... <a href="http://www.sedo.com/services/parking.php3?language=d&partnerid=20292"title="Domain Parking Programm">Domain Parking Programm</a>... "
oder:
" ... <a href="http://sedoparking.com/de" tar... "
und mache mehr vor.
Ein Sammeln von Daten empfinde ich immer als Basis,
Deine ist aber z. B. eine ganz andere wie mein vorgehen, mich interessiert eher welche Wörter des jeweiligen Wortschatzes als Domain vergeben sind und welche noch frei sind. Diese dann noch nach Kommerziellen Nutzen gefiltert ist eine sehr interessante Aussage. Die nicht sinnvolle Wörter wie xczzde.de
(Beispiel ohne Hintergrund) sind mir da eher ein Greul und muss sie zuerst, z. B. aus den Tabellen mit den gedropten herausfiltern.
Würde aber jeder den gleichen Weg gehen ist das sicherlich nicht effektiv, insbesondere nicht wenn sie sich nicht miteinander austauschen. Für das Austauschen Danke ich Dir.
Ein Interessanter Beitrag über das lokalisieren von geparkten Domains habe ich gefunden, bei der Betrachtung ging es eher um betrügerische Praktiken beim Domain Parking, das .pdf ist in englisch.:
" ...
Analysieren und Erkennen von geparkten Domänen
Thomas Vissers , Wouter Joosen und Nick Nikiforakis
IMinds-DistriNet, KU Leuven,
Abteilung für Informatik, Stony Brook University ... "
Parking Sensors:
Analyzing and Detecting Parked Domains
parking-sensors_ndss2015.pdf
https://www.google.de/url?sa=t&rct=...xXvuNSbbxSVOE4hm3anERQ&bvm=bv.142059868,d.ZWM
Die g o o g l e Übersetzung ist nicht so besonders und hat bei mir einen schlechten Seitenaufbau der die Textzeilen teilweise über einander schiebt.
Link, g o o g l e Übersetzung:
https://translate.google.de/transla...iles/parking-sensors_ndss2015.pdf&prev=search
@Löwe