Die Mitgliedschaft ist KOSTENLOS und bietet allen registrierten Nutzern unbegrenzten Zugriff auf alle Funktionen, Ressourcen und Tools von ConsultDomain.de! Optionale Mitgliedschaftsupgrades schalten exklusive Vorteile frei, wie Profil-Signaturen mit Links, Bannerplatzierungen, Erwähnungen im wöchentlichen Newsletter und vieles mehr – individuell angepasst an Ihr Mitgliedschaftslevel!

Willkommen!

Durch Ihre Registrierung bei uns können Sie mit anderen Mitgliedern unserer Community diskutieren, teilen und private Nachrichten austauschen.

Jetzt anmelden!

Masterarbeit zur objektivierten, subjektivitätsfreien Massenbewertung

Frido

New member
Registriert
08. Juni 2011
Beiträge
13
Hallo Leute,
Da bin ich mal wieder. Anbei wie angekündigt meine Masterarbeit. Mehrere Nachträge kommen noch sobald ich Zeit finde (s.u.)

Habe mal nen neuen Thread aufgemacht, der an diesen hier anschließt. Die ursprüngliche Aufgabenstellung hat sich etwas geändert; eigentlich wollte ich Modelle miteinander vergleichen, aber es gibt bis jetzt (öffentlich verfügbar) keine wirklich guten. Also habe ich eins entwickelt. Ich wollte die Arbeit eigentlich schon früher bereitstellen, aber hatte erst Ende Februar meine Verteidigung und auch nicht genug Zeit. Nun ist die Übersetzung fertig. Also viel Spaß :)

Der Zauber virtueller Immobilien
Auf dem Weg zur objektivierten, regressionsbasierten Massenbewertung von Domains

Abstrakt:

In dieser Studie entwickle und demonstriere ich ein Bewertungsmodell für .de Domains. Neben der Herleitung absoluter beizulegender Zeitwerte (sog. fair values), beschäftige ich mich auch mit der Frage wie Werte schnell, massenhaft und subjektivitätsfrei modelliert werden können. Anders als andere Studien betrachtet die vorliegende Arbeit Domains als ‚virtuelle Grundstücke‘. Daran anknüpfend wird ein Datensatz von 9.220, über einen 10-Jahreshorizont reichenden Sedo Domain-Auktionen per multipler Regression, einer u.a. in der Berechnung vom Bemessungsgrundlagen für ad-valorem Steuern von Immobilien populären Technik, untersucht. Ich stelle fest, dass der Domainwert zur Anzahl der Besucher (+), zum kommerziellen Nutzungspotential (+), zur sprachlichen Bedeutung(+), zum Nutzerinteresse(+) und zur Anzahl der benutzten Wörter(-) in Beziehung steht. Ferner wird der Wert beeinflusst vom Investitionsklima(+), der Anzahl der Sonderzeichen (-), der Wörter im Zusammenspiel mit Sonderzeichen(+) und dem Alter im Zusammenspiel mit sprachlicher Bedeutung(+). Diese Studie bemerkt auch den beachtlichen Einfluss individueller Faktoren und den Mangel an Bewertungswissen, der die Preisbildung am deutschen Domain-Sekundärmarkt noch immer auszeichnet. Sie überwindet die Beschränktheit früherer akademischer Arbeiten in Sachen Datenmasse, Bewertungsgeschwindigkeit und Präzision.

Modellgleichung:
ln(Price2) = intVisitors + intPre.CPC + intPost.CPC + Pre.Comp + Post.Comp + ln(deGoogle.preSLD) + ln(deGoogle.postSLD) + [ln(enGoogle.preSLD)]^3 + [ln(deGoogle.postSLD)]^3 + [ln(Pre.MDLS)]^4 + [ln(Post.MDLS)]^4 + Words + Length^2 + ln(Pron) + Probable.Language + Age^4 + Year + Typo + Hyphen + Suffix24 + [ln(HDAX)]^0.5 + I[ln(deGoogle.preSLD) × Age^4] + I[ln(deGoogle.postSLD) × Age^4] + I[Words × Hyphen] + e

PDFs in Englisch und Deutsch auf meiner kleinen Wordpress-Seite: (38 Seiten).
(keine Direktlinks weil ich vllt nochmal die Rechtschreibung und Formatierung verbessere).
[Download]

Weil einiges vielleicht am Anfang noch etwas undurchsichtig ist, werde ich nach und nach noch ein paar Zusatzinfos veröffentlichen; z.b. wie man Alexa Rank in Besucher umrechnet. Der Link darf gern herumgegeben werden.

Nachtrag 1: Ausführliches Bewertungsbeispiel mit Intervallgrenzen für Alexa, CPC, Competition.
Nachtrag 2: Umrechnung Global Traffic Rank in Besucher / Tag (kommt)
Nachtrag 3: Messung der Aussprechbarkeit (kommt)

Die Anwendung des Modells mit drei ausgewählten Domains findet ihr auf Seite 33 und hier.

Bei Fragen/Feedback einfach posten/mailen :beer:
 
Zuletzt bearbeitet:
Moin moin,

ich habe es bisher nur kurz überflogen - um tiefer einzusteigen habe ich mal eine Verständnisfrage zur Datenbasis.
Die angegebenen Daten werden als reine Domainwerte in der Studie angeführt - teilweise steht dahinter allerdings ein Projekt mit ganz eigenen Bewertungsfaktoren.
Zum Beispiel wurde als Muster die kindergartenbeirat.de angeführt welche zum Verkauf mit Inhalten bestückt war.
Der Verkaufspreis wird in der Studie "belächelt" aber Projekteinnahmen wurden nicht berücksichtigt. Wie wurde die gesamte Datenbasis bereinigt?

Die Datenbasis findet ihren Ursprung im Jahre 2002 und wurde mit heutigen Googlewerten kombiniert. Mit welchen Faktor hast Du die 2002 Preise auf den Stand von 2012 umgerechnet? Wie hast die einzelnen Jahre und ihre Besonderheiten berücksichtigt?
Nachtrag:
Ich habe den Hinweis "8.1 Nutzung historischer Daten" gefunden - es gibt keine Umrechnung.



Wie hast Du das Domainalter ausgelesen?


Interessant für Praktiker: Die Anwendung des Modells mit drei ausgewählten Domains findet ihr auf Seite 33.
Kommst Du wirklich zu dem Schluss dass eine Interview.de unterbewertet und die Fliese.de überbewertet wurde?

noch ein paar Blog-Artikel veröffentlichen; z.b. wie man Alexa Rank in Besucher umrechnet
:bbiggrin:
Deshalb stellen sie eine passende Messgröße für die kommerzielle Nutzbarkeit über Industriegrenzen hinweg dar.
Wenn ich es richtig verstanden habe wertest Du für die kommerzielle Nutzbarkeit nur den Estimator aus - daher würde ich die Aussage verfeinern.
Nach dieser Berechnung hätten Alltagsgegenstände wie Klopapier oder zum Beispiel ein Trecker keine kommerzielle Nutzbarkeit.
Gerade Lebensmittel haben billige Klickpreise und trotzdem eine kommerzielle Nutzbarkeit - damit auch für Produzenten oder Händler einen entsprechenden Wert.
Die kommerzielle Nutzbarkeit wird in Deiner Abhandlung aus Seo-Sicht bewertet und weniger über Industriegrenzen hinweg.


Wie gesagt - ich habe es bisher nur überflogen.
 
Zuletzt bearbeitet:
Moin WhiteLight,

Wie wurde die gesamte Datenbasis bereinigt?

Es wurden zunächst Domains mit >1000 Besuchern/Tag gefiltert (23 Stk., lt. Tabelle 6 S.21).
Von den restlichen in die Analyse eingegangenen Observationen (9,220) hatten 1,717 einen Traffic Rank. Davon hatten 396 die Besucherstufe 5 (die Besucher wurden intervall-transformiert von 1 bis 5 (also "keine bis viele"), die Intervalle poste ich noch). Die Stufe 5 fängt ab 57 Besuchern/Tag an. Lediglich 64 Observationen hatten Besucherzahlen von mehr als 100/Tag. Das erschien mir vertretbar.

Kindergartenbeirat.de hatte zum Zeitpunkt des Transfers keinen Alexa Rank. Es war deshalb für mich plausibel anzunehmen dass die abgezinsten Cash-Flows um 0 sind. Die Seite ist heute auch nicht projektiert. Aber du hast natürlich recht, man könnte auch kostenbasiert denken, wie z.B. an ein gut programmiertes, aber nicht besuchtes Portal. Die Kindergartensache ist für den Leser gedacht, um ihn darauf aufmerksam zu machen das es tatsächlich manchmal große Ausschläge geben kann. Dieser war tatsächlich mein größter Ausreißer.

Mit welchen Faktor hast Du die 2002 Preise auf den Stand von 2012 umgerechnet? Wie hast die einzelnen Jahre und ihre Besonderheiten berücksichtigt?

Die nominalen Preise habe ich um die Inflation korrigiert. Die Basis ist der 31.12.2010. Die 2011er Transaktionen sind also etwas kleiner als die nominalen Werte und alle vor diesem Datum liegenden Transaktionen entsprechend größer.
Die Googlewerte sind von "heute", genau. Ich relativiere die absoluten Googlewerte aber, indem ich das Transaktionsjahr als Kontrollvariable einsetze. Deshalb werden alle externen Wachstumseffekte dort isoliert, auch das Wachstum des Internets, was denke ich sehr dafür verantwortlich ist das es mehr Suchergebnisse zu finden gibt. Die wirtschaftliche Lage, bzw. das Investitionsklima wird im HDAX Score abgebildet. Da gehen dann auch Besonderheiten wie die Wirtschaftskrise, politische Unsicherheiten etc. mit rein. Weitere Besonderheiten sind sicherlich die Einführung nummerischer und sehr kurzer Domains (glaube 08 oder 09 war das). Die sind aber regelmäßig nicht projektiert worden und deshalb über das fehlende First-Seen-Date in Netcraft&Archive.org wieder rausgeflogen (zugunsten generischer Domains). Andere Besonderheiten der Jahre sind mir nicht eingefallen.

Diesem "Prozedere" mit den Googledaten "von heute" liegt aber die (eben manchmal kritische) Annahme zugrunde das es relativ keine Schwankungen in den Google-Results gab. Deshalb ist das Thema Trenddomains auch bei Kapitel 8.1 erwähnt (richtig ).

Wie hast Du das Domainalter ausgelesen?

Das Domainalter ist das kleinere der First-Seen-Dates von Archive.org (Waybackmachine) oder Netcraft, sofern vorhanden. Datensätze ohne feststellbares Alter (d.h. i.d.R. unbedeutend) sind rausgeflogen. Bei Waybackmachine habe ich einfach (quick+dirty) die Webseiten gespeichert und Netcraft hat eine Schnittstelle für seine Toolbar.

Kommst Du wirklich zu dem Schluss dass eine Interview.de unterbewertet und die Fliese.de überbewertet wurde?

Aus Sicht des Modells ja. Endkunden ist das im Zweifel egal (wie bei fliese.de angedeutet). Allerdings will ein Domainhändler sein Portfolio ja ggf. neutral bewerten. Aus Sicht des Marktes (den das Modell ja abbilden will) hat der Verkäufer der fliese.de also einen guten Deal gemacht.
Das waren 3 willkürlich ausgewählte Transaktionen, ich hätte auch irgend etwas anderes nehmen können.

Alexa Rank in Besucher umrechnet

Kommt ;)

über Industriegrenzen hinweg

Ich meine das nicht über Tools hinweg, sondern über "Branchen". (Industrie ist vielleicht nicht optimal übersetzt).
D.h. ich kann mit dem Estimator sowohl die kommerzielle Nutzbarkeit von toilettenpapier.de , wie auch von trecker.de untersuchen, obwohl beide Worte Teil unterschiedlicher Branchen sind. Ich vermute sobald sich die CPCs usw erhöhen, können die Branchenteilnehmer auch mehr für ihre Domains bezahlen.
Mit SEO hat die kommerzielle Nutzbarkeit nichts zu tun, die versucht lediglich herauszufinden ob ein bestimmter Begriff mit Kommerzialität in Verbindung steht. Das muss nicht Verkauf, kann auch Produktion oder Information sein.

Gerade Lebensmittel haben billige Klickpreise und trotzdem eine kommerzielle Nutzbarkeit

Käse, Milch, Brot, Joghurt, Gurken und Lebensmittel haben Pos.1 CPCs zwischen 0,83 und 1,07€. Das ist so "mittel" würde ich sagen. Sie haben dann eine mittlere kommerzielle Nutzbarkeit (ist ja auch so würde ich sagen). Klopapier hat 0,93€. Nehmen wir jetzt mal an Klopapier hätte nur 0,03€, dann würde man sagen --> niedrigere kommerzielle Nutzbarkeit --> niedrigerer Domainpreis. Weil wenn die Inhaber auf der Domain nicht wirklich Klopapier verkaufen können, warum sollte dann [isoliert betrachtet] viel für solche Domains bezahlt werden?

Hoffe ich konnte ein bisschen helfen :smiile:
 
Zuletzt bearbeitet:
Hi Frodo,

vielleicht sollte man ein Leben erst einmal gelebt haben, um darüber berichten zu können...

grüsse,
engel
 
Hallo Leute,
Da bin ich mal wieder.

Ich werd's mir die Tage auch mal in Ruhe "reinpfeifen". Nur vorab (wertfrei von der eigentlichen Arbeit inhaltlich): Was ich super finde, Du mit Deinen 11 postings: Du hast um Meinungen und Infos seinerzeit gefragt und bist wiedergekommen und legst ne Arbeit hin und teilst diese mit uns.

Dafür meinen Respekt und Danke vorab.

Gruss

Gerald
 
Sehr schöne Arbeit,

kann mich noch erinnern, dass Du mal nachgefragt hast, woher Du Domainpreise aus belegten VK`s bekommen kannst.

Gut dass ich die Formeln und Thesen, die Du in deiner Arbeit benutzt hast nicht alle verstehen, bestätigen oder gar bewerten muss. Freut mich dass Du da eine tolle Bewertung von einem Fachmann erhalten hast.
Dann ist das technisch wohl auch ok.

Zum Schluss bleibt zu sagen, dass es doch einen Wert hat, sich mal hinzusetzen und die Sache der Domainbewertung weniger subjektiv und ohne Bauchgefühl anzugehen.

Und dann kommen eben diese Ausrutscher ans Licht, wie dass die eine Domain eigentlich nicht so teuer gekauft werden hätte dürfen, eine andere dagegen wohl entsprechend der These ein Schnäppchen war.
 
Statistisches selbstlernendes Modell - domainindex.com

Wir verwenden für domainindex.com ein statistisches selbstlernendes Modell, das hat zwar seine für und wider, allerdings kann man einem kaum vorwerfen den eigenen Domain-Geschmack einfliessen zu lassen. Pro Damaine werden bis zu 170 Datenfelder verwendet, Basis sind etwa 420T domaindeals in der Vergangenheit sowie von experten Bewertete domains (vor allem in exotischeren TLD´s). Backlinktraffic und parkingrevenues fliessen in die Bewertung nicht ein, bei Projekten fliesst allerdings die Suchmenge mit ein, dadurch können Projekte durchaus beachtliche Domainpreise erzielen.
 
Aus Sicht des Modells ja. Endkunden ist das im Zweifel egal (wie bei fliese.de angedeutet). Allerdings will ein Domainhändler sein Portfolio ja ggf. neutral bewerten. Aus Sicht des Marktes (den das Modell ja abbilden will) hat der Verkäufer der fliese.de also einen guten Deal gemacht.

Ich habe versucht, deine Studienansätze zu verstehen, aber trotz recht brauchbarer statistischer Vorkenntnisse komme ich ab einem gewissen Punkt nicht mehr so mit, dass ich da jetzt detailliert fachsimpeln kann. Aber ...

"Aus Sicht des Modells ja" muss ja nicht heißen, dass der Berechnungsansatz richtig ist. Auch die Bevorzugung von sehr kurzen Domains im Wert kann ich nicht teilen. Ebenso wie eine Domain nicht (!) automatisch (!) an Wert gewinnt, wenn sie früher als später registriert ist, ist die Annahme zur kommerziellen Nutzbarkeit fälschlicherweise ganz stark beeinflusst von Googles Klickpreisen. Diese haben aber nicht sehr viel mit der kommerziellen Nutzbarkeit einer Domain und damit auch nur bedingt mit dem Wert einer Domain zu tun.

Ein hoher Klickpreis bedeutet (nur ganz grob gesagt), dass viele Kunden Werbung schalten wollen. Das heißt jedoch, dass die CPC-Basis in erster Linie für Projektierer interessant ist. Für Webmaster und Projekt-Domainer, die durch Einblendung von Anzeigen Geld verdienen. Das ist eine ganz andere Zielgruppe als die der Endkunden. Denn kein Shop wird gern Google-Werbung einblenden. Auf Spielzeug zum Beispiel wird ein relativ niedriger Klickpreis fällig. Für Projektierer ist eine Domain wie spielzeug.de deshalb nur bedingt wertvoll. Kein Projektierer würde eine spielzeug.tld mal eben für 5.000 - 10.000 kaufen, wenn er sie nur als Adsense-Seite nutzen möchte. Selbst als Affli-Seite ist es schwer, einen vermutlich tatsächlich so großen Martkwert ausreichend schnell zu erwirtschaften. Er würde den Preis aber bezahlen, wenn er einen Endkunden finden könnte/in Aussicht hätte. Denn für Endkunden mit einem Shop is der CPC als Einnahmequelle völlig egal (er wird erst bei Werbeschaltungen relvant, dann aber losgelöst -!- von der eigenen Domain!), aber er hat mit einer solchen Domain ein rieisiges Potenzial an Absatzmöglichkeiten und kann einen solchen Preis auch wirtschaftlich rechtfertigen. Daher ist beispielsweise Fliese meiner Meinung nach nicht überbewertet, sondern eher unterbewertet. Ins Modell fließt nämlich nicht ein, ob a) ein Käufer die Domain als Shop o. Ä. nutzen kann und ob b) die angebotenen Waren/Leistungen gut oder schlecht über das Internet absetzbar sind. Dann gibt es noch Domains wie milch.de usw. Darüber lassen sich regional ggf. Absätze generieren. Viel wichtiger ist aber, dass die Lebensmittelindustrie ein großes Interesse hat, mit einer solchen Domain die Marke zu stützen und aufzuwerten. Gerade in dieser Industrie gibt es eine Reihe von großen Konzernen, die in anderen Bereichen z. T. fehlen. Solche Überlegungen fließen nicht in das Modell mit ein, sind aber beim Domainhandel ganz wesentlich. Aber drei Domaintypen, fünf Meinungen ;-)

Da das nur ganz schwer automatisiert berechenbar ist, scheitert im Prinzip jedes automatisierte Modell zur Ermittlung eines wahrscheinlichen Domainwertes bereits im Ansatz. Übrigens sind vielleicht gerade die Ausreißer im oberen und unteren Bereich zur Wertermittlung interessant ...

Kurz und gut: Klasse und sicher fundierte Arbeit im Sinne von Arbeit. Klasse Ergebnis vermutlich eher nicht, da die Ansätze zur Berechnung aus meiner Sicht zum Teil sehr fragwürdig oder zumindest verzerrend sind. Damit fällt aber auch die Nutzbarkeit für die Wertermittlung. Das Modell ist fundiert, aber für mich nicht breit genug aufgestellt. Wenn es einen echten Nutzen haben soll, müsstest du ggf. noch einmal ran. Und hier teile ich Engels Meinung, dass dir vielleicht auch die Erfahrung aus dem Domainergeschäft fehlt. Trotz allem hänge ich mich an Trixie: Gefragt, bekommen, geliefert. Respekt!
 
Zuletzt bearbeitet:
Wegen einiger Rückfragen nochmal ein ausführlicheres Bewertungsbeispiel aufbereitet für die Domain aufnaehsteine.de. Sie wurde letztes Wochenende hier von webadressmiete angeboten, zum Sonderpreis von 200€, so hab ich sie einfach mal zur Hand genommen. Ich komme auf 203€. Also entweder gute Bewertung von ihm, vom Modell oder Zufall :)
--
Danke für Kritik und Lob. Ich habe auch bereits einige Rückmeldungen erhalten. Klar, ich bin kein Domainer (@engel), aber genauso bin ich auch kein Statistiker und kein Wirtschaftsprüfer. Letztendlich ist man also immer für irgendwas nicht gut genug. Ich bin Accounting-Student (gewesen) und habe 12 Jahre Erfahrung im Projektieren. Ob man etwas mitnimmt oder die Arbeit gar nicht erst liest, ist jedem selbst überlassen.

Ich betrachte Domains aus einer neutralen Accounting-Perspektive (dazu ist man als Accounting Student auch angehalten). Wenn man Domains bilanzieren will (momentan ist das im HGB nur zum Kaufpreis möglich), bzw. mit diesen seine Asset-Base adjustieren will (Controlling), dann brauche ich neutrale Werte; d.h. ich tätige keine Annahmen zum individuellen Hintergrund des einzelnen Käufers/Verkäufers; ich gehe vom "Normalfall" aus.
Letztendlich mischen sich durch die große Stichprobe all die Individualinteressen von Adsense-Leuten, Projektierern, Shops, Resellern und sonstigen Endkunden (@manori) zu einem großen "Durchschnittskäufer" bzw. "-verkäufer", bzw. sie werden eingepreist. Das man damit keine individuellen Verhandlungsergebnisse vorhersagen ist mir klar. Denn ob ich einen Reseller, Shop, Konzern etc. vor der Nase habe, entscheidet sich ja erst wenn es konkret zur Verhandlung kommt.
Das Modell ist deshalb im Domainerbereich nur zur Bildung von Entscheidungswerten und zur Portfoliobewertung geeignet, nicht zur Vorwegnahme individueller Verhandlungsergebnisse. Wenn ich ein Portfolio aus Accounting-Sicht bewerte, dann kann ich nicht davon ausgehen, dass ich einen bestimmten Kunden/Käufertyp vor die Nase bekomme, ich will neutrale Werte.

Letztendlich teile ich "nur" einen Ansatz, den es sich vielleicht lohnt genauer anzusehen. Die Arbeit heißt deshalb auch "Towards...", weil es ein Schritt in eine Richtung ist. Die Arbeit erhebt keinen Anspruch auf Richtigkeit oder Vollständigkeit, deshalb spreche ich auch immer vom "Modellwert", und nicht vom richtigen Wert o.ä.. , das sollte im übrigen eine Arbeit nie tun.
Die akademische Forschung zu Domains hat noch enormes Aufholpotential/weist große Lücken auf. Und solange fast alle mit ihren hochentwickelten Modellen wegen kommerziellen Interessen hinterm Berg halten, können neue Modelle auch nicht öffentlich diskutiert werden.
Thies Lindenthal, der Entwickler des IDNX, forscht zur Zeit in Boston für Sedo auch an einem regressionsbasierten Massenbewertungsansatz. Er studiert sogar auch in Maastricht (macht seinen PhD), wie ich aber leider erst gemerkt habe wie ich schon fast fertig war.

Zum CPC (@manori): CPC bedeutet (m.E.) nicht die Anzahl der Bieter, sondern die Höhe der Gebote der Bieter. Die Anzahl der Bieter wird durch die Competition abgebildet. Letztendlich sind das 2 verschiedene Sachen (wie ich bei der Analyse gemerkt habe). Ich habe zahlreiche Bsp. in meinem Sample gehabt, wo wenige Bieter teilweise beachtliche CPCs produziert haben.

CPCs sind aber nicht nur eine Nachfrager-Sache (also auf Adsense-Seiten/f. Projektierer), sondern auch eine Anbieter-Sache. Wenn ein Anbieter eines Ads bereit ist einen hohen Preis zu zahlen (z.B. Key "Strom Anbieter"), dann nehme ich an, dass dieser auch bereit ist einen höheren Preis für eine Domain strom-anbieter.de zu zahlen als es einer ist, der Lebensmittel verkauft.
Man muss das natürlich immer in Beziehung zu Competition sehen. Erst aus beiden Werten ergibt sich dann die kommerzielle Nutzbarkeit. Es geht nicht auch nicht wirklich um die Ads, sondern darum, ob hinter einem bestimmten Keyword "Geschäft" steckt.

Wegen der Länge weiß ich nicht wie du das meinst, manori. Ich kann keinen Zusammenhang feststellen zwischen Länge und Wert, du hast ganz recht, meine Vermutung stellt sich in der Analyse als falsch heraus. Ich konnte nur einen Zusammenhang zwischen den Wörtern und dem Wert nachweisen.

Generell sollte man keines der Merkmale isoliert betrachten. Das sind nur statistische Werte. Wenn ich also consultdomain.de um ein Zeichen auf consultdomai.de kürze, dann habe ich vielleicht mehr Wert, aber keine Suchanfragen, Suchergebnisse, CPCs etc.

Auch hat das Modell ja einen Intercept von 375,60€ (Schnittpunkt mit y-Achse), wie man hier sieht. Man könnte jetzt fragen (habe ich mich am Anfang auch), dass wenn ich nichts habe (also 0 Zeichen, 0 Besucher...), dann müsste das doch 0 wert sein. Aber das ist nur ein statistischer Wert. Sobald ich die ersten Zeichen adde, bspw. bad.de, dann ergibt sich der Modellwert aus allen Werten der Variablen.
 
@Frido
Danke für Deine Rückmeldung - ich hatte zwischenzeitlich bereits eine sehr lange Antwort verfasst - diese allerdings wieder verworfen.
Bei Zeiten werde ich meine alte Antwort etwas greifbarer einstellen.

Im Kern habe ich bereits meine Bauchschmerzen mit den Basisdaten.
Gerade auf Deine Alexa-Berechnung bin ich sehr gespannt. Ich hatte damit vor einigen Jahren selbst gespielt und wollte eine Art Besuchervorhersage erstellen.
Dafür habe ich 700 .de Domains genommen und die Typins bereinigt (- Referrer, - Bot-Abschlag).
Die habe ich in Relation mit dem Suchvolumen (Google), Alexa und was ich an Auswertungen noch gefunden habe gesetzt.
Es waren einige Faktoren aber am Ende völlig unzuverlässig.

Dürfte ich Dich um die Bewertung von vier Domains bitten?
KKK.de
kök.de
k-k.de
kuk.de
Ich finde Deine geschriebene Abhandlung sehr kurz und mir fehlen viele Lösungen für übliche Probleme.
Wäre nett wenn Du dieses Beispiel mit Zahlen hinterlegen könntest.

Insgesamt wäre eine Softwareversion wohl nötig um sich wirklich damit zu befassen bzw. Tests durchzuführen.

Willst Du Deine Formel weiter entwickeln oder hat die Arbeit mit der Benotung ihren Abschluss gefunden?
 
Zuletzt bearbeitet:
Ich denke auch, dass es ziemlich aussichtslos ist aus Alexa die TypeIns zu berechnen. Wie kommt Alexa denn eigentlich zu seinen Daten ? Vermutlich durch sein Toolbar. Wer aber verwendet bzw. installiert eine Alexa Toolbar ? Das ist doch sicher nicht die breite Masse an Leuten - wohl sicher kein Jugendlicher oder Pensionist der noch nie etwas von Alexa gehört hat und froh ist, wenn er einen Browser bedienen kann. Ich denke, bei den Alexa-Daten ist die Zielgruppe sehr eingeschränkt.

Die große Masse an .ch/.at Domains hat wohl so wenig Traffic, dass diese bei Alexa nicht ausgewerten/angezeigt werden.

Deshalb berechne ich bei meinem Adomino-Bewertungsansatz nicht die TypeIns (z.B. durch Alexa) sondern analysiere diese mind. eine ganze Woche da es Domains gibt, die unter der Woche (Mo-FR) besser gehen und Domains gibt, die am Wochenende (SA, SO, Feiertag) besser gehen. Am besten ist es, wenn man eine Domain mind. 1 Jahr analysiert, da man hier dann die saisonalen Schwankungen auch besser abschätzen kann.

Harry
 
Ich werd's mir die Tage auch mal in Ruhe "reinpfeifen". Nur vorab (wertfrei von der eigentlichen Arbeit inhaltlich): Was ich super finde, Du mit Deinen 11 postings: Du hast um Meinungen und Infos seinerzeit gefragt und bist wiedergekommen und legst ne Arbeit hin und teilst diese mit uns.

Dafür meinen Respekt und Danke vorab.

Gruss

Gerald

Dem möchte ich mich anschließen - danke!

Nach dem zu urteilen, was ich bisher in deiner Arbeit gelesen habe, ist das im schlechtesten Fall ein Schritt in die richtige Richtung (und man kann darauf aufbauen).
 
...

Deshalb berechne ich bei meinem Adomino-Bewertungsansatz nicht die TypeIns (z.B. durch Alexa) sondern analysiere diese mind. eine ganze Woche da es Domains gibt, die unter der Woche (Mo-FR) besser gehen und Domains gibt, die am Wochenende (SA, SO, Feiertag) besser gehen. Am besten ist es, wenn man eine Domain mind. 1 Jahr analysiert, da man hier dann die saisonalen Schwankungen auch besser abschätzen kann.

...

Bei der Masse an ausgewerteten Domains ist das sicherlich für eine einzelne Person nicht möglich ...
 
Wegen einiger Rückfragen nochmal ein ausführlicheres Bewertungsbeispiel aufbereitet für die Domain aufnaehsteine.de. Sie wurde letztes Wochenende hier von webadressmiete angeboten, zum Sonderpreis von 200€, so hab ich sie einfach mal zur Hand genommen. Ich komme auf 203€. Also entweder gute Bewertung von ihm, vom Modell oder Zufall :)

Da ich hinter den Kulissen mit webadressmiete in häufigem Austausch bezüglich einer automatischen Domainbewertung stehe und außerdem selbst schon etwa 50% der von Dir analysierten Domainanzahl (leider nicht des Verkaufsvolumens) verkauft habe, möchte ich mich hier mal zu Wort melden. Bevor Deine Formel am Ende noch Eingang in irgend eine relevante Literatur oder gar die freie Wildbahn findet :wink:.

Zur mathematisch-statistischen Qualität Deiner Arbeit möchte ich mich nicht äußern - das kann Dein Prof besser beurteilen. BTW: was ist 9.0 eigentlich in Schulnoten umgerechnet?

Bei der Datenbasis hapert es imho aber gewaltig.

Ich beziehe mich der Einfachheit halber auf die o.g. Beispielrechnung

1. Du schreibst, dass Du den Google Traffic-Estimator verwendest.

Offenbar ist Dir nicht aufgefallen, dass man dort das Keyword in eckigen Klammern eingeben muss (bzw. bei den Keyword-Optionen "Exakt" auswählen muss), um zu halbwegs relevanten Daten zu gelangen. Anderenfalls erhält man nämlich aufsummierte Daten zu allem, was für Google irgendwie ähnlich zu dem Begriff sein könnte. Also auch Mehrzahl/Einzahlvarianten, Synonyme, Typos und einen großen Teil des Longtails. Google selbst schreibt dazu: "Broad match: The sum of the search volumes for the keyword idea, related grammatical forms, synonyms and related words" -> Fail

2. Du verwendest den CPC, der beim Estimator für eine Anzeige auf Platz 1 angezeigt wird und gibst dafür 400,- Euro als maximalen CPC ein.

Das ist ein weiterer grober Fehler, weil Du damit nicht den CPC erhältst, der aktuell für Platz 1 gezahlt wird, sondern den, den Du bezahlen müsstest, wenn Du den aktuellen Platz 1-Inhaber von eben diesem Platz verdrängen wolltest (den Qualitätsfaktor außer Acht gelassen). Da Google den zu zahlenden CPC-Preis für jede Platzierung aber automatisch anhand der aktuell gebotenen Maximalpreise berechnet, bedeutet das, dass Du mit dieser "Messung" (die Eingabe von 400,- Euro) den aktuell zu zahlenden Wert massiv nach oben ziehst. Der aktuelle Inhaber hat z.B. 10,- Euro Maximalpreis eingegeben, muss tatsächlich aber vielleicht nur 80 Cent zahlen. Bis Du kommst. Verstanden? -> Fail

Tipp: versuche es mal mit dem Keyword-Tool von Google. Dort bekommst Du beim CPC den durchschnittlichen Preis, der aktuell im Schnitt für die 11 Anzeigenplätze gezahlt wird. Das ist ein wesentlich stabilerer und aussagekräftigerer Wert (falls es genügend Anzeigen gibt - sonst nicht).

3. Du schreibst, dass es sich beim Wert für "Wettbewerb" "prinzipiell um die Anzahl der gebuchten Werbeanzeigen" [sic] handelt.

Das ist schlicht falsch. Es handelt sich beim Wettbewerb um einen relativen Wert. Vereinfacht ist das ungefähr der prozentuale Anteil der Anzeigenplätze, der beim jeweiligen Keyword über den ganzen Tag hinweg mit zahlenden Kunden belegt werden kann. So gibt es jede Menge Keywords mit kleinem SV, die einen Wettbewerb von 1 (-> 100%) haben aber nur wenige Keywords mit hohem SV, die 100% Wettbewerb haben. Über die absolute Anzahl an gebuchten Werbeanzeigen macht diese Zahl überhaupt keine Aussage. -> Fail


4. Du ermittelst die Anzahl der Suchergebnisse durch einfache Eingabe des Keywords bei Google (plus Filter auf "Deutsche Webseiten")

Abgesehen davon, dass es den Filter "Deutsche Webseiten" bei mir nicht gibt, sondern nur "Seiten auf Deutsch" und "Seiten aus Deutschland" (welchen meinst Du?), liegt hier ein ähnlicher Fehler wie oben beim Estimator vor. Google interpretiert jede Menge in den Suchbegriff hinein und liefert alles Mögliche an mehr oder minder Passendem - wenn Du nicht die Option "wortwörtlich" verwendest. Der von Dir verwendete Wert an Suchergebnissen ist somit in aller Regel völlig unbrauchbar. -> Fail

Das soll zur Datenbasis erst mal genügen.

Ich betrachte Domains aus einer neutralen Accounting-Perspektive (dazu ist man als Accounting Student auch angehalten). Wenn man Domains bilanzieren will (momentan ist das im HGB nur zum Kaufpreis möglich), bzw. mit diesen seine Asset-Base adjustieren will (Controlling), dann brauche ich neutrale Werte; d.h. ich tätige keine Annahmen zum individuellen Hintergrund des einzelnen Käufers/Verkäufers; ich gehe vom "Normalfall" aus.
Letztendlich mischen sich durch die große Stichprobe all die Individualinteressen von Adsense-Leuten, Projektierern, Shops, Resellern und sonstigen Endkunden (@manori) zu einem großen "Durchschnittskäufer" bzw. "-verkäufer", bzw. sie werden eingepreist.

Zum Methodischen hätte ich auch einiges zu sagen - aber das würde jetzt zu weit führen.
Nur so viel:

Was bei Deiner Stichprobe völlig fehlt, sind die - Achtung! - nicht (also niemals) verkauften, gleichwohl aber existierenden Domains gleichen Typs.
Die allermeisten existierenden Domains wurden nämlich niemals verkauft. Weil sie prinzipiell von jedem kostenlos erschaffen werden konnten (man zahlt bei der Registrierung einer Domain idR. nur Gebühren für die Verwaltung - aber keinen Domainkaufpreis). Ganz im Gegensatz zu Grundstücken, weshalb ich die Analogie zum Immobilienmarkt auch für falsch halte.

Deine Auswahl an Sedo-Auktionen zum "Normalfall" zu erklären ist daher imho reichlich gewagt - für eine Asset-Bewertung.
 
Zuletzt bearbeitet:
Könnte auch noch einiges ergänzen, aber mir reicht es erstmal, auf diese Punkte hinzuweisen:

d.h. ich tätige keine Annahmen zum individuellen Hintergrund des einzelnen Käufers/Verkäufers; ich gehe vom "Normalfall" aus.
Letztendlich mischen sich durch die große Stichprobe all die Individualinteressen von Adsense-Leuten, Projektierern, Shops, Resellern und sonstigen Endkunden (@manori) zu einem großen "Durchschnittskäufer" bzw. "-verkäufer", bzw. sie werden eingepreist.
[...]
Das Modell ist deshalb im Domainerbereich nur zur Bildung von Entscheidungswerten und zur Portfoliobewertung geeignet, nicht zur Vorwegnahme individueller Verhandlungsergebnisse. Wenn ich ein Portfolio aus Accounting-Sicht bewerte, dann kann ich nicht davon ausgehen, dass ich einen bestimmten Kunden/Käufertyp vor die Nase bekomme, ich will neutrale Werte.

Der Normalfall ist aber, dass in einer Wertberechnung der Hintergrund des Käufers einfließen muss, denn dieser ist sehr wesetlich für die Preisfindung. Du tust so, als wenn der Normalfall ein Kaufpreis "auf Basis" von Anzeigenschaltung über Google wäre. Im Endkundengeschäft zählen aber andere Faktoren.

Es ist meiner Meinung in der Tendenz nicht eindeutig, dass mehr Werbung = höherer Preis sein muss, und erst recht nicht so, dass weniger Werbung = niedriger Preis sein muss. Das habe ich versucht dir anhand von Spielzeug etwas zu verdeutlichen. Anderer Fall: Milch. Milch wird (praktisch) nicht über das Internet verkauft. Entsprechend gibt es keinen Wettbewerb. Dennoch hat eine generische tld-Domain dazu einen sehr hohen Wert. Das ist wie mit der Fliese-Domain.

Wenn ein Anbieter eines Ads bereit ist einen hohen Preis zu zahlen (z.B. Key "Strom Anbieter"), dann nehme ich an, dass dieser auch bereit ist einen höheren Preis für eine Domain strom-anbieter.de zu zahlen als es einer ist, der Lebensmittel verkauft.

Ich halte die Annahme in der Kombination für nicht ausreichend.

Bei Domains muss man zudem generell berücksichtigen, dass es für einige Domains nur sehr wenig potenzielle Käufer (wegen Branche, nicht wegen Preis) gibt, die aber dafür viel Geld bezahlen würden. Für andere Domains gibt es viele potenzielle Käufer und sie erreichen vielleicht dennoch nicht sehr hohe Preise, weil es die Branche nicht hergibt.

Ein Wertfundungssystem, dass die Kaufgründe, die Nutzbarkeit und die besonderen Bedingungen der Branche nicht berücksichtigt, kann eben keine "neutralen" oder "objektiven" Werte ermitteln. Es wird immer nur genau die Werte ermitteln, die das System zulässt. Es sind aber icht unbedingt "richtige" Werte. Daher kommst du bspw. auch auf eine Überbewertung für Fliese. Für mich ist der Ansatz interessant, ergibt aber in der Form noch keine brauchbaren Ergebnisse.
 

Who has viewed this thread (Total: 1) Details anzeigen

Beliebte Inhalte

Besonderer Dank

Zurzeit aktive Besucher

Keine Mitglieder online.

Statistik des Forums

Themen
68.373
Beiträge
377.426
Mitglieder
6.775
Neuestes Mitglied
WolfgangM
Zurück
Oben