Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

Queap - Suchmaschine, die auf Neuroinformatik basiert

morepas

New member
Registriert
01. Okt. 2007
Beiträge
815
Reaktionspunkte
1
"Frisch reingekommen"

Queap ist eine Suchmaschine, die auf Neuroinformatik, somit künstlicher Intelligenz, basiert Entgegen bisheriger Algorithmen gleicht Queap nicht mehr nur das gesuchte Stichwort mit dem Webseiteninhalt ab, sondern adaptiert das menschliche Vermögen vollständige Webseiteninhalte zu erkennen und zu kategorisieren.

Durch die Nutzung eines neuronalen Netzes liefert Queap automatisch, nicht redaktionell, weiterführende Informationen (sog. Assoziationen) zur Suchanfrage aus. Queap führt zu rein inhaltsorientierten Suchergebnissen und entscheidet somit nach Relevanz,nicht nach Prominenz.

Das Queap Blog

Queap Präsentation

Gruß
morepas
 
Zuletzt bearbeitet:
Ich stehe auf dem Schlauch...wenn ich die Suchmaschine benutzen will, wird Login und Pass gefordert....

Wie erreiche ich diese Seachengine....¿
 
In der PPT (erstellt/geändert am 6. Okt.) steht: "Demnächst online".
Ein paar Tests hätten mich auch interessiert.


Grüße
morepas
 
Nun nur onsite Auswertung wie im pdf publiziert bedeutet extrem anfällig für blackhat optimierung... nichts leichter als ein paar millionen seiten zu generieren deren "content" einem solchen Algo assoziationswichtungen vorgaukeln... das konzept erscheint mir nicht wirklich durchdacht... weiters ist hier natürlich die Frage in wiefern ein neuronales hier tatsächlich sinn macht... denn theoretisch gibt es hier einige millionen variablen im input layer... selbst bei sehr geringer tiefe des NN (black box layers) ergibt sich daraus eine benötigte Rechenleistung die immens ist....

ehrlich gesagt scheint es mir so als würden hier schlagworte wie NN und AI als Marketinginstrument herangezogen, ohne tatsächlich über mögliche Anwendungen und v.a. deren Grenzen bescheid zu wissen (ohne jetzt das interview angehört zu haben sondern nur das pdf gesehen)...
 
Ich hab mit den Jungs auf dem BarCamp in München geplaudert. Eben auch über BlackHat SEO und Rechenleistung. Gerade Algos die auf neuronalen Netzen basieren brauchen nicht die Rechenleistung wie Googles PageRank Algos.

Mich hat der Ansatz recht fasziniert. Neuronale Netze bilden ja im Prinzip Denkvorgänge nach. Auch Google hat mittlerweile rund 50 Patente in diesem Bereich und wohl auch bereits ein paar Filter die auf neuronalen Netzen basieren und in den Haupt Algo einfliessen. Vorteil von Queap ist, dass der Hauptalgo bereits auf neuronalen Netzen beruht. 1998 gab es schlicht nicht die CPU Leistung für Brin und Page um über eine solche Lösung nachzudenken.


Grüsse vom Namewise
 
Gerade Algos die auf neuronalen Netzen basieren brauchen nicht die Rechenleistung wie Googles PageRank Algos.

Da denke ich irrst du... hab ab und an mal in den letzten 5-6 Jahren NNs für med. wissenschaftliche Forschung verwendet und diese benötigen meiner Erfahrung nach um etliches mehr an Rechenleistung als ein vergleichbarer Algo...

Der Vorteil eines NN ist ein ganz anderer, nämlich, daß sich über das trainieren des Netzes ein Angleich an die realen Verhältnisse erzielen läßt (also auch wenn man über div. mathematischen deduktivmethoden zu keinem schlüssigen Algo kommt)... jedoch je größer und je divergierender der input layer ist umso mehr künstlichen neuronen oder layers in der black box benötigst du... in dem Fall sind eine Unzahl an variablen denkbar, die zeigen ob eine Seite Relevant ist, ergo brauchst ne Menge layers in der black box, ergo ne Riesenmenge Rechenleistung... oder du reduzierst natürlich aber dann hast keinen Benefit vom NN respektive wohl schlechtere Ergebnisse als über nen guten Algo...

mfg pyro

P.S. Um das nicht falsch verstanden zu wissen: Ich steh total auf neuronale Netze und halte sie für programmiertechnisch eine der interessantesten Entwicklungen in letzter Zeit (ebenso i.ü. genetic programming) aber ich denke nur, daß es sich für eine solch umfassende Anwendung nicht anbietet (evtl. vielleicht um gewisse detailmarker zu wägen über div. unterschiedliche NNs aber nicht über ein zentrales) wenn man nicht unbegrenzt Resourcen zur Verfügung hat....
 
Da denke ich irrst du... hab ab und an mal in den letzten 5-6 Jahren NNs für med. wissenschaftliche Forschung verwendet und diese benötigen meiner Erfahrung nach um etliches mehr an Rechenleistung als ein vergleichbarer Algo...
Das besondere am Algo von Queap ist ja, dass er scheinbar als erster Algo linear skaliert. Er arbeitet mit sogenannten Pointern - vereinfacht gesagt wandelt er Worte in Zahlen um - und kommt damit extrem wenig Speicher aus. Die aktuelle private Beta hat 2 Millionen Sites im Index (100 Jahre Daily Mirror Archiv) bei einem Speicherbedarf von insgesamt 350 MB.


Grüsse vom Namewise
 
Zur technischen Seite kann ich leider nichts sagen, aber laut Interview läuft das jetzt schon (und alles auf einem Medion-PC). Gerade bezüglich Blackhat kann ich mir auch nicht vorstellen, dass das gut in den Griff zu bekommen ist - laut Interview aber für die Entwickler kein Problem.

Vorstellen kann ich mir das auch nicht, aber einen Testaccount habe ich per Mail schon erfragt (und mich damit für die nächste "Einladungsrunde" vormerken lassen).

kabale
 
Zurück
Oben