Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

wie unterseite auf HTTP-Statuscode 404 umstellen

tomti

New member
Registriert
15. Juli 2009
Beiträge
106
Reaktionspunkte
0
Habe mir sagen lassen, dass es sinnvoll für das google-ranking ist, veraltete Seiten mit nicht passenden Begriffen über robots.txt als disallow / zu entfernen.
Dies habe ich über das google webmaster-tool versucht.
Wurde aber abgelehnt.

Habe nochmals nachgelesen, dass als Voraussetzung erforderlich ist:
"beim Aufrufen der Seite muss also der HTTP-Statuscode 404 (nicht gefunden) oder 410 zurückgegeben werden"
oder
Blockieren Sie den Content mithilfe einer robots.txt-Datei.
Blockieren Sie den Content mithilfe eines NOINDEX-Meta-Tags.


Wie kann man die Unterseite mit HTTP-Statuscode 404 blockieren?

Danke + Grüße
 
Zuletzt bearbeitet:
404 ist der Standard, den Du bei einer nicht vorhandenen Seite bekommst. Dafür reicht normalerweise das Löschen der Seite. Rufe die Seite mal auf und schau Dir die Kopfzeile des Browserfensters an. Da sollte "404 not Found" stehen.

Wenn Du einen Inhalt und keine Fehlerseite bekommst, dann hast Du (bzw. das von Dir verwendete CMS) die .htaccess-Datei geändert und leitest darüber nicht vorhandene Inhalte auf eine andere Seite um.
 
Ja genau, das CMS (drupal) leitet auf eine Seite um, man sieht den Aufbau der Webseite nur statt Inhalt steht "Page not found".

Wie mache ich das, dass es als 404 läuft, damit google dies für disallow/ bei den robots.txt akzeptiert?

Danke + Grüße
 
Habe nochmals nachgelesen, dass als Voraussetzung erforderlich ist:
"beim Aufrufen der Seite muss also der HTTP-Statuscode 404 (nicht gefunden) oder 410 zurückgegeben werden"
oder
Blockieren Sie den Content mithilfe einer robots.txt-Datei.
Blockieren Sie den Content mithilfe eines NOINDEX-Meta-Tags.

Evtl noch 2x lesen... :dancing:
Um welche Seite gehts denn? Hatte bisher mit robots.txt keine probleme.

EDIT:
damit google dies für disallow/ bei den robots.txt akzeptiert?
Evtl hast du da was falsch gemacht? Da gibt es keine Vorraussetzungen. Jede in die robots.txt eingetragene Seite wird akzeptiert.
 
Zuletzt bearbeitet:
Hallo AlexP - am mehrfach lesen liegt es nicht ist ziemliches Neuland für mich.

Bei drupal findet man die fehlerhaften Seiten - 'page not found' errors. Diese werden aber automatisch weitergeleitet
 
Ja genau, das CMS (drupal) leitet auf eine Seite um, man sieht den Aufbau der Webseite nur statt Inhalt steht "Page not found".

Und mit welchem Status-Code?

Fallst Du Linux benutzt: mach mal eine Konsole auf und tippe folgendes ein:

HEAD http://...

(also die URL der Seite)

Da kommt dann der Header und der müsste so anfangen:
404 Not Found

Wie das unter Windows geht, weiss ich leider gerade nicht.

Evtl. halt mal einen Link posten ggf. maskiert.

Gruß
M.
 
Ich habe, schlau, wie ich bin, jetzt mal selbst bei Drupal nachgesehen.

Sieht das bei Dir so ähnlich aus, wie diese Seite hier:

http://drupal.org/project/drupalsdfkjk

Also das ist eine 404er Seite, der Header sieht so aus:

404 Not Found
Cache-Control: public, max-age=60
Connection: close
Date: Sun, 21 Feb 2010 15:35:54 GMT
Via: 1.1 varnish
Age: 0
ETag: "1266766541-0"
Server: Apache/2.2.3 (CentOS)
Vary: Cookie,Accept-Encoding
Content-Length: 3779
Content-Type: text/html; charset=utf-8
Expires: Sun, 19 Nov 1978 05:00:00 GMT
Last-Modified: Sun, 21 Feb 2010 15:35:41 +0000
Client-Date: Sun, 21 Feb 2010 15:35:54 GMT
Client-Peer: 140.211.166.6:80
Client-Response-Num: 1
X-Drupal-Cache: HIT
X-Powered-By: PHP/5.2.11
X-Varnish: 941893443

Wenn das bei Dir auch so ist, musst Du keine Umleitung mehr einbauen. In diesem Fall ist vermutlich Deine robots.txt doch fehlerhaft.


Gruß
M.
 
Zuletzt bearbeitet:
Zurück
Oben