Habe mir sagen lassen, dass es sinnvoll für das google-ranking ist, veraltete Seiten mit nicht passenden Begriffen über robots.txt als disallow / zu entfernen.
Dies habe ich über das google webmaster-tool versucht.
Wurde aber abgelehnt.
Habe nochmals nachgelesen, dass als Voraussetzung erforderlich ist:
"beim Aufrufen der Seite muss also der HTTP-Statuscode 404 (nicht gefunden) oder 410 zurückgegeben werden"
oder
Blockieren Sie den Content mithilfe einer robots.txt-Datei.
Blockieren Sie den Content mithilfe eines NOINDEX-Meta-Tags.
Wie kann man die Unterseite mit HTTP-Statuscode 404 blockieren?
Danke + Grüße
Dies habe ich über das google webmaster-tool versucht.
Wurde aber abgelehnt.
Habe nochmals nachgelesen, dass als Voraussetzung erforderlich ist:
"beim Aufrufen der Seite muss also der HTTP-Statuscode 404 (nicht gefunden) oder 410 zurückgegeben werden"
oder
Blockieren Sie den Content mithilfe einer robots.txt-Datei.
Blockieren Sie den Content mithilfe eines NOINDEX-Meta-Tags.
Wie kann man die Unterseite mit HTTP-Statuscode 404 blockieren?
Danke + Grüße
Zuletzt bearbeitet: