XHTMLforum

XHTMLforum (http://xhtmlforum.de/index.php)
-   Site- und Layoutcheck (http://xhtmlforum.de/forumdisplay.php?f=77)
-   -   webmaster tools crawling-Fehler URL nicht gefunden nach relaunch - Fehlerbeseitigung (http://xhtmlforum.de/showthread.php?t=73175)

philosapiens 10.03.2017 11:03

webmaster tools crawling-Fehler URL nicht gefunden nach relaunch - Fehlerbeseitigung
 
Hallo zusammen,

ich habe gerade eine Seite neu gestaltet. Da sich einige Seitenendungen geändert haben, findet google webmaster Tools einige Seiten nicht mehr. In der Search Console - Crawling - Crawling Fehler werden einige "alte" Seiten nicht mehr gefunden.

Beispiel:

alt: http://reiki-hetzer.de/kontakt

neu: Reiki Hetzer | Kontakt

Die alte Adresse führt zu einem 404-Fehler.

Bisher habe ich dann Google einfach über Search Console - Google-Index - URL entfernen mitgeteilt, dass die Seite bitte aus dem Suchindex entfernt werden soll und die Seite dann über Search Console - Crawling - Crawling Fehler angeklickt, dass der Fehler behoben sei.

Ist das Eurer Meinung nach so in Ordnung? Oder würde es mehr Sinn machen, die nicht mehr auffindbaren Seiten einfach nochmal anzulegen, mit dem neuen Content zu versehen und mit "canonical" auszuzeichnen und auf die jetzt aktuelle Seite zu verweisen? Schließlich könnten ja einige Seiten auch bei anderen mit der alten Adresse verlinkt sein und diese Backlinks möchte ich natürlich nicht zu einer 404 oder 301 Seite führen.

Danke schon einmal für Eure Ideen.

cloned 10.03.2017 11:19

Wieso wird die Dateiendung bei der "neuen" Url mit ausgegeben? Die alte URL ist Suchmaschinen- und Benutzerfreundlicher. Da würde ich dir raten, die neue URL auf die alte Struktur umzustellen, bzw. zumindest auf .html umzustellen, damit die dahinterliegende Technologie (php) nicht sofort für den User sichtbar ist.

philosapiens 10.03.2017 11:40

Zitat:

Zitat von cloned (Beitrag 550639)
Wieso wird die Dateiendung bei der "neuen" Url mit ausgegeben? Die alte URL ist Suchmaschinen- und Benutzerfreundlicher.

Hallo cloned,
ich hatte mal das ein oder andere Problem mit Scripten, die die URL verarbeiten. Haben die URLs dann keine Endung oder ein "/", dann wurden diese nicht richtig bzw. gar nicht verarbeitet. Daher habe ich mal ein wenig gelesen und konnte keinen wirklichen Mehrwert durch Änderung der "echten" Dateiendung finden. Und meiner Erfahrung nach interessieren sich die Webseitenleser mehr für den Inhalt, als für die Adressen. ;)

Aber wie würdest Du damit umgehen, wenn Du die "echten" Endungen behalten wollen würdest?

cloned 10.03.2017 11:58

Das mit der Endung ist auch nicht soo tragisch und auch nicht wirklich "falsch", es ist auf der einen Seite weniger zum tippen für den Nutzer wenn er sich die URL merken/abtippen will. Warum man eher .html statt .php verwenden sollte: Es geht hier nicht darum, ob es den Nutzer interessiert, sondern darum, das man nicht sofort öffentlich zeigt, welche Technologie verwendet wird. Bei deiner Seite weiß ein Angreifer sofort, dass du php einsetzt und kann, wenn er den Server angreifen will, gezielt auf PHP-Schwachstellen testen. Solltest du natürlich sagen: "Ich werde niemals angegriffen, ich bin 100%-ig sicher" dann kannst du natürlich auch .php als Endung lassen. Aber warum es anderen extra einfach machen wenn es sich vermeiden lässt.

Inwiefern Skripte dann mit deinen URLs Probleme haben kann ich natürlich nicht sagen. Ich würde hier eher die Fehler in den Skripten beheben.

edit: passt halbwegs dazu: http://webmasters.stackexchange.com/...s-are-the-best

philosapiens 10.03.2017 12:09

Danke für Deinen Link.

Aber selbst wenn ich jetzt die Dateiendungen nochmals ändern sollte, dann wären ja die "php-Endungen" auch schon im Google-Index. Wie wäre dann der sinnvollste Umgang mit den so oder so nicht erreichbaren Seiten?

laborix 12.03.2017 20:28

Zitat:

Zitat von philosapiens (Beitrag 550638)
... Bisher habe ich dann Google einfach über Search Console - Google-Index - URL entfernen mitgeteilt, dass die Seite bitte aus dem Suchindex entfernt werden soll und die Seite dann über Search Console - Crawling - Crawling Fehler angeklickt, dass der Fehler behoben sei...

Meiner Erfahrung nach funktioniert das nicht, habe vor Jahren zwei Webprojekte ganz aufgegeben und Teile davon sind immer noch im Index. Meine Vermutung das von irgendwo noch auf diese Seiten verlinkt wird. Warum auch immer.

Zum Aufräumen funktionierte bei mir nur die Methode alles auf eine zentrale 404er Seite zu leiten (musste per .htaccess auf dem Webspace gemacht werden). PHP Lösungen oder ein Redirekt mit 410er hatten keinen Erfolg.

Je nach Anzahl der einzelnen Seiten kannst du auch überlegen, ob du einen 301er von Alt nach Neu machst. Die alten Links wirst du damit aber nicht los, die bleiben bei dieser Lösung für immer und ewig im Google Index.


Gruß

Herby 14.03.2017 18:09

Kann es sein, dass sich das Problem inzwischen gelöst hat? Bei meinem Test gerade eben werde jeweils korrekt auf die identische Seite geleitet.
Wie hast Du es denn jetzt angestellt?


Alle Zeitangaben in WEZ +2. Es ist jetzt 23:40 Uhr.

Powered by vBulletin® Version 3.8.11 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.

© Dirk H. 2003 - 2023