XHTMLforum

XHTMLforum (http://xhtmlforum.de/index.php)
-   Serveradministration und serverseitige Scripte (http://xhtmlforum.de/forumdisplay.php?f=80)
-   -   Subdomains oder besser Pfadangaben? (http://xhtmlforum.de/showthread.php?t=52799)

Praktikant 23.07.2008 11:07

Bis bei google Inhalte gelöscht werden dauert es teilweise mehrere Monate ;)

netspy 23.07.2008 11:09

Zitat:

Zitat von eXHTML (Beitrag 394556)
Bis bei google Inhalte gelöscht werden dauert es teilweise mehrere Monate ;)

Ja ich weiß und manche werden sogar nie gelöscht. Dass die ursprüngliche und neue Ressource aber so direkt in den Ergebnissen zusammen auftauchen, hatte ich bisher aber noch nicht gesehen.

Mario

Praktikant 23.07.2008 11:16

Manchmal werden Inhalte bei google sehr direkt eingetragen und als erstes angezeigt. Es kann dann sein (was sehr wahrscheinlich ist) dass die Seite nach 4 oder 5 Tagen wieder nach hinten verschwindet. Das habe cih schon öfter gesehen.

netspy 23.07.2008 11:22

Schaun wir mal, ob es sich um den „Anfangsbonus“ von Google handelt. Ich glaube es aber nicht, da die Seite ja nicht neu ist und nur eine vorhandene und schon lange gelistete Ressource auf eine neue verschoben wurde. Wenn alles klappt, sollte www.lingo4u.de/deutsch in den nächsten Tagen verschwinden und die Subdomain-Variante an ähnlicher Stelle in den Ergebnissen bleiben.

Mario

Dieter 24.07.2008 00:28

Hallo, Mario!
Zitat:

Wenn alles klappt, sollte Deutsch Lernen in den nächsten Tagen verschwinden und die Subdomain-Variante an ähnlicher Stelle in den Ergebnissen bleiben.
Das kann aber auch schon mal etwas länger dauern.

Ich glaube, was den Suchmaschinenbetreibern neben dem mittlerweile sehr guten Indizieren von Inhalten noch fehlt, ist so eine Art "Domaineinstufungsskala". Zu unterschiedlich sind nämlich die Verfahrensweisen der Seitenbetreiber im Zusammenhang mit Datei- oder Pfadnamen und Inhalten. Gerade bei dynamisch erstllten Inhalten gehen viele Seitenbetreiber hin und weisen neuen Inhalten ständig und automatisiert neue Dateinamen zu. Die alten Inhalte bleiben oft dann auch noch auf dem Server (hier wird der Server als Archiv missbraucht), sind nur nicht mehr verlinkt. Werden aufgrund der Suma-Indexierung aber weiterhin gefunden und bleiben im Index. Als Suchender kann man dies leicht feststellen, indem man einfach mal nach Veranstaltungstipps aus dem Jahr 2002 sucht (und fündig wird).

Andere Seitenbetreiber bringen neue Inhalte (z. B. aktuelle Nachrichten) immer unter dem gleichen Dateinamen. Wieder andere Seitenbetreiber praktizieren eine Mischung aus beiden Verhaltensweisen oder ziehen mal eine ganz ander Art der "Dateiverwaltung" vor.

Dass Google alte Adressen auch schon mal etwas länger im Index läßt, kann ich aus eigener Erfahrung bestätigen. Selbst das Nicht-mehr-aufführen in einer XML-Sitemap kann das unter Umständen nicht beschleunigen. Da ich Google & Co. durchaus zutrue, dass sie schneller und effektiver indizieren könnten, gehe ich davon aus, dass Sumas auch versuchen, das Verhalten von Seitenbetreibern abzubilden.

Praktikant 24.07.2008 02:58

Du hast Recht Dieter.... Seite die eine Newsseite haben, die sich regelmäßig andert (es muss aber die selbe Seite sein) werden höher gelistet als Seite ohne News-Teil :)

netspy 24.07.2008 11:01

Zitat:

Zitat von eXHTML (Beitrag 394698)
Du hast Recht Dieter.... Seite die eine Newsseite haben, die sich regelmäßig andert (es muss aber die selbe Seite sein) werden höher gelistet als Seite ohne News-Teil :)

Kann ich so nicht bestätigen. Wenn sich die Seite häufig ändert, kommt zwar der GoogleBot viel häufiger (teilweise mehrmals am Tag) vorbei, dass die Seiten deshalb aber generell besser gelistet werden, hab ich so noch nicht beobachten können.

Mario

Dieter 24.07.2008 16:12

Meine Anmerkungen zum Themenkomplex "Änderungen" bezogen sich nicht auf RSS/Atom, sondern nur auf das allgemeine Ändern von Inhalten. Die aktuellen Nachrichten hatte ich nur als Beispiel angeführt.

Dass die Häufigkeit der Änderungen fürs Ranking eine Rolle spielt, glaube ich nicht. Sonst würden bei dieser Art der Wertung Fachartikel mit Grundsatzthemen (z. B. aus dem Bereich der Naturwissenschaften) ja schlecht wegkommen, weil sie in einigen Fällen jahrelang nicht aktualisiert werden (müssen). Für die Einstufung der Inhalte werden ganz andere Kriterien zugrunde gelegt.

Dass eine "echte" Nachrichtenseite (z. B. aus der Politik), die regelmäßig geändert wird, anders beurteilt werden wird, ist aber auch klar. Entscheidend dürften in beiden Fällen zuvorderst aber bestimmte "Reizworte" und "Reizwortkombinationen" sein.

Die sehr komplexen Algorithmen, die nötig sind, um Suchergebnisse in usergerechter Reihenfolge auswerfen zu können, müssen neben allen anderen Anforderungen auch noch sehr flexibel sein. Sonst würden sie spätestens bei einer neuartigen Ranking-Spamwelle versagen. Einen gewissen Schutz suchen die Sumas hier wohl im "Domain Trust Rank", mit dem ältere Domains - sofern sie nie negativ aufgefallen sind - relativ zuverlässig eingeordnet werden können. Denn aufgrund der unweigerlich enstandenen "Langzeitstudie" kann zumindest die Zuverlässigkeit (aus Sicht der Suma) einer älteren Seite besser beurteilt werden. Am (separaten) Bewerten der Inhalte ändert dies aber grundsätzlich nicht sehr viel.

Was man aber nie ganz außer Acht lassen darf: auch Fehleinschätzungen, technische Defekte, unwägbare Toleranzen in den Algorithmen oder andere Unzulänglichkeiten werden immer wieder auch in die Suchergebnisse einfließen! :)


Alle Zeitangaben in WEZ +2. Es ist jetzt 19:02 Uhr.

Powered by vBulletin® Version 3.8.11 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.

© Dirk H. 2003 - 2023