|
|||
Sperren für Suchbots
Hallo,
mir ist grade aufgefallen, dass bei Google auch Suchergbenisse dieses Forums gefunden werden. Ich würde es sinnvoll finden, wenn man per robots.txt ein paar Seiten vor dem indexing befreit. Also zB search.php und viewprofile.
__________________
Gruß, Greg |
Sponsored Links |
|
|||
Weil über die Suche ja keine Posts gefunden werden, die auch so nicht gefunden werden. Es tauchen also viele Posts "doppelt" im (z.B.) Googleindex auf. Das halte ich nicht für sinnvoll.
Bei den Profilen ist es einfach so, dass dort ja keine wirklichen "Inhalte" stehen. Darüber lässt sich natüröich streiten Jedenfalls hätte es bei beiden noch den Nebeneffekt, dass es Traffic spart. Wahrscheinlich nicht so besonders viel, aber gemessen an dem geringen Aufwand ist das schon ok denke ich.
__________________
Gruß, Greg |
|
|||
Ok, danke
Zitat:
__________________
Gruß, Greg |
|
||||
Zitat:
@Greg5000 Die drastische Erhöhung der monatlichen Transfergrenze kam durch einen Tarifwechsel, den ich vorgenommen habe. Grund war aber nicht der Traffic, sondern der Speicherplatz. Mit den ursprünglichen 25 GB Traffic würde das Forum zur Zeit auch noch prima auskommen. Aber trotzdem gut zu wissen, dass das Forum nun weiter wachsen kann hemfrie |
Themen-Optionen | |
Ansicht | |
|
|
Ähnliche Themen | ||||
Thema | Autor | Forum | Antworten | Letzter Beitrag |
IP adressen von bekannten VPN's sperren? | Qfine | Serveradministration und serverseitige Scripte | 1 | 19.02.2010 16:27 |
CMS sperren | Nandini | Serveradministration und serverseitige Scripte | 10 | 18.05.2009 23:19 |
Kann man PHP auf dem Server sperren? | hubspe | Serveradministration und serverseitige Scripte | 10 | 19.03.2008 09:07 |
Dateien PW schützen/Verzeichnisstruktur sperren | TheRealImperator | Serveradministration und serverseitige Scripte | 6 | 27.01.2006 13:26 |
Mit CSS Seitenteile für Suchmaschine sperren | w_schimpf | CSS | 1 | 17.02.2005 16:28 |