|
|||
Domain aus Google löschen
Hallo!
Ich möchte meine Domain/Seite komplett aus Google löschen. Laut Google soll man dies mit der "robots.txt" mit dem "Löschcode" machen der auf deren Internetseite steht, dies habe ich auch so gemacht, jedoch ohne Erfolg. Ich habe seit mehr als vier Wochen den "Löschcode" eingetragen, jedoch taucht meine Domain/Seite immer noch auf und der Robot hat schon mehrere male wieder "vorbei geschaut". Was kann ich nun noch machen? |
Sponsored Links |
Sponsored Links |
|
|||
In meiner robots.txt steht folgendes drin
Code:
User-agent: * Disallow: / Gruß André Geändert von andre-ne (22.12.2009 um 20:53 Uhr) |
|
|||
Hallo,
dein robots.txt ist meiner Meinung nach richtig um das Crawlen zu verhindern. Der google-bot wird immer wieder vorbeischaun um die robots.txt auszulesen und ggf. Unterseiten zu crawlen. Ich denke hier liegt das Missverständnis - der Bot kommt immer wieder um zu schauen ob sich was verändert hat - in deinem Fall eben nur die robots.txt. Das er die Domain gar nicht mehr ansteuert kannst du nicht verhindern. Um ganz sicher zu gehen kannst du mit einem 403er (also Not Allowed und das eben eingeschränkt auf die IP-Ranges von google oder auf den User-Agent vom google-bot) arbeiten. Hinzu kommt, dass sich einmal indizierte Seiten nicht so leicht wieder aus dem Index löschen lassen. Man brauch nur mal beobachten nach wie viel Jahren die Bots noch Seiten crawlen wollen die 404 oder 410 sind. Im google webmaster-tools gibt es unter Website-Konfiguration -> Crawler-Zugriff die Option Seite löschen - allerdings klappt das auch nicht immer. Grüße Simon |
|
|||
Super, das ist eine ausführliche Erklärung, jedoch habe ich nun das Problem, dass ich nicht weiß wie ich das ganze umsetzen muss?
Bei diesen Google Webmaster-Tools bin ich gar nicht angemeldet für. Gruß André |
|
|||
Evtl. lohnt sich eine Anmeldung für spätere Projekte.
Solange heißt es aber auch Geduld haben. Googles Server stehen überall und bis alle auf dem neuen Stand sind kann es ein paar Wochen bis Monate dauern. Sollten schon Backlinks vorliegen, kann es nochmal etwas länger dauern - Im Idealfall "säubert" man also die alten Inhalte, sprich, zieht die Inhalte auf einen Unterordner /anderen Ordner um (der natürlich vom globalen disallow profitiert). Dann kann man auch über alte externe Links nicht mehr ohne weiteres auf deine Inhalte zugreifen, wenn bei einem 404er oder einem externen Link nur noch eine weiße Seite erscheint
__________________
Grüsse Andreas- auch mal wieder da... Design isn't about the tools, it's about creating the best experience for the user. A design should be based on usability, accesibility, aesthetics, but never on floats, lists or background images. ( by Cameron Adams) Wiedergelesen: > hier und hier [Foren-Links] Dein Post? Klar, DAS vorher gelesen? Hilft. ## User-Landkarte |
|
|||
Das wäre mir doch egal, ich will damit auch nur erreichen das wenn man "mich" googlet, ich einfach nicht mehr gefunden werde und normalerweise löscht Google tote Adressen was am Ende der Fall sein müsste
|
Sponsored Links |
|
|||
User-agent: Googlebot
Disallow: / Blockier doch nur den Zugriff für den googlebot einfach in der robots.txt. Das müsste für deine Wünsche reichen. Ich würde aber versuche googlebot über den user agent zu sperren: RewriteEngine On RewriteCond %{HTTP_USER_AGENT} ^Googlebot RewriteRule ^.*$ - [F] Müsste so funktionieren |
Sponsored Links |
Themen-Optionen | |
Ansicht | |
|
|
Ähnliche Themen | ||||
Thema | Autor | Forum | Antworten | Letzter Beitrag |
Neue domain - alter webspace? Geht das? | sepp88 | Offtopic | 3 | 18.02.2011 13:50 |
Google Analytics rechtswidrig? | EvT | Offtopic | 41 | 23.07.2008 20:12 |
Google earth (maps): Abmahnwelle | EvT | Offtopic | 1 | 04.03.2008 22:07 |
Variabler Text Button... | der_junge | CSS | 2 | 11.11.2004 18:15 |