mediengestalter.info
FAQ :: Mitgliederliste :: MGi Team

Willkommen auf dem Portal für Mediengestalter

Aktuelles Datum und Uhrzeit: Fr 19.04.2024 17:00 Benutzername: Passwort: Auto-Login

Thema: Wieviel robots.txt für eine Domain/Webspace? vom 11.04.2008


Neues Thema eröffnen   Neue Antwort erstellen MGi Foren-Übersicht -> Allgemeines - Nonprint -> Wieviel robots.txt für eine Domain/Webspace?
Seite: 1, 2  Weiter
Autor Nachricht
cri
Threadersteller

Dabei seit: 20.02.2004
Ort: Hauptstadt
Alter: 41
Geschlecht: Männlich
Verfasst Fr 11.04.2008 16:11
Titel

Wieviel robots.txt für eine Domain/Webspace?

Antworten mit Zitat Zum Seitenanfang

Hallo ihr da draußen!

Wie im Titel schon zu lesen, zielt die Frage in Richtung der "robots.txt"
Ich verwende diese schon länger und sehr gern etc. doch ist mir heute eine entscheidene Frage gekommen:

Wieviel robots.txt hat man denn so auf dem Webspace?
Bei meinem Webspace habe ich nämlich mehrere - passend zu jeder unterdomain oder Domainverweis. Somit habe ich so zum beispiel in dem ordner "ROOT" welcher z.B. die Ordner "1" und "2" enthält eine robots.txt aber auch in den Ordnern "1" und "2" - da diese ordner von unterdomains sind ...

Meine Frage:
Ist diese Praxis richtig so, oder platziert man eigentlich nur eine robots.txt in das root-verz. des webspaces und die wird dann immer ausgelesen, egal ob die crawler eigentlich nur in dem entsprechenden unterordner durchsuchen sollen ...

ich hoffe, ich konnte mein problem halbwegs verständlich darlegen ...
habt ihr nen tipp also?

vielen dank schonmal
mfg
der CRI
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
Mac

Dabei seit: 26.08.2005
Ort: Köln
Alter: 62
Geschlecht: Männlich
Verfasst Sa 12.04.2008 10:04
Titel

Antworten mit Zitat Zum Seitenanfang

wenn aus dem rootverzeichnis auf die Subdomains verlinkt wird, also das für den crawler eine Website ist, dann brauchste nur eine robots.txt. Wenn die Subdomains losgeöst und eigenständige Auftritte sind, dann ja.

Wenn der Link von domain.de zu meine.domain.de geht, dann ja.

Hoffe, das ist klar, hab 2 Kilo Rotz im Hirn..
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
Anzeige
Anzeige
cri
Threadersteller

Dabei seit: 20.02.2004
Ort: Hauptstadt
Alter: 41
Geschlecht: Männlich
Verfasst Sa 12.04.2008 15:50
Titel

Antworten mit Zitat Zum Seitenanfang

Mac hat geschrieben:
wenn aus dem rootverzeichnis auf die Subdomains verlinkt wird, also das für den crawler eine Website ist, dann brauchste nur eine robots.txt. Wenn die Subdomains losgeöst und eigenständige Auftritte sind, dann ja.

Wenn der Link von domain.de zu meine.domain.de geht, dann ja.

Hoffe, das ist klar, hab 2 Kilo Rotz im Hirn..


ah gut.
schonmal danke.
ich glaub dann muss ich das so lassen ... die subdomains sind schon losgelöst - maximal per link verbunden aber extra verwaltet ...

mfg
der CRI
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
utopia

Dabei seit: 02.08.2004
Ort: -
Alter: 40
Geschlecht: Männlich
Verfasst Sa 12.04.2008 19:27
Titel

Antworten mit Zitat Zum Seitenanfang

Tach
es reicht eine robots im root-verzeichnis, die robots in den jeweiligen ordnern (1,2) kannste rausnehm.

Ob die robots von "muster.de" auch auf den subdomains funktionieren, weiß ich nich, glaub ich nich, kann ich mir nich vorstelln!?!?!?
  View user's profile Private Nachricht senden
cri
Threadersteller

Dabei seit: 20.02.2004
Ort: Hauptstadt
Alter: 41
Geschlecht: Männlich
Verfasst Sa 12.04.2008 19:51
Titel

Antworten mit Zitat Zum Seitenanfang

utopia hat geschrieben:
Tach
es reicht eine robots im root-verzeichnis, die robots in den jeweiligen ordnern (1,2) kannste rausnehm.

Ob die robots von "muster.de" auch auf den subdomains funktionieren, weiß ich nich, glaub ich nich, kann ich mir nich vorstelln!?!?!?


darum gehts aber ... Menno!
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
Miridor

Dabei seit: 11.04.2005
Ort: -
Alter: -
Geschlecht: Männlich
Verfasst Mo 14.04.2008 11:06
Titel

Antworten mit Zitat Zum Seitenanfang

Die robots (spiders) lesen alle rootverzeichnisse... jede subdomain hat einen root, von daher werden sie auch erfasst...
  View user's profile Private Nachricht senden
Mischpult

Dabei seit: 19.11.2003
Ort: Bochum
Alter: -
Geschlecht: Männlich
Verfasst Mo 14.04.2008 11:38
Titel

Antworten mit Zitat Zum Seitenanfang

Zitat:
When a spider finds a URL, it takes the whole domain name (everything between 'http://' and the next '/'), then sticks a '/robots.txt' on the end of it and looks for that file. If that file exists, then the spider should read it to see where it is allowed to crawl.

In your case, Googlebot, or any other spider, should try to access three URLs: domainA.com/robots.txt, domainB.domainA.com/robots.txt, and domainB.com/robots.txt. The rules in each are treated as separate, so disallowing robots from domainA.com/ should result in domainA.com/ being removed from search results while domainB.domainA.com/ remains unaffected, which does not sound like not something you want.


Quelle: http://www.seroundtable.com/archives/013888.html

Wobei das auch auf den Bot ankommt. Aber viele machen das so wie dort oben beschrieben.
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
cri
Threadersteller

Dabei seit: 20.02.2004
Ort: Hauptstadt
Alter: 41
Geschlecht: Männlich
Verfasst Mo 14.04.2008 13:12
Titel

Antworten mit Zitat Zum Seitenanfang

Mischpult hat geschrieben:
Zitat:
When a spider finds a URL, it takes the whole domain name (everything between 'http://' and the next '/'), then sticks a '/robots.txt' on the end of it and looks for that file. If that file exists, then the spider should read it to see where it is allowed to crawl.

In your case, Googlebot, or any other spider, should try to access three URLs: domainA.com/robots.txt, domainB.domainA.com/robots.txt, and domainB.com/robots.txt. The rules in each are treated as separate, so disallowing robots from domainA.com/ should result in domainA.com/ being removed from search results while domainB.domainA.com/ remains unaffected, which does not sound like not something you want.


Quelle: http://www.seroundtable.com/archives/013888.html

Wobei das auch auf den Bot ankommt. Aber viele machen das so wie dort oben beschrieben.


also lass ich die besser wohl so einzeln ... *Huch*
right?
  View user's profile Private Nachricht senden Website dieses Benutzers besuchen
 
Ähnliche Themen Webspace und Domain
Webspace und Domain verbinden?
Robots
robots.txt so richtig?
robots.txt mit mehr Info
Indexierung durch robots.txt
Neues Thema eröffnen   Neue Antwort erstellen Seite: 1, 2  Weiter
MGi Foren-Übersicht -> Allgemeines - Nonprint


Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst an Umfragen in diesem Forum nicht mitmachen.