Worldsoft-CMS generiert die Datei robots.txt

Date 2008/3/10 14:45:02 | Topic: ALLE

Ein Robot ist ein Computerprogramm, das von Suchmaschinen eingesetzt wird, um das World Wide Web zu durchsuchen und Webseiten zu analysieren. Dabei werden die gefundenen Seiten indiziert und in den Datenbestand der Suchmaschine aufgenommen.
Der Robot (auch Webcrawler oder Spider genannt) liest beim Auffinden einer Website zuerst die Datei robots.txt. In dieser Datei kann festgelegt werden, ob und wie die Website von einem Robot besucht werden darf. Der Website-Betreiber hat so die Möglichkeit, ausgewählte Inhalte generell oder auch nur für bestimmte Suchmaschinen zu sperren.

Eine Anleitung erhalten Sie unter folgendem Link:

http://www.worldsoft-downloads.info/pdf/help/robots-txt.pdf

Weitere Informationen zum Thema erhalten Sie unter

http://de.wikipedia.org/wiki/Robots_Exclusion_Standard



This article comes from
https://news.worldsoft.info

The URL for this story is:
https://news.worldsoft.info/article.php?storyid=257&topicid=1