网站robots.txt文件配置错误,让我的站点丧失抓起良机!

来源:岁月联盟 编辑:zhu 时间:2008-03-15
站长必上的网站 今天检查网站的时候,发现网站的robots.txt文件始终是验证错误,说不是一个合法的robots.txt文件,很是奇怪。后来,仔细检查文件里的几行语句,怀疑是注释里使用了中文,可能国外的在线robots.txt验证工具就识别不了。去掉中文注释,在

    国外的检查robots.txt文件合法性的在线验证工具地址是:http://tool.motoricerca.info/robots-checker.phtml。不过要注意,使用这个工具,请把robots.txt里的汉字注释清除(我的广州空调维修站点就是吃这个亏了!!!),它识别不了汉字;如果有汉字在里面的话,它就不认为这是一个robots.txt文件了。

   如果robots文件验证通过的话,一般会显示以下结果:
Analyzing file http://www.piaoyi.org/robots.txt
No errors found in this robots.txt file
Hide empty and comments lines:

The following block of code DISALLOWS the crawling of the following files and directories: /inc/ to all spiders/robots.
Line 1 # robots.txt for www.gz-kongtiao.cn
Line 2 User-agent: *
Line 3 Disallow: /inc/

    另外,Google网站管理员工具也可以在线验证robots文件,google是支持中文注释的。要分析网站的 robots.txt 文件,请按以下步骤操作:
(1)使用 Google 帐户登录 Google 网站管理员工具。
(2)在"控制台"中,点击所需网站的网址。
(3)点击工具,然后点击分析 robots.txt。

   最后我要说的是:如果有什么问题,请您给我留言,留言地址是http://www.gz-kongtiao.cn/guest/。谢谢合作!