第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

百度为什么抓取被robots.txt禁止的文件

时间:2012-11-28 03:00来源:网络 作者:zillionpark 点击: 我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
前段时间互联网界对360不遵守robots.txt文件进行了群批,百度也强调自己是遵守robots.txt协议的。 但从最近对某网站的分析来看,百度对robots.txt文件的遵守很不

  前段时间互联网界对360不遵守robots.txt文件进行了群批,百度也强调自己是遵守robots.txt协议的。但从最近对某网站的分析来看,百度对robots.txt文件的遵守很不彻底。11月15号,我写了一篇文章各搜索蜘蛛对robots.txt文件改动的反应, 因为在11月13号左右,我在我从事的网站上放了robots.txt文件,明确禁止搜索引擎抓取一些目录。robots.txt文件放上去后,各搜索引擎都有所反应,包括百度。

  这是我的robots.txt文截图:

网站robots.txt文件

 

  一个礼拜多的时间过去了,发现百度搜索结果中仍有大量被禁止的目录。查看11月21号的日志,发现其它搜索引擎都已经完全不再抓取被禁止的目录,而百度仍对禁止目录有大量抓取。

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕