第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

百度为什么抓取被robots.txt禁止的文件(4)

时间:2012-11-28 03:00来源:网络 作者:zillionpark 点击: 我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
事实表明,在robots.txt文件禁止某些目录7天后,其它搜索引擎不在对禁止目录进行抓取,而百度对这些目录的抓取仍在进行。那么是不是可以就这样说百度

  事实表明,在robots.txt文件禁止某些目录7天后,其它搜索引擎不在对禁止目录进行抓取,而百度对这些目录的抓取仍在进行。那么是不是可以就这样说百度是不遵守robots.txt协议的。答案是暂时不能。先要看看百度为什么没遵守。从13号设置robots.txt文件开始,11月13号、11月14号、11月15号的日志看,百度只在14号访问了robots.txt文件两次,(这里要声明下,我这个网站是一个收录3万,快照天天更新的网站)

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕