第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

百度为什么抓取被robots.txt禁止的文件(10)

时间:2012-11-28 03:00来源:网络 作者:zillionpark 点击: 我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
如果是技术上的失误,那可能是百度设置的robots.txt访问时间间隔太长。又可能是百度访问robots.txt文件时发现是304状态(网 页示变更)而未重新抓取。时间间

  如果是技术上的失误,那可能是百度设置的robots.txt访问时间间隔太长。又可能是百度访问robots.txt文件时发现是304状态(网 页示变更)而未重新抓取。时间间隔长现在是肯定的了。因为304而未抓取已经排除,因为在网站日志的蜘蛛304表里,未发现robos.txt踪影。不及时抓取robots.txt按道理百度这样大的搜索巨头不太可能犯这种低级错误, 难道它是因为信息更新成本太高,不得不降低反应速度?又或者以阴谋论的角度想,它想打擦边球,”不小心”抓取到比别的搜索引擎更多的结果?恐怕只有百度自己知道。

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕