相信很多站长同小编一样,每天都有查看网站日志的习惯,然后通过日志的分析来了解蜘蛛在我们网站爬行抓取的状况,当然在这个过程中小编通常只是简单的看一下蜘蛛每天爬行我网站的次数,从这点就能够直观的看出网站的健康状况,但是在对于很多站长而言,他们的网站自我感觉非常的完美,但是蜘蛛确不爬行抓取,这无疑对站长们有很大的打击,所以今天小编特地整理了一些蜘蛛不访问我们网站的几点原因,下面来分享给大家。 (一)网站flash、图片过多。 不得不说,各大搜索引擎发展到现在,已经算是相当的智能化了,特别是近些年来各大搜索引擎不断更新算法,就例如说在2011年的时候谷歌推出的图片搜索功能,我们能够从这些图片中找到源网页的地址,但是毕竟是搜索引擎,他还是有着不小的差距。然而在这时候很多站长,特别是企业站,为了突出产品,在网站中镶入大量的flash、图片,但是大家都知道搜索引擎蜘蛛是无法抓取flash、和图片文件的,所以即便是我们的内容在好,也都是无法让蜘蛛抓取爬行的。所以对于那些网站中存在大量图片以及flash的网站,小编建议各位用一些模拟蜘蛛爬行的工具检测一下自己的网站,看看是否是因为此情况造成蜘蛛不访问我们的网站。 (二)网站存在大量的死链接。 我们幻想一下,每当蜘蛛开开心心的访问我们的网站的时候,通过源码爬行我们网站各个链接的时候,本以为能够找到一些新鲜的好内容,然而却是一大堆的死链接等待着它,就这样一次、两次、三次,每次来都有这样的情况出现,那么你认为蜘蛛会对你的网站有一个好的评价,还会再次的抓取你网站的内容吗?就像我网站当时就是因为大量的404页面被蜘蛛抓取,造成那一段网站内容不被搜索引擎收录,所以后来小编在观察网站日志中发现蜘蛛爬行的页面中含有有状态码为404的页面才恍然大悟,所以也立即的对这些404页面进行清除、屏蔽,并且在那段时间发了不少的外链,后来网站蜘蛛爬行抓取也都正常了。 (三)网站外链与nofollow标签。 蜘蛛能够经常的访问我们网站的原因,相信很大一部分都是外链吸引的,所以对于外链的友好程度,我们也是需要经常观察的,以免做了徒劳。相信很多站长这时候应该会问了,为什么这样讲,怎么判断外链的友好程度呢?在这里小编是这样做的,每天检查蜘蛛访问我们网站的次数之外,还要检查蜘蛛的入口,通过这些入口来判断我们做的外链是否是有价值的,这样每天进行一个总结,把有效的外链记录下来,那么时间一久就打造了我们自己的外链资源库咯,当然从这些数据中我们也可以判断出那些是无用的外链,就例如说带有nofollow标签的外链(如百度经验)对于这种的话我们就以后不要在做,因为做了也是徒劳哈。 (四)网站中存在复杂的代码以结构。 大家都知道,蜘蛛是通过网站的源文件代码来进行访问我们的网站,所以这时候我们就需要优化我们的网站代码,因为冗长的代码对网站无任何意义,并且还会影响到我们网站的打开速度,并且还会让蜘蛛反感。另外就是对于那些结构也是不利于蜘蛛爬行的抓取的,因为通常蜘蛛是首先访问我们的网站首页,然后到抓取栏目,在抓取内容这样的活动规律,然而这样的活动次数通常也都是被蜘蛛限定在3次以内,所以过于复杂,而且权重又不高的网站,是很不利于蜘蛛抓取的哦。 (五)错误的网站地图。 网站地图是让蜘蛛快速了解我们网站整个结构的一个页面,那么一个好的网站地图,会为蜘蛛爬行带来一个快捷的入口。当然如果是一个存在大量死链的错误地图的话,无疑也会毁了整个网站的爬行状态,所以我们在做网站的地图的时候一定要谨慎行事。 总结:其实蜘蛛不访问我们网站原因除了小编上面提到的之外,还有很多别的原因,例如说违法的内容、大量采集来的内容、黄色恶意信息等等都是有可能造成我们网站不被搜索引擎蜘蛛抓取的,所以具体的细节性问题,我们还要根据自己的网站日志来自行进行判断。今天就写到这里,本文由游戏名字网站长原创分享,转载请带上链接,谢谢。 (责任编辑:admin) |