对于站点的收录,传统的观点都是认为越多越好。尤其是在交换友链的时候,我们经常会拿对方站点的收录做为评估质量的标准。认为收录越高就证明了网站越受到到搜索引擎的重视。对此收录量成为很多站长每天都必须关注的一项数据。但是你是否会发现你的站点收录大起大落,站点的权重也跟着不稳定,关键词忽有忽没排名。这一个问题的主要原因还是来自于站点大量低质量的页面被收录后又被删除,结果导致站点出现大的波动。对此笔者认为对于收录我们并不能单纯的以数量高为发展方向,适当的减少收录更加有利于站点的长期发展。 收录应减少重复收录 如果你有看过百度的优化指南,你就会发现在该指南中特意指出如果一个页面存在不同的url地址,那么搜索引擎只会择一作为标准,而刚开始收录的时候这些重复的url都会被收录。而这些重复收录的页面对于搜索引擎来说非常的不友好,甚至有可能被搜索引擎认为是作弊。当然处理这一问题的方式有很多,我们可以使用robots文件屏蔽重复收录的url地址,也可以使用301永久重定向将这些重复的url地址跳转到标准的url地址上。 屏蔽对于搜索引擎不友好的页面 一个站点在用户体验与搜索引擎优化的问题上难免出现冲突,如何化解冲突就显得尤为重要。对于一个页面的质量,用户和搜索引擎有着不同的评估标准,适当的屏蔽那些对于搜索引擎不友好的页面对于一个站点来说是必要的。这种情况我们经常会遇到,比如我们想为我们的论坛开设一个让用户可以自由发布广告的板块,这一个目的的初衷是好的,方便用户嘛,但是我们知道开辟这个板块后我们就需要面对可能文章质量低、充满外链等情况,尤其是有的链接可能是一些被搜索引擎K掉的站点,如果任由这些页面被收录,我们的站点将受到影响与牵扯。对此我们有必要对这些内容作出搜索引擎屏蔽。这样就可以再用户体验与SEO上取得一个平衡点。 屏蔽死链接 在一个站点的生命周期中,死链接的出现是不可避免的。我们删除某个栏目或者文章就会产生死链接,无论这些死链接收录与否,我们都需要进行屏蔽处理。有的人说既然没收录我们为什么还要处理?那时因为有的时候百度收录一个页面后并不会马上放出来,这些已被收录但是没有放出来的我们也需要进行屏蔽处理。我们可以通过404错误页面处理或者使用robots文件进行屏蔽。 屏蔽不必要后台页面 对于站点的后台页面或者用户的个人中心页面,这些都是一些质量不高的页面,而且页面的信息相对敏感,这一些页面最好也不要被搜索引擎抓取。对此我们也可以借由robots文件这些页面进行屏蔽。 对于我们的站点来说并不是单纯的说收录越高越好,尤其在现今搜索引擎对于页面质量要求越来越高的环境下,那些被收录的低质量的页面就像是一个定时炸弹,为站点带来很多不确定因素。因此保证优质的内容收录,更有利于网站的稳定发展。本文由蘑菇街女装 原创,转载请保留出处。 (责任编辑:admin) |