第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

如何从SEO角度分析一个网站(1)

时间:2017-02-18 16:01来源:周振兴博客 作者:跌名 点击: 我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
如果你是一个合格的seo人员,那么就能知道从哪些维度来为一个网站把脉。 如果你还是一个SEO新手,本身对seo的一些优化要点还不熟悉的话,是没有办法对网站进行分析的,其实在这里我要

  如果你是一个合格的seo人员,那么就能知道从哪些维度来为一个网站把脉。

  如果你还是一个SEO新手,本身对seo的一些优化要点还不熟悉的话,是没有办法对网站进行分析的,其实在这里我要说一点,只要你掌握了seo的分析网站,相对的你也打捞了学习seo的基础。

  为什么这么说呢,原因很简单,既然你能找到问题了,那么也就能从问题中找到答案了,况且现在有什么不知道的直接通过搜索引擎查找资料都能解决问题。

  那么此时你又会问,网站分析有那么的要素,我该从哪里开始分析啊?有点乱,有点摸不着头脑。

  其实,很简单,兴哥给大家整理了一套步骤,按照这个步骤去套就行了,就好比一个数学公式一样,直接套用公式就可以了。

  兴哥一共总结了14个要点:

  1、必备基础优化

  2、TDK的诊断

  3、路径url优化

  4、代码优化

  5、网站首页布局诊断

  6、友情链接诊断

  7、栏目链接诊断

  8、详情页诊断

  9、内链系统诊断

  10、外链友善度检测

  11、优化技巧检测

  12、流量状态分析

  13、网站日志数据分析

  14、网站安全检测

  一共有14个要点,下面一一分析

  一、必备基础优化

  通过seo角度来说,最基础的优化就是

  1、集权检测

  301集权就是要把所有的网址都统一起来:

  比如:

  和

  这两个网址都能同时访问到一个网站,但虽然都能访问,但彼此的权重就分散了,所以是一个必备的优化条件

  关于设置的话,去自己的空间的控制面板里面添加index.html默认访问文件就可以了。

  2、robots设置

  robots的作用是告诉蜘蛛那些目录能访问那些目录不能访问,设置的越精细,蜘蛛越会按照你的指示爬取。这里举个例子

  比如我们是做文章资讯的,所以对会员这块没什么用,所以我们可以通过robots屏蔽蜘蛛抓取相关会员的php文件信息,从而节省蜘蛛的资源,把精力花在刀刃上。

  去分析网站的时候看robots书写的怎么样,也能反映这个人的seo水平怎么样。

  3、404页面检测

  404页面是必备的,一般可以通过输入正确的网址,然后后面随便加入字符来测试

  如

  是正确的网址

  是随意打的网址

  看一下是否有404页面的设置

  很简单

  4、空间稳定

  接下来要检测的就是服务器空间稳定情况了,试想如果输入一个网址要半天才能打开,谁能受的了,蜘蛛也是一样的,这方面可以自己访问测试体验和运用站长工具来做测试就可以了。

  二、TDK的诊断

  所谓的TDK就是

  1、title(网页标题)

  网站排名好不好,跟网页标题很有关联,这个时候就要去看它的关键词是如何组合的,是否有关键词堆砌的嫌疑,或者关键词布局的不合理了。

  这一步很关键。

  关键词的布局其实很有多方法,由于篇幅有限,以后在其他文章中详细介绍

  布局关键词个数,1-3个足以

  2、keywords(网页关键词)

  合理的网站关键词书应该是3-5个足够, 太多就不好了

  3、description(网页描述)

  这里面主要看的是描述的是否顺畅,有没有把核心关键词表达出来,或者有没有把网站的服务给写出来,放到搜索页面当中去有没有竞争力。

  三、路径url优化

  路径优化可以有这么几个要素

  1、中文路径

  一般,如果网址中包含中文路径的话虽然有利于用户体验,但对搜索来说可能存在一定的不好影响,所以尽量还是采用字母或者拼音的形式。

  2、路径反推

  比如我们访问一个网址这样一个路径,然后我们去掉c路径在访问看看是否能访问正常,这就是一个合理的网站路径,也符合用户访问习惯。

  3、路径中包含动态参数

  如果网址中有太多的动态参数也是不利于抓取的,这个需要修改。这里有一个情况就是如果网址url中只有少许的动态符号,比如?,#这个关系不是很大。

  4、深层路劲

  一般如果超过3层目录的就算是深沉路径了,但有的时候某些网站要发展很有可能要发展到4层路径中去,但有太长了。这个时候就要考虑采用二级域名的形式来剪短网址深度了。

  这一点,从网站日志中能详细的分析出来

  6、时间久远,没有收录的路径

  没有收录,有很多种情况,也许是蜘蛛从来没有发现过,也许是这些页面的质量太低,不能放到索引库当中去。

  如果通过分析是蜘蛛从来没有发现过这些网页的话,那么给他加入内部链接入口就能解决这个问题了。

  要检测这些路径,要用到搜索的site命令和网站日志分析来综合查找。

  由于篇幅有限,明天接着写下面的内容。

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕