你可以用站长工具或者爱站工具可以直接分析网站优化情况,首先先从站内结构来分析,第一就是分析网站TDK也就是标题、描述、关键词,第二分析网站URL层级结构,URL层级结构越少月利于优化
1、URL的命名规则
大部分网站的URL命名规则是“根域名+栏目+文章页面”,也有一部分网站的URL命名规则是“根域名+文章页面”,其中能够产生变数的多半在于文章页面的命名规则上,有很多的朋友可能会注意到自己的命名规则是不太合理的,那么什么样的URL命名规则比较利于搜索引擎抓取呢谷歌在《创建方便 Google 处理的网址结构 》一文中给出的一些建议是:
A、网站的网址结构应尽可能简单些,并考虑网站组织的内容,让网址的构建合乎逻辑并易于理解(尽可能采用易读字词而非长的 ID 数字)。
B、建议您在网址中使用标点符号,帮助搜索引擎更好地分析网页内容,如在网址中使用连字符 (-) 而尽量避免使用下划线 (_),用连字符分开两个单词,更有利于搜索引擎蜘蛛进行语义分析。
C、尽量少使用复杂的网址,特别是那些包含多个变量参数的网址(URL静态化),因为其可能会产生大量不必要的网址全都指向您网站上相同或相似的内容,给抓取工具带来麻烦,消耗Googlebot 大量不必要的带宽,也可能无法为您网站的所有内容编制完整索引。
2、URL的层次深度
对于URL的层次相信大家探讨的够深入了,两层,三层,四层对于网站的要求都是不同的,选择两层结构的URL,我们更多的希望网站权重直接传递到这些页面,选择三层的URL结构,是最普通的方式,主要是为了URL在各个栏目之间做好区分,四层的URL结构多半是网站比较大,在栏目和首页之间还有频道页面,这样用四层来进行很好的区分,如果还要细分,从长远考虑那就建议给网站开二级域名。
3、URL的规范化
对于URL的规范化,相信大家都很重视了,例如最常见的URL规范化,就是将首页URL中可能出现的四种形式进行301重定向,让网站的权重集中于首选域上。但是这只是最基础的URL规范化操作,我们还需要在做好了URL的命名和层次考虑之后,检测网页的收录中是否有类似网页内容的URL,特别是一些动态的网页容易产生这样的情况,例如wordpress的程序设置好了程序也容易出现多个动态重复页面的URL,所以遇到这样的情况可以在robots.txt文件中写好抓取规则,禁止蜘蛛抓取所有动态的URL地址,具体操作是写入命令Disallow: /**,
4
4、URL权重的可控性
当然,URL的结构优化还涉及到其他的一些细节,其中一个重要的就是对于后期URL权重的可控性的把握,例如,在开始的时候我们需要做长远考虑,给网站设计了很多的栏目,但是这些栏目又不是第一阶段我们想投入精力的,在这个时候我们可以将这些栏目进行robots屏蔽掉蜘蛛,或者使用nofollow标签让权重不传递,到达对于网页权重的合理引导,后期如果我们有精力开始发展新的栏目,就放开搜索引擎蜘蛛的抓取权限就可以了。再分析网站的404页面、301重定向,还有导航栏结构是否清晰,再分析源代码中的信噪比,就是文字和代码的比例,一般文字占代码的百分之三十,基本站内分析就是这样,然后就到了站外,分析站外反链和友情链接质量如何,权重有多少链接,是否有过被K的情况,是否含有死链接