很多的人咨询网站优化的ur规则设计有哪些,那么,下面就由市襄助网络信息技术有限公司为大家介绍一下。
网站优化的ur规则设计有哪些,襄助网络介绍以下几点:
第一动态页面url的伪静态化动态页面虽然能够被搜索引擎抓取,但是由于其url是带参数的,容易导致很多不同参数的页面出现的内容是相同的,搜索引擎收录过多重复页面是比较伤的,所以在seo领域里面是不太喜欢把动态的url页面展示给搜索引擎的。不把动态的页面展示给搜索引擎,所以最好的方式就是将动态的url页面进行伪静态化,然后将动态页面进行屏蔽,屏蔽的方式可以用nofollow标签或者robots文件进行设置。然后静态化的页面展示给搜索引擎,进行收录和索引。
第二减少目录层次
url最好是需要足够简短,让人能够记住,除了缩减网站域名的长短外,还有一个方法就是减少目录的层次,这样是对页面收录有一定帮助的。通常有的网站直接将网站希望收录的页面放到网站根目录之下,每一个页面有着一个独自的id,这是一个不错的方式,但是需要视网站的性质来决定是否要采取该种方式。如果网站是一个博客类型的网站,更新的内容是一个大杂烩的分享式文章内容,是很适合该种方式的。这是一种比较极端的方式,其他的网站内容较多时候,比如我们网站www.hkxiaopan.com,里面内容有很多并且有很多的各种类别的内容,这样就需要进行设置分类目录了,但是这样的目录尽量控制在两层以内,是比较适合网站优化的,再多就显得累赘了。
第三包含网站关键字
网站包含中文关键词的拼音,这样能够让用户更容易记住你,增加网站的品牌效果,同样能够增加网站关键词的信任度。
第四不规范网址的优化处理
网站的不规范网站是需要进行优化处理的,避免有一些不规范的网页地址被收录,我们需要对这些网站进行优化处理规范化。例如有很多的带端口的网址或者不带www的网址,需要对其进行301重定向等操作或者网页头文件中使用canonical属件。
第五屏蔽对于网站优化无意义的页面网站之中是有着很多的页面是不希望搜索引擎对其进行收录的,因为很多的页面对于网站是没有优化意义的,屏蔽这些页面是有必要的。蜘蛛爬取网站时最先查看的就是网站的robots文件,如果有设置robots文件则是先查看robots文件允许爬取的页面,如果没有设置则对网站进行蜘蛛默认的爬取方式。除了使用robots文件还有nofollow标签进行屏蔽垃圾url页面,该种方式则是将a标签的属性中设置。
温馨提示:以上是对“网站优化的ur规则设计有哪些”的相关介绍,其次,如果你需要企业网站优化请咨询襄助网络。