SEO技术

robots文件对网站优化的作用

seo优化

robots.txt 是放在一个网站根目录之下的一个文件,并不是给用户看的,而是为了让搜索引擎看的。robots 的意思可以翻译为搜索引擎机器人,也就是搜索引擎派出去爬取网站页面的蜘蛛,而 robots 文件就是蜘蛛爬取网站时需要经历的第一道们,通过 robots 文件可以明确自己的访问权限。形象的解释可以看做是限制某一些蜘蛛进入网站,以及限制进入了网站的蜘蛛访问网站内容权限。

Robots 文件并不是一个像 W3C 那样指定网络规范协议,而是众多搜索引擎约定俗成的。下图显示的是我们网站的 robots 文件内容。第一行的 User-agent:*的意思是以下的 Disallow 命令是针对所有的搜索引擎的,也可以改为针对某一单独的搜索引擎。Disallow 后的内容则是不允许搜索引擎爬取收录的内容。

robots 文件的意义及对网站优化作用

虽然知道了 robots 文件的意义是什么,但是 robots 文件对于网站 seo 优化都有什么用呢?robots 文件对于网站 seo 是有着一定作用的,要对其熟练的进行运用,主要有以下五个方面促进网站优化推广,因为 robots 文件是针对搜索引擎的,所以运用好能够增加搜索引擎爬取网站的体验度从而增加网站收录量。

1.屏蔽网站的空、死链

由于网站内容的修改以及删除,容易导致网站内的一些内链失效变为空链或者死链。通常我们会对网站定期检查空链和死链,将这些链接提取出来,写入 robots 文件之中,防止搜索引擎爬取该链接,间接提升搜索引擎的体验。该种方式是有效的,因为修改已经收录的内容时会使得搜索引擎重新的爬取修改过的网页,再次判断是否进行收录,如果没有继续收录了,那么就得不尝试了。

2.防止蜘蛛爬取网站重复内容

因为网站很多的动态页面搜索引擎时无法收录的,所以很多时候我们需要对于这些动态页面进行制定一个静态的页面以助于搜索引擎收录。这时候就让搜索引擎不要爬取某一些重复的内容,可以减少站内的页面关键词权重竞争。

robots文件对网站优化的作用

3.防止蜘蛛爬取无意义内容,浪费服务器资源

网站上是有很多的内容都是一些无意义的内容,例如网站的各种脚本代码、css 文件和 php 文件等等,这些文件对于网站优化都是无意义的,爬取这些网站不仅不会收录,而且还会浪费服务器的资源。上图中很多禁止访问的内容都是这类无意义的文件目录。

4.保护网站隐私内容

网站有很多的页面都是有着一定隐私的,例如一个用户接受的推送又或者是购物车等等,这些链接虽然在一个页面之中有,但是显然是不希望搜索引擎爬取的内容。

5.有利于网站调试

在网站初步上线前都会有着一定的错误,需要一段时间的调试再对搜索引擎开放爬取,在调试期间就可以将 robots 文件设置为对于所有的搜索引擎都处于拒绝爬取状态,等所有的错误都解决后再修改 robots 文件。

注意细节:每次修改 robots 文件之后都需要到搜索引擎站长平台去提交 robots 文件更新提醒,因为搜索引擎更新网站的状态都是需要一定的时间,只有人工提交才能够让更新后的 robots 文件 like 生效。

本文由 长春SEO优化-网络推广-网站托管外包 作者:青玉seo 发表,转载请注明来源!

seo优化