熟知,网站优化中的robots.txt文件学习过基础的seo都会写,作为蜘蛛最先抓取的文件,若是我们对这些写法技巧不够了解,写法不够明确,就像是原本还好好天气,一下就阴转多云,会使我们很尴尬,这个robots.txt文档给我们网站优化带来的效果不光是允许或不允许蜘蛛抓某个链接与文件夹,so相信都知道该如何去写,但我们也得注意技巧的使用。

一:robots的文件大小

网站根目录下作为是蜘蛛首先翻阅的文件,那文件大小需要把控一下,都知道蜘蛛爬取网站喜欢的不是代码,本来没什么,可是你再robot里面写了一大串各种各样的noffollow标签,很妨碍蜘蛛的爬取速度,反而还影响了蜘蛛抓取你网站的爬行速度,所以对我们禁止的noffollow尽量的合理使用。

二:robots中Disallow和Allow先后顺序

robots.txt中Disallow和Allow的先后顺序设置是有先来后到一个说法,蜘蛛爬行我们的文件第一个匹配成功的Disallow和Allow来确定首先访问的是那个url地址。

三:robots.txt写法

设置robots.txt写法的时候//与/两个是核心的一部分,也是我们seo熟知,这里还是讲一下吧,虽然熟知,但是在写法上面稍微不注意少写一个符号那就等于白写了这一条;

写法有以下几种:

Disallow:/asd/(是禁止抓取此文件夹里的所以东西)

Allow: /asd/far(是允许抓取该目录的"far"文件夹)

Disallow: /cgi-bin/*.html(禁止抓取/cgi-bin/目录下的所有以".html"格式的网页(包含子目录))

Disallow: /*?*(是阻止访问网站中所有带有?的动态网址页面)

Allow: .gif$与Disallow: .jpg$(只能抓取gif格式的图片和网页,其他格式的图片被禁止)

四:利用robots里通配符写法贴合蜘蛛喜好

是设置robots里通配符的写法“*”和“$”,其中”$” 匹配行结束符。”*” 匹配0或多个任意字符。贴合蜘蛛喜好来写通配符对于我们网站优化是重点,蜘蛛在抓取我们网站有些东西他们不认识,想要蜘蛛更喜欢我们网站还是的需要我们进行一些摒弃,使用以上通配符来投其所好。

五:使用robots.txt吸引蜘蛛抓取

蜘蛛在打开我们robots,Allow这个代码的运用是很重要的一步,蜘蛛匹配到你想要抓取的某个页面,这里就是能让他开口吃食物的时候,让蜘蛛更快的爬到这样的一条信息他就会着重去抓取,这是一种协议,也是我们需要使用的技巧。

各位兄弟们想要禁止蜘蛛访问的一些内容,我们还是得确定一点,这个文档里面那些是我们该禁止的那些是有利于蜘蛛的,相反很多链接我们需要使用站长工具才能查都知道死链对于网站的危害,反之我们有些链接是对蜘蛛有益的,看到这是不是知道该怎么去处理这些链接呢?

作者:凯夜seo(QQ:577438643)

如需转载请注明出处


声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。