对一个网站来说,搜索引擎是至关重要的,在服务器上哪些东西能够被检查,哪些东西不能够被检查。robot.txt能够向搜索引擎发送“命令”。所以说,写好robots.txt是很重要的。

一、robots.txt是什么

搜索引擎拜访网站时第一个要检查的文件便是robots.txt文件。对每一个站点而言,建立一个robots.txt文件,向蜘蛛程序(spider)宣布指令:某些文件可检查,某些文件不可检查,即指定内容才可被搜索引擎录入。

二、robots.txt文件存放在什么位置,robots.txt文件应当是存放在一个网站的根目录下。

三、robots.txt文件的格式是什么

robots.txt文件里应该包含着有一条或许是多条记载,记载之间以空行分隔开,进行注解时运用#符号。运用Disallow句子对所需拜访的内容进行约束,能够约束搜索引擎拜访网站的目录、部分内容,或许只允许某种特定的搜索引擎进行拜访。

四、关于robots.txt文件的一些注意事项

1、明确robots.txt文件并不是毫无危险肯定安全的,对于一个网络攻击者而言,正是robots、txt文件向其指出了网站上的保密数据在哪里,同时也指明晰网站的目录结构。

2、robots.txt文件的文件名必须小写,robots.txt文件里的内容的大小写是没有办法更改的。

3、有人认为假如某个网站中的全部内容都需要被spider抓取,那么robots.txt文件能够不用存在。这种主意都是存在问题的。假如是要去找robots.txt文件而没有找到时,在服务器中会报出404错误。

4、也有人认为直接设置robots.txt文里的所有内容被spider抓取,这样就能够提高网站的录入百分率。要知道,当spider录入网站脚本程序这样的文件时,不仅不会提高录入率,还会占用一部分的服务器存储空间。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。