武汉SEO

您的位置:首页 > SEO基础知识

robots协议

2018-05-19 03:45:39


网站基础优化有很多,其中robots协议就是其中之一,今天就来谈谈百度robots协议解析,关于robots协议写法的相关问题。写好robots协议文件有助于我们的网站更快的收录及保护好网站。
 
一、什么是robots协议?
 
它是给于网站与蜘蛛之间的一种协议文件,所以其也可以称之为爬虫协议或者机器人协议。而百度站长平台给出的官方叫法是“网络爬虫排除标准”,通过这个文件网站管理员可以规定蜘蛛来到网哪里可以爬取,哪里不能爬取。

robots协议
 
二、robots协议的意义
 
整个网站是由网站内容,程序,数据库信息等等相关的组合在一起搭建起来的,而网站里面的东西不是什么都需打百度蛛蛛爬取收录的,有的东西不能让其收录,如网站后台地址、登录信息,网站模板文件等等,这些东东西如果被蜘蛛爬收录了,不仅会降低网站排名的收录页面得分,还会泄露网站重要信息。
 
为了避免这一情况的出现,robots协议就在中间起到了重要的作用。
 
三、robots协议文件的格式及写法
 
User-agent:
 
该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。
 
如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。
 
一般都是用"User-agent:*",允许所有引擎蜘蛛到网站收录页面。
 
Disallow :
 
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。

robots协议写法举例
 
例如:
 
"Disallow: /help"
对/help.html和/help/index.html都不允许搜索引擎访问,
 
而"Disallow:/help/"
则允许robot访问/help.html,而不能访问/help/index.html。
 
任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"robots.txt"文件中,至少要有一Disallow记录。
 
如果"robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
 
四、robots.txt文件放在哪里?
 
robots协议应该放在网站根目录下面,当蜘蛛来了网站时第一时间是查看robots文件协议,然后会根据这个文件的协议规则来对网站内容进行爬取及收录页面。
 
关于robots写法具体可以查看《robots协议规则大全

相关文章

  • SEO怎么优化网站

    SEO怎么优化网站

    关于SEO怎么优化网站,首先要从一手斑斓的TDK筹谋,不在于网站本人主观性的臆断,而在于用户真实需求点的聚合,小编的SEO之路就是从TDK学习开始的,那时的导师一点一滴的
  • 建站篇:新手建站前需准备的三样东西

    建站篇:新手建站前需准备的三样东西

    现在虽然网络上已经有很多建站的免费教程及步骤了,甚至在百度经验里面我们也能清楚的看到一个新手如何去建站的方法步骤。我相信这些方法及步骤对于老手而言是一看就懂的,但是对于真正的一个新手小白看到这些后在实际操作中还是会出现很多小问题,而新手们
  • SEO小白看这里网站后台秒懂操作

    SEO小白看这里网站后台秒懂操作

    要做出一个好的网站,让搜索引擎给自己的网站进行优先排名,那么就要对自己的网站进行全面掌控,任何一个左右网站排名的设置都要牢牢抓在自己的手中,让自己成为网站的主人,并且在排名下降前提前做好布控。 1.网站后台功能有哪些? 网站并非是我们想像的那