武汉SEO

您的位置:首页 > SEO基础知识

robots协议

2018-05-19 03:45:39


网站基础优化有很多,其中robots协议就是其中之一,今天就来谈谈百度robots协议解析,关于robots协议写法的相关问题。写好robots协议文件有助于我们的网站更快的收录及保护好网站。
 
一、什么是robots协议?
 
它是给于网站与蜘蛛之间的一种协议文件,所以其也可以称之为爬虫协议或者机器人协议。而百度站长平台给出的官方叫法是“网络爬虫排除标准”,通过这个文件网站管理员可以规定蜘蛛来到网哪里可以爬取,哪里不能爬取。

robots协议
 
二、robots协议的意义
 
整个网站是由网站内容,程序,数据库信息等等相关的组合在一起搭建起来的,而网站里面的东西不是什么都需打百度蛛蛛爬取收录的,有的东西不能让其收录,如网站后台地址、登录信息,网站模板文件等等,这些东东西如果被蜘蛛爬收录了,不仅会降低网站排名的收录页面得分,还会泄露网站重要信息。
 
为了避免这一情况的出现,robots协议就在中间起到了重要的作用。
 
三、robots协议文件的格式及写法
 
User-agent:
 
该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。
 
如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。
 
一般都是用"User-agent:*",允许所有引擎蜘蛛到网站收录页面。
 
Disallow :
 
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。

robots协议写法举例
 
例如:
 
"Disallow: /help"
对/help.html和/help/index.html都不允许搜索引擎访问,
 
而"Disallow:/help/"
则允许robot访问/help.html,而不能访问/help/index.html。
 
任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"robots.txt"文件中,至少要有一Disallow记录。
 
如果"robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
 
四、robots.txt文件放在哪里?
 
robots协议应该放在网站根目录下面,当蜘蛛来了网站时第一时间是查看robots文件协议,然后会根据这个文件的协议规则来对网站内容进行爬取及收录页面。
 
关于robots写法具体可以查看《robots协议规则大全

相关文章

  • 建站篇:织梦安装步骤详细教程说明

    建站篇:织梦安装步骤详细教程说明

    我们知道网站搭建时当我们的建站程序文件已经上传到空间的根目录下面后,我们就可以在网页地址栏输入我们的网址进行安装建站了。 在DedeCMS里面有一个安装文件夹 install,里面的文件就是织梦的安装文件了,我们需要访问它才能进入到 织梦的安装界面 。 1.安
  • seo文章优化技巧,高质量内容创造

    seo文章优化技巧,高质量内容创造

    有人说做SEO最难的是什么?最难的不是技术,而是文章内容。没错,小墨也是一个专业SEO但最恨文章的ER,因为 seo文章优化技巧 是要你去写文章的,而不像那些SEO纯技术,只要你掌握了就只需要按要求设置就可以了,但是文章是需要你去创造的,而且这个过程是长
  • 武汉seo优化网站怎么做?这些技巧助你排名

    武汉seo优化网站怎么做?这些技巧助你排名

    做网站seo优化,要的是排名,以排名为最终目的才是好的 武汉seo优化网站 ,但需要规避搜索引擎相关算法。最常见的诸如采集,大幅广告占据主体内容,群发外链,获取用户隐私,阅读权限限制等,都会触发相关算法,拉低搜索引擎对网站的评级,网站不止有尽趋合