南宫28NG相信品牌的力量官方网站
全部
All
当前位置: 首页 > 新闻资讯 > 什么是Robots协议
相关新闻
  • 如何从SEO的角度去设计网站URL?

    2026-03-10 09:21:37

    我们常说的SEO,其实也是在优化URL。也是如何给一个URL去集中一定的权重(可以理解为网站权重是体现在URL上),然后让该URL能有好的排名。一个网页快照都有一个特定的URL,当然这个UR

  • 小程序重新定义移动互联网

    2026-03-04 09:21:37

    「你要搞个促销,用户不更新App,通知被系统屏蔽,商品链接在微信里分享不了。我给你烧钱搞促销,你都搞不起来,还有什么价值?」在刚刚结束的微信公开课Pro上,微信团队对小程序的种种表现

  • 针对移动设备设计您的网站

    2026-02-28 09:21:37

    智能手机及平板电脑的存在,取代许多不同的设备;越来越多的互联网用户在平板电脑沙发上放松,而不是坐在办公桌前。由于这种行为改变,许多网站运营商面临着新的挑战。不同的手机制造商喜欢不同的尺寸,因

  • 网站设计中合理运用“色彩”和“留白”带来的效果

    2026-02-20 09:21:37

    众多的北京网站设计师无法充分展现网站设计的“大气”。{{K}}网站设计公司认为这并不难做到,它可以简单地从两种不同的类型开始。网站设计体现了设计的“氛围”感,需要注意两点:一、控制色彩通

  • 南宫28NG相信品牌的力量官方网站网站设计师告诉你设计应从哪些方面提升自己

    2026-02-14 09:21:37

    从互联网盛行开始,不管是从生活方面,还是工作方面,都受到了大家的热衷,网站建设设计师这个行业也不例外。但是很多人也清楚,网站设计师不是随便学点东西就可以的,那么要想成为优秀的北京网站建设设计

什么是Robots协议

返回列表
发布时间:2026-03-07 09:21:37
Robots协议的全称是“网络爬虫排除标准”(Robots Exclusion
Protocol),网站通过Robots协议让搜索引擎知道哪些页面能抓取,哪些页面不能抓取。


公司网站设计案例


robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,可以创建和编辑它。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。


当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。



Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots
Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots
Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。


Robots
Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。


index指令告诉搜索机器人抓取该页面;


follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;


Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。



Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:音乐,视频等,节省服务器带宽;也可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。


Robots协议是网站出于安全和隐私考虑,防止搜索引擎抓取敏感信息而设置的。搜索引擎则会按照Robots协议给予的权限进行抓取。Robots协议代表了一种契约精神,互联网企业只有遵守这一规则,才能保证网站及用户的隐私数据不被侵犯。Robots协议是维护互联网世界隐私安全的重要规则,如果被破坏,其后果是不可想象的。