1. 主页 > SEO技术 > 链接优化 >

SEO优化中的robots协议是什么?

  Robots是网站与搜索引擎之间的协议,它可以告诉搜索引擎的蜘蛛哪个页面可以抓,哪个页面不能抓,存在于网站根目录,文件名字是robots.txt。如何查看robots,它对网站的影响有多大?

  robots协议作用

  robots协议可以指定搜索引擎能收录那些链接,也能指定不能收录那些链接。后面我们讲写法。

  robots协议语法

  robots协议的语法分为三个。分别是User-agent、Disallow、Allow。下面我们来一起了解下。

  User-agent: 指的是那些搜索引擎执行以下协议。如百度:User-agent: baiduspider。而*号可以代表全部,代码为:User-agent: *。

  Disallow:指禁止抓取的意思。如语法:Disallow: /a ,就是禁止搜索引擎抓取带有/a 这个关键词的链接。

  Allow:指允许抓取的意思。通常默认就是允许抓取,故很少会用到该命令。

  如何写法robots协议

  给大家一个非常方便的工具,打击可以在该工具上直接生产。

  Robots协议生成工具:http://tool.chinaz.com/robots/

  Robots协议怎么用

  1、当网站中纯在隐私页面不想被搜索引擎抓取的时候,可以使用robots。

  2、当网站页面纯在多个链接的时候,可以用robots禁用一条,允许搜索引擎只收录一条。(通常使用静态url后,应该屏蔽动态url)

  3、建议屏蔽搜索路径。

  以上是简单概述SEOrobots搜索引擎协议的作用与用法,更多关于SEO优化的知识,请持续关注华洋秀官网,每天每天为你分享更多的搜索引擎营销知识。

申明:本文由平台发布,转载联系作者并注明出处:https://www.snweike.cn/url/9.html