当前位置:首页 - 未分类 - SEO高手为什么要懂robots?
小雨资源网

SEO高手为什么要懂robots?

作者: 小雨 时间: 2019-12-13 03:12:27 分类: 浏览:

robots协议书就是指收索引擎与网站中心的协议书文档,也就是说爬虫协议书,用以特定spider在网站上的抓取领域。其成效是可以屏蔽掉对网站对收索引擎不友善的衔接,例如动态性和静态数据衔接别的存有时屏蔽掉每日使命悉数不肯被引证的网页。
 

robots协议书是正确引导蛛蛛抓取网站地形图,也用于维护网站信息和比较灵敏信息内容,确保客户私家信息和隐私维护不被损害。存有于网站根目录正,以文件格局存有,留心robots文件夹称号不可以随意改变

SEO高手为什么要懂robots?


书写::表达关于某一爬虫,
 
:表达制止抓取
 
:容许抓取
 
.*通配符,表达悉数
 
.$结束符,表达以哪些结尾
 
/根域下就是指网站根目录
 
注:灶具显现英文情况下的,并且后边有一个空格符,首写有必要小写。
 
例:
 
1、User-agent:*Disallow:/关于悉数爬虫制止抓取根目录下的悉数衔接
 
2、User-agent:BaiduspiderDisallow:/制止百度爬虫抓取网站悉数联接
 
3、User-agent:*Disallow:/a/关于悉数的爬虫制止抓取网站根目录下的a目录
 
4、User-agent:*Disallow:/a关于悉数的爬虫制止抓取网站根目录下为“a”开端的文档5、User-agent:*Disallow:/*?*(?表达动态性符)制止抓取网站根目录下带?号的动态性衔接
 
6、User-agent:*Disallow:/*.js$制止抓取网站根目录下边以.js结尾的文档
 
7、User-agent:*Disallow:/a/Allow:/a/b/制止抓取网站根目录下边“a”,容许抓取“a”目录下边的“b”目录。
 
8、User-agent:*Disallow:/a/Allow:/a/b制止抓取网站根目录下边“a”目录,容许抓取“a”目录中以“b”开端的文档。

标签:

暂无标签
收藏

免责声明:

本站提供的资源,都来自网络,版权争议与本站无关,所有内容及软件的文章仅限用于学习和研究目的。不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,我们不保证内容的长久可用性,通过使用本站内容随之而来的风险与本站无关,您必须在下载后的24个小时之内,从您的电脑/手机中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。敬请谅解!

关注我们
 扫码点个关注吧~
 公众号:小雨资源网
关注获取更多精彩资讯
作者信息
随机推荐
未分类 SEO高手为什么要懂robots?
robots协议书就是指收索引擎与网站中心的协议书文档,也就是说爬虫协议书,用以特定spider在网站上的抓取领域。其成效是可以屏蔽掉对网站对收索引擎不友善...
扫描二维码阅读原文
小鱼资源网-专注技术教程,活动,软件分享 - 全网最精免费资源分享平台 January, 01
生成社交图 ×