点击 125回答 8
2022-03-16 08:42
百度robots.txt上为何加User-agent: * Disallow: /![]() ![]() http://www.baidu.com/robots.txt在百度的robots.txt最后有两行……User-agent: *Disallow: /按照robots协议的规则,这应该是禁止所有搜索引擎访问网站的任何部分!而事实上所有的搜索引擎对其抓取。如果没有最后两行,对上面的写法都可以解释!但是为什么最后还要加上这个两行?1、如果百度要禁止所有蜘蛛的抓取,之前的还有必要写吗?2、如果最后两行无效,那有必要写吗?个人的猜测是User-agent: * Disallow: /是对以上没有列出的蜘蛛进行抓取;比如说360。我猜测是否对,欢迎大家拍砖!如果猜测是正确的,这是否是robots的另一个语法规则!也请各位大神说一下自己的观点!!!
|
支持 0
反对 0
举报
2022-03-16 11:27
如果单独写出来,则这个蜘蛛只受其下面的几个Disallow和Allow行限制。
没写出来的,受User-agent: * 限制。如:360没被特地写出,则说明。。。 参考: 第七条:
![]() 这个写法是没问题的,如果单独看这两行,则是表示禁止所有搜索引擎的,但前面针对每个搜索引擎都单独做了语句描述,而那些描述都是针对搜索引擎列出的,都是有效的,之所以把这两行放最后,是为了禁止前面没有列出的搜索引擎,比如360,你懂的。 |