点击 126回答 2
2022-03-16 20:02
网站还未对百度解除Robots全站封禁,求解答![]() ![]() see1.cn/网站还未对百度解除Robots全站封禁 2014年01月16日您的网站还未对百度解除robots全站封禁请重新检查网站robots.txt设置检测时间:2014-01-16 15:00:00常见问题及推荐办法很可能是您的网站错误的配置了robots.txt,请检查您网站的robots.txt是否错误的封禁了百度,如确认配置错误请对robots.txt进行修改,并在Robots工具检测结果中更新网站的robots.txt如果您已在robots工具中通知百度更新您网站的robots.txt,请您耐心等待,百度会在一定的时间内及时更新您网站的robots.txt您也可以通知百度对您网站进行删除robots.txt也不行,改了也不行,允许全部访问也不行!求解答!
|
支持 0
反对 0
举报
2022-03-16 20:35
Robots.txt文件正确,但是依然无法爬取,建议你细心的做好检查,这个真心不知道你做了什么设置。
robots文件是正确的。 ![]() 出现无法抓取的情况是: 任何一个模仿蜘蛛爬取模式都不会进行深入爬取: ![]() ![]() 所产生的只有首页1个页面! 屏蔽方法不一定是robots。建议你找程序猿做检查!! 8 年前 赞同 1 评论 0 收藏 举报 ![]() 的确有这样的情况出现,怎么让站长工具改变这个提示你?关键是Robots确实是正确的! |