推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 91回答 3 2022-03-16 18:14

百度管理员一直提示robots禁止了抓取全站,麻烦看看我的robot那里错了

已解决 悬赏分:0 - 解决时间 2022-03-17 07:29
User-agent: * Disallow: /plus/ad_js.phpDisallow: /plus/advancedsearch.phpDisallow: /plus/car.phpDisallow: /plus/carbuyaction.phpDisallow: /plus/shops_buyaction.phpDisallow: /plus/erraddsave.phpDisallow: /plus/posttocar.phpDisallow: /plus/disdls.phpDisallow: /plus/feedback_js.phpDisallow: /plus/mytag_js.phpDisallow: /plus/rss.phpDisallow: /plus/search.phpDisallow: /plus/recommend.phpDisallow: /plus/stow.phpDisallow: /plus/count.phpDisallow: /includeDisallow: /templets这是我网站的robots,大家看看没错吧,为什么百度站长工具一直提示我禁止抓取全站
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-16 18:34
User-agent:...
支持 0 反对 0 举报 2022-03-16 19:04
你把Robots.txt 在百度站长工具后台提交下,可能就不会出现这种情况了,出现这种情况的原因:你做的网站先前是否禁止过搜索引擎抓取,重新提交下,一般就可以解决问题了。
支持 0 反对 0 举报 2022-03-16 19:24
有时候是Robots错误,有时候是百度错误

你可以检验下,把robots禁止的删除,改成allow:/

再看看百度是什么提示
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报