推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 128回答 5 2022-03-16 13:50

求解,在robots些了禁止抓取的目录在日志文件中依然大量抓取

已解决 悬赏分:10 - 解决时间 2022-03-17 14:45
问题描述:一直在查看网站日志文件,但发现蜘蛛抓取的页面大部分是不需要抓取的文件,如js css 图片、模版目录,反而需要抓取的目录和内页的抓取却不好!之前有写过robots屏蔽不抓取模版目录,不知道是不是自己写错的原因,有同样情况,且知道如何处理的,请指点一二!此图为网站日志分析数据此图为robots文件
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-16 15:04
问题描述:...
支持 0 反对 0 举报 2022-03-16 15:54
百度并不完全遵守Robots协议,对于他认为可能有问题的URL即使已经屏蔽也会抓取。
支持 0 反对 0 举报 2022-03-16 16:58
在你给的日志中我没有发现任何蜘蛛ip的存在。

可能是你理解错误,网站访问日志里面 的数据不单单就记录蜘蛛,还有我们正常人的浏览都会有记录。

至于Robots写的对不对得根据你的网站来看,把你网站发来看看
支持 0 反对 0 举报 2022-03-16 18:15
在站长工具平台中更新下Robots状态
支持 0 反对 0 举报 2022-03-16 19:39
没看到baiduspider呢,截图全些,也有可能是没有生效吧,不知道多久了
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报