公司
工业品
原材料
商务服务
农业畜牧
消费品
求购
知道
企业
推广
热搜:
食品
快递
金
收
www
民事主体
网络营销
代理
东莞市
橡塑
首页
公司
工业品
原材料
商务服务
农业畜牧
消费品
求购
知道
企业
提问
首页
>
知道
>
SEO
scbeilaiparking
点击
128
回答
5
2022-03-16 13:50
求解,在robots些了禁止抓取的目录在日志文件中依然大量抓取
已解决
悬赏分:10
- 解决时间 2022-03-17 14:45
问题描述:一直在查看网站日志文件,但发现蜘蛛抓取的页面大部分是不需要抓取的文件,如js css 图片、模版目录,反而需要抓取的目录和内页的抓取却不好!之前有写过robots屏蔽不抓取模版目录,不知道是不是自己写错的原因,有同样情况,且知道如何处理的,请指点一二!此图为网站日志分析数据此图为robots文件
点赞
0
反对
0
举报
0
收藏
0
打赏
0
分享
0
最佳答案
支持
0
反对
0
举报
2022-03-16 15:04
问题描述:...
支持
0
反对
0
举报
2022-03-16 15:54
百度并不完全遵守Robots协议,对于他认为可能有问题的URL即使已经屏蔽也会抓取。
支持
0
反对
0
举报
2022-03-16 16:58
在你给的日志中我没有发现任何蜘蛛ip的存在。
可能是你理解错误,网站访问日志里面 的数据不单单就记录蜘蛛,还有我们正常人的浏览都会有记录。
至于Robots写的对不对得根据你的网站来看,把你网站发来看看
支持
0
反对
0
举报
2022-03-16 18:15
在站长工具平台中更新下Robots状态
支持
0
反对
0
举报
2022-03-16 19:39
没看到baiduspider呢,截图全些,也有可能是没有生效吧,不知道多久了
网站首页
|
营业执照
|
关于我们
|
联系方式
|
使用协议
|
版权隐私
|
网站地图
|
排名推广
|
广告服务
|
积分换礼
|
网站留言
|
RSS订阅
|
违规举报
免责声明:所有内容由用户自行提供和发布或由机器搜集自互联网,请核实谨慎,本站WWW.hy88w.net不承担任何法律责任(c)2016-2099版权所有