推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 53回答 4 2022-03-16 09:47

为什么蜘蛛喜欢去爬取一些错版的页面?和一些错误的页面

已解决 悬赏分:20 - 解决时间 2022-03-16 16:09
在查看网络日志时看到百度蜘蛛与搜狗蜘蛛喜欢去爬取一些错版的页面或者目录?错版的页面对于SEO的影响是什么?日志显示蜘蛛爬取的页面准不准确,为什么蜘蛛喜欢去爬取类似于这种页面?
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-16 10:43
在查看网络...
支持 0 反对 0 举报 2022-03-16 12:22
不是蜘蛛喜欢爬去错误页面,是因为都爬取了,在返回的结果显示错误的一些状态码,你在日志里感觉她喜欢而已。日志要进行分析的,有些可能是由于当时蜘蛛访问的时候打不开,并不是错误的页面的;错误页面多了影响,网站的权重的,因为用户体验不好!
支持 0 反对 0 举报 2022-03-16 12:53
很简单,是因为有链接……程序不完善造成的,应该尽力避免这些页面的链接出现。
支持 0 反对 0 举报 2022-03-16 13:46
这个不是说是蜘蛛喜欢去爬错误的页面和错版的页面 它是每个页面都会去爬取的, 当然你想解决这种困惑 在Robots.txt里面添加 Disallow: /目录url 或者错误页面地址 在等上半个月左右就可以啦 应为百度对robots屏蔽的东西要半个月左右才能反映过来
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报