推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 268回答 2 2022-03-17 02:35

屏蔽蜘蛛抓取特定文件的原因有哪些?

已解决 悬赏分:40 - 解决时间 2022-03-17 12:01
新手,弄了个博客,看到别人的tags标签是禁止百度抓取的,思考了片刻后,我便进入了牛角尖里,求大神救我!禁止站内serch页面的原因是什么?如果说是为了防止重复抓取,那我们站内的锚文本不也会造成搜索的重复爬行吗?那tags应该看做是重复页面还是锚文本?该不该禁止呢?还有织梦系统哪些文件需要禁止蜘蛛?求教!
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-17 03:04
新手,弄了...
支持 0 反对 0 举报 2022-03-17 03:37
禁止TAG应该是为了重复页面。
我自己也有站禁止百度收录TAG的。
因为TAG相关性不怎么样?还有面包屑导航在TAG很难完美的实现。
主要禁止是从防止重复,不相关,面包屑导航。
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报