公司
工业品
原材料
商务服务
农业畜牧
消费品
求购
知道
企业
推广
热搜:
食品
快递
金
收
www
民事主体
网络营销
代理
东莞市
橡塑
首页
公司
工业品
原材料
商务服务
农业畜牧
消费品
求购
知道
企业
提问
首页
>
知道
>
SEO
dgtxyouyi
点击
268
回答
2
2022-03-17 02:35
屏蔽蜘蛛抓取特定文件的原因有哪些?
已解决
悬赏分:40
- 解决时间 2022-03-17 12:01
新手,弄了个博客,看到别人的tags标签是禁止百度抓取的,思考了片刻后,我便进入了牛角尖里,求大神救我!禁止站内serch页面的原因是什么?如果说是为了防止重复抓取,那我们站内的锚文本不也会造成搜索的重复爬行吗?那tags应该看做是重复页面还是锚文本?该不该禁止呢?还有织梦系统哪些文件需要禁止蜘蛛?求教!
点赞
0
反对
0
举报
0
收藏
0
打赏
0
分享
0
最佳答案
支持
0
反对
0
举报
2022-03-17 03:04
新手,弄了...
支持
0
反对
0
举报
2022-03-17 03:37
禁止TAG应该是为了重复页面。
我自己也有站禁止百度收录TAG的。
因为TAG相关性不怎么样?还有面包屑导航在TAG很难完美的实现。
主要禁止是从防止重复,不相关,面包屑导航。
网站首页
|
营业执照
|
关于我们
|
联系方式
|
使用协议
|
版权隐私
|
网站地图
|
排名推广
|
广告服务
|
积分换礼
|
网站留言
|
RSS订阅
|
违规举报
免责声明:所有内容由用户自行提供和发布或由机器搜集自互联网,请核实谨慎,本站WWW.hy88w.net不承担任何法律责任(c)2016-2099版权所有