推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 121回答 11 2022-03-16 00:54

如何按数字大小编写Robots规则

已解决 悬赏分:60 - 解决时间 2022-03-17 01:07
网站的URL是从/1.html到/10,000.html如果我希望/1.html到/5,000.html禁止收录,而/5,001.html到/10,000.html不受影响。请问如何用Robots来实现这个效果?--------------------------------------补充----------------------------------------------之前没想写太多,不过有人问了,就说一下为什么要屏蔽1.html到5000.html。出于某种原因的 考虑,1.html-5000.html每个URL对应的页面有多个URL。这1.html-5000.html也是不想让用户访问的。所以,想屏蔽这5000个URL。在robots中没有方法可以实现按数字大小的规则禁止收录吗?
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-16 02:33
网站的URL是...
支持 0 反对 0 举报 2022-03-16 03:33
考虑把1-5000和5001-10000放到两个文件夹中。屏蔽文件夹。
支持 0 反对 0 举报 2022-03-16 04:29
用excel生成一个列表,然后写入Robots.txt



8 年前 赞同 1 评论 2 收藏 举报
顺时 顺时

人的一生最宝贵的是真诚的朋友,让我们的友情烘托着灿烂的朝阳,在生命的海浪上闪耀出眩目的光芒

支持 0 反对 0 举报 2022-03-16 04:39
可以借鉴 学习
支持 0 反对 0 举报 2022-03-16 05:50
能不能够利用程序自动在所有出现“URL是从/到/”的这些链接的地方加上Nofollow标签?

单纯Robots.txt掉的话,那些“URL是从/到/”的页面上还有“URL是从/到/”的页面上的链接,robots了也无效的吧。
支持 0 反对 0 举报 2022-03-16 06:31
这一万页面就真的都是统一的目录或者URL结构么?

Disallow: Disallow: Disallow: ...
Disallow: 5.html
Disallow: 4
.html
Disallow: 3.html
Disallow: 2
.html
Disallow: 1*.html

类似、拉列表吧——这样也不少啊。

URL结构没差别的话,所属页面是否可以增加Nofollow?
支持 0 反对 0 举报 2022-03-16 06:46
将1到5000网页改到目录a
再使用正则表达式301重定向到目录a
然后设置Robots.txt
Disallow: /a/
支持 0 反对 0 举报 2022-03-16 07:35
这么多的页面链接要禁止收录
为什么?文章页面要这么多屏蔽 是什么原因导致你要屏蔽 要搞清楚这个

一般的文章页面 不可能也没有理由去屏蔽这么多类似的文章页面
可以通过其他方法来处理
支持 0 反对 0 举报 2022-03-16 07:56
@陈红然 大哥的方法简单易用。直接excel拉个列。不过拉了5000个数量也比较麻烦。当然也可以简单的写个c语言if不断的输出,然后保存的txt里面。 文件夹的形式个人感觉从网站结构上行不通~~~
支持 0 反对 0 举报 2022-03-16 09:04
有个办法,也是有点麻烦,就是为了1到5000的页面利用META元标签单独设置Robots访问规则。上面楼主说的“考虑把1-5000和5001-10000放到两个文件夹中。屏蔽文件夹。”方法挺简单的。
 «上一页   1   2   下一页»   共11条/2页 
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报