推广 热搜: 食品  快递      www  民事主体  网络营销  代理  东莞市  橡塑 
点击 255回答 12 2022-03-15 20:55

robots写错导致排名大幅度往下掉,该做什么补救?

已解决 悬赏分:0 - 解决时间 2022-03-16 21:30
我确定是写错robots,去哪提交啊/?不是把robot上传到空间根目录就好了吗 追加问题 举报 2013-06-19 发布3,815 次浏览 最新问题 想买一个有百度快速收录权限的域名(23 分钟前) 用wp搭了一个网站,经常会出现打不开的情况,重启服务器后就能正常打开,这是什么原因?(30 分钟前) 搜索框的下拉效果好么?感觉如果不是和公司相关的话没啥用(1 小时前) 网站投放移动合作广告问题(1 小时前) 网站换模板对收录影响大不 (1 小时前)   重庆网红轻轨是几号线?车身上面可以做广告吗(1 小时前) 新站上线第二天 大量的展现这是为什么 而且包含了很多地名(1 小时前) 网站重新搭建了,之前收录的内容都没用了,怎么快速删掉?(1 小时前) 手头有3000条域名 怎么做能快速得到流量?站群还能搞吗?(1 小时前) 问个问题 有知道的吗 回答下(2 小时前) .question-ccx {display: flex;width: 100%;margin: 0 auto;padding: 0;}.question-ccx .sw-area {width: 50%;padding: 12px 26px 10px 26px;box-shadow: none;float: left;}.question-ccx .sw-area ul li {padding: 3px 0;white-space: nowrap;text-overflow: ellipsis;overflow: hidden;display: flex;}.question-ccx .sw-area ul li a{white-space: nowrap;text-overflow: ellipsis;overflow: hidden;}.question-ccx .sw-area span {color: #999;}.question-ccx .side-reward span {color: #ec5a12;}.question-ccx .sw-area .mod-head {padding-bottom: 5px;}.question-ccx .side-reward {border-left: 1px solid #e0e8ee;float: right;}.question-ccx .sw-area ul li:nth-child(5) {display: none;}.ccx-question { border: 1px solid #e4eaee; overflow: hidden; padding: 20px 0; display: flex; width: 100%;}.ccx-new-question { width: 50%; padding: 0 20px;}.ccx-new-question li { height: 36px; line-height: 36px; border-bottom: 1px dashed #e2e2e2; white-space: nowrap; text-overflow: ellipsis; overflow: hidden;}.ccx-new-question li:last-child { border-bottom: none;} 分享到微信 收藏 关闭 没有找到相关结果 已邀请: --> .ccx-img {padding: 0; margin: 0 auto; width: 100%;position: relative;} .ccx-img_l {float: left; width: 49%;} .ccx-img_r {float: right;width: 49%;} .ccx-img img {width: 100%;border-radius: 8px;} 交换友情链接,就用搜外友链,方便! 11 人参与回答 否子戈·以用户体验为核心的SEO2.0探索者时吉祥、潘康颖等 2 人赞同该回答Robots写错导致排名下降是有可能的,楼上说的影响较大的,是被屏蔽的直接页面,例如Disallow:/,那么这个页面一般情况下肯定就不会被用来排名了。但如果在robots.txt中有Disallow:/zhuanti/,而原本这个目录下的页面都有指向某个专题页面的链接,现在被屏蔽掉,就有可能导致专题页的权重下降,排名下滑。只要清楚这些错误的规则,在搜索引擎的站长管理工具中更新或提交,就坐等搜索引擎更新好了,毕竟任何更新都是需要时间的,不要太着急。
反对 0举报 0 收藏 0 打赏 0
最佳答案
支持 0 反对 0 举报 2022-03-15 21:22
我确定是写...
支持 0 反对 0 举报 2022-03-15 21:49
Robots写错导致排名下降是有可能的,楼上说的影响较大的,是被屏蔽的直接页面,例如Disallow:/,那么这个页面一般情况下肯定就不会被用来排名了。但如果在robots.txt中有Disallow:/zhuanti/,而原本这个目录下的页面都有指向某个专题页面的链接,现在被屏蔽掉,就有可能导致专题页的权重下降,排名下滑。

只要清楚这些错误的规则,在搜索引擎的站长管理工具中更新或提交,就坐等搜索引擎更新好了,毕竟任何更新都是需要时间的,不要太着急。
支持 0 反对 0 举报 2022-03-15 22:22
一般情况下,Robots写好了之后上传至网站的根目录就可以了,蜘蛛在对网站抓取的时候会首先爬行robots文件,以便来确定本站哪些内容是被禁止抓取的,所以你写好了之后只要放在根目录就可以了。
支持 0 反对 0 举报 2022-03-15 23:12
我记得百度站长工具中,有一个工具就是Robots更新提交,你可以研究一下,在那里提交了一份新的robots,然后等上几天,如果不行,可以实行投诉。
支持 0 反对 0 举报 2022-03-15 23:35
仔细看看Robots.txt到底如何写,这个很重要,从新修改下,在上传上去。在检测下...
支持 0 反对 0 举报 2022-03-16 01:08
有改动的时候,每次都用站长平台检测一下,这样就不用担心了!
支持 0 反对 0 举报 2022-03-16 01:41
确定写错了,修改过来上传到根目录即可,蜘蛛默认首先爬行这个文件,
如果说非想提交下放心,那就运用各自搜索引擎的站长工具,比如google的管理员工具后台又可以提交Robots的地址
支持 0 反对 0 举报 2022-03-16 03:11
Robots.txt文件写错了,估计是你屏蔽掉了某些文件,导致一些重要的网页出现了不允许蜘蛛爬取,时间长了,百度就会当一些网页成为死链接,从而删除该网页。

解决方法:修改robots.txt文件,正确的了解其中的意思,将需要放出来的文件都放出来,等待蜘蛛的正常爬取,看看反应。同时,加大相关文章的编写,多增加一些内链到这些屏蔽的网页当中,增加蜘蛛的爬取频率。个人愚见,仅供参考。
支持 0 反对 0 举报 2022-03-16 03:26
你写的很模糊,网站的排名偶尔掉那很正常的,你应该把你的Robots的内容拿出来让大家看看,否则这里没法确定是robots的原因。
我的理解robots是告诉搜索引擎哪些内容是可以抓取的哪些是不可以抓取的,只有你屏蔽了首页才会影响排名很大,对于小站其他影响都很小的。
支持 0 反对 0 举报 2022-03-16 03:55
如果确定是Robots文件对网站关键词排名造成影响,只需修改robot文件,静等一周左右即可。
 «上一页   1   2   下一页»   共12条/2页 
网站首页  |  营业执照  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报