支持 0
反对 0
举报
2022-03-17 02:52
没明白?你说的是地图xml格式的吧
放在Robots协议中的Sitemap链接,是个纯文本,搜索引擎将这个纯文本抓取,放入url库中识别,然后在进行分析=>计算=》处理。 你网站更新Sitemap,robots的链接不是更新了吗?常理来讲,只不过spider来抓取robots上的文本sitemap链接有一定的周期性, 对于这个话题,你可以采用百度ping,频繁的sitemap更新并不是好事情.个人没有频繁的更新sitemap过,感觉也没多大作用,不知道搜索引擎会不会每天访问地图,看你的站点数据有多少,自己统计下、 比如现在老内容更替可以采用蜘蛛诊断工具 新内容可以采用百度ping,sitemap化为是站点太大,资源分配不合理的一个工具而已,多个分类创建独立的sitemp。小站点做个地图都没必要, |