该问题已被锁定!
1
关注
2551
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

百度收录,每个页面都是都是两个地址
专题里面的“专题动态”标题有重复。
百度收录挺多,排名不行,流量不行,是不是和seo有关
优化 anwsion 程序 百度重复收录问题 分享
为什么登陆的时候总是要重复登录?
关于搜索引擎收录AW很苦恼
发现一个小BUG,搜索输入框class重复了
Bug汇报:移动界面的文章详情页面会出现话题重复三遍的问题。
建议:对重复标题的发问,建议不能发布,以防止垃圾问题产生。
非常小的问题,有一段代码重复了

推荐内容

Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?
wecenter的robots规则
请教用七牛后robots.txt的设置方法
终于明白百度为啥不收录了,看看这怎么办?
Wecenter的robots这样写 是否更好一些?
请问 在robots.txt文件中,一般是放行那几个目录?
AWS哪些目录是可以禁止搜索引擎爬行的?
怎么用robots屏蔽分类列表和推荐、热门、待回复