该问题已被锁定!
2
关注
2991
浏览

AWS哪些目录是可以禁止搜索引擎爬行的?

AI智能回复搜索中,请稍后...

查看全部 1 个回答

zhengqiang 超级管理员 用户来自于: 广东省深圳市
2012-10-12 12:55
只要服务器把列目录的功能关闭,不能爬行的都不会被爬。

关于作者

问题动态

发布时间
2012-10-12 12:08
更新时间
2012-10-12 12:55
关注人数
2 人关注

相关问题

推荐内容

如何看待周鸿祎对360搜索的定位?
从百度搜索不能直接链接到相关页面吗?
Wecenter的robots这样写 是否更好一些?
为了避免重复收录写的robots.txt 大家看下我这规则对不对
anwsion搜索是怎样的原理?
搜索引擎收录时的时间是错的,网站哪里出了问题?
wecenter的robots规则
搜索问题怎么优化?官方的不能用,求方案
请问 在robots.txt文件中,一般是放行那几个目录?
Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?