蜘蛛抓取文件标准写法

 
例1. 禁止所有搜索引擎访问网站的任何部分
  下载该robots.txt文件 User-agent: *
  Disallow: /


例2. 允许所有的robot访问
  (或者也可以建一个空文件 "/robots.txt")
   User-agent: *
  Disallow:
  或者
  User-agent: *
  Allow: /  


例3. 仅禁止Baiduspider访问您的网站 User-agent: Baiduspider
  Disallow: /


例4. 仅允许Baiduspider访问您的网站 User-agent: Baiduspider
  Disallow:
  User-agent: *
  Disallow: /


例5. 禁止spider访问特定目录
  在这个例子中,华虫科技有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
   User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/


例6. 允许访问特定目录中的部分url
   User-agent: *
  Allow: /cgi-bin/see
  Allow: /tmp/hi
  Allow: /~joe/look
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /~joe/


例7. 使用"*"限制访问url
  禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
   User-agent: *
  Disallow: /cgi-bin/*.htm
  
例8. 使用"$"限制访问url
  仅允许访问以".htm"为后缀的URL。 User-agent: *
  Allow: .htm$
  Disallow: /


例9. 禁止访问网站中所有的动态页面
   User-agent: *
  Disallow: /*?*


例10. 禁止Baiduspider抓取网站上所有图片
  仅允许抓取网页,禁止抓取任何图片。 User-agent: Baiduspider
  Disallow: .jpg$
  Disallow: .jpeg$
  Disallow: .gif$
  Disallow: .png$
  Disallow: .bmp$


例11. 仅允许Baiduspider抓取网页和.gif格式图片
  允许抓取网页和gif格式图片,不允许抓取其他格式图片 User-agent: Baiduspider
  Allow: .gif$
  Disallow: .jpg$
  Disallow: .jpeg$
  Disallow: .png$
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值