robots.txt是网站管理者写给爬虫的一封信,里面描述了网站管理者不希望爬虫做的事,比如:
- 不要访问某个文件、文件夹
- 禁止某些爬虫的访问
- 限制爬虫访问网站的频率
一个自觉且善意的爬虫,应该在抓取网页之前,先阅读robots.txt,了解并执行网站管理者制定的爬虫规则。
如何查看robot.txt
在浏览器的网址搜索栏中,输入网站的根域名,然后再输入/robot.txt。比如,必应的robots.txt网址为
https://cn.bing.com/robots.txt
robots.txt的内容
User-agent: 爬虫的名称
Disallow: 不允许爬虫访问的地址
Allow: 允许爬虫访问的地址
若User-agent是*,则表示对象是所有爬虫。
Disallow和Allow后面跟的是地址,地址的描述格式符合正则表达式(regex)的规则。因此可以在python中使用正则表达式来筛选出可以访问的地址。
下面是来自http://cn.bing.com的一段robots.txt:
User-agent: msnbot-media 
Disallow: /
Allow: /th?
User-agent: Twitterbot
Disallow: 
User-agent: *
Disallow: /account/
Disallow: /amp/ 
 
 
得出结论
 
                   
                   
                   
                   
                             robots.txt是一个文件,用于告诉爬虫哪些页面可以抓取,哪些禁止访问。它包含User-agent定义的爬虫名称,Disallow指定禁止访问的路径,而Allow则是允许的路径。例如,msnbot-media被禁止访问Bing所有页面,而Twitterbot没有限制。*通配符则适用于所有爬虫。遵守robots.txt规则是爬虫的基本礼仪。
robots.txt是一个文件,用于告诉爬虫哪些页面可以抓取,哪些禁止访问。它包含User-agent定义的爬虫名称,Disallow指定禁止访问的路径,而Allow则是允许的路径。例如,msnbot-media被禁止访问Bing所有页面,而Twitterbot没有限制。*通配符则适用于所有爬虫。遵守robots.txt规则是爬虫的基本礼仪。
           
       
           
                 
                 
                 
                 
                 
                
               
                 
                 
                 
                 
                
               
                 
                 扫一扫
扫一扫
                     
              
             
                   6808
					6808
					
 被折叠的  条评论
		 为什么被折叠?
被折叠的  条评论
		 为什么被折叠?
		 
		  到【灌水乐园】发言
到【灌水乐园】发言                                
		 
		 
    
   
    
   
             
            


 
            