python 爬虫(二)一个带下载进度的网页抓取小爬虫

 下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。
>>> help(urllib.urlretrieve)
Help on function urlretrieve in module urllib:

urlretrieve(url, filename=None, reporthook=None, data=None)
  • 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
  • 参数 reporthook 是一个包含三个参数的回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。这个函数调用,我们可以任意来定义这个函数的行为,但一定要保证这个函数有三个参数
    (1)到目前为此数据块的数量
    (2)每个数据块大小,单位的byte,字节
    (3)远程文件大小(有时候返回-1) 
  • 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。
def callback(num,block,data):
	"""
	@num:(1)到目前为此数据块的数量
    @block:(2)每个数据块大小,单位的byte,字节
    @data:(3)远程文件大小(有时候返回-1)
	"""
	down_progress = 100.0*num*block/data
	if down_progress>100:
		down_progress = 100
	print"%.2f%%"%down_progress

url = "http://www.iplaypython.com"
local = "C:\Users\Jiajie\Desktop\iplaypython.html"
urllib.urlretrieve(url,local,callback)

######output######
  
  
20% 30% 。。 100%

通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值