关闭

python爬虫示例(1)---urlretrieve() 函数使用

13327人阅读 评论(0) 收藏 举报
分类:

下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。

1 >>> help(urllib.urlretrieve)
2 Help on function urlretrieve in module urllib:
3  
4 urlretrieve(url, filename=None, reporthook=None, data=None)
  • 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
  • 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
  • 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。

下面通过例子来演示一下这个方法的使用,这个例子将 google 的 html 抓取到本地,保存在 D:/google.html 文件中,同时显示下载的进度。

01 import urllib
02 def cbk(a, b, c): 
03     '''回调函数
04     @a: 已经下载的数据块
05     @b: 数据块的大小
06     @c: 远程文件的大小
07     ''' 
08     per = 100.0 * * / 
09     if per > 100
10         per = 100 
11     print '%.2f%%' % per
12    
13 url = 'http://www.google.com'
14 local = 'd://google.html'
15 urllib.urlretrieve(url, local, cbk)

在 Python Shell 里执行如下:

01 Python 2.7.5 (default, May 15 201322:44:16) [MSC v.1500 64 bit (AMD64)] on win32
02 Type "copyright""credits" or "license()" for more information.
03 >>> import urllib
04 >>> def cbk(a, b, c): 
05     '''回调函数
06     @a: 已经下载的数据块
07     @b: 数据块的大小
08     @c: 远程文件的大小
09     ''' 
10     per = 100.0 * * / 
11     if per > 100
12         per = 100 
13     print '%.2f%%' % per
14  
15      
16 >>> url = 'http://www.google.com'
17 >>> local = 'd://google.html'
18 >>> urllib.urlretrieve(url, local, cbk)
19 -0.00%
20 -819200.00%
21 -1638400.00%
22 -2457600.00%
23 ('d://google.html', <httplib.HTTPMessage instance at 0x0000000003450608>)
24 >>>

下面是 urlretrieve() 下载文件实例,可以显示下载进度。

01 #!/usr/bin/python
02 #encoding:utf-8
03 import urllib
04 import os
05 def Schedule(a,b,c):
06     '''''
07     a:已经下载的数据块
08     b:数据块的大小
09     c:远程文件的大小
10    '''
11     per = 100.0 * * / c
12     if per > 100 :
13         per = 100
14     print '%.2f%%' % per
16 #local = url.split('/')[-1]
17 local = os.path.join('/data/software','Python-2.7.5.tar.bz2')
18 urllib.urlretrieve(url,local,Schedule)
19 ######output######
20 #0.00%
21 #0.07%
22 #0.13%
23 #0.20%
24 #....
25 #99.94%
26 #100.00%

通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。


#爬去百度贴吧某图片

#爬取百度贴吧一些小图片
#urllib.urlretriev---将远程数据下载到本地
import urllib
import urllib2
import re

#http://tieba.baidu.com/p/3868127254
a = raw_input('inpt url:')
s = urllib2.urlopen(a)
s1 = s.read()

def getimg(aaa):
        reg = re.compile(r'img.src="(.*?)"')
        #reg = re.compile(r'<title>')
        l = re.findall(reg, aaa)
        tmp =0
        for x in l:
                tmp += 1
                urllib.urlretrieve(x, '%s.jpg' % tmp)

#print s1
getimg(s1)




0
1

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:298712次
    • 积分:4402
    • 等级:
    • 排名:第7061名
    • 原创:152篇
    • 转载:104篇
    • 译文:0篇
    • 评论:10条
    最新评论