【Python】Python的urllib模块、urllib2模块进行网页下载文件


【Python】Python的urllib模块、urllib2模块进行网页下载文件


由于需要从某个网页上下载一些PDF文件,但是需要下载的PDF文件有几百个,所以不可能用人工点击来下载。正好Python有相关的模块,所以写了个程序来进行PDF文件的下载,顺便熟悉了Python的urllib模块和ulrllib2模块。


1、问题描述

需要从http://www.cvpapers.com/cvpr2014.html上下载几百个论文的PDF文件,该网页如下图所示:



2、问题解决

通过结合Python的urllib模块和urllib2模块来实现自动下载。代码如下:

test.py

[python]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. #!/usr/bin/python  
  2. # -*- coding:utf-8 -*-  
  3.   
  4. import urllib                                                     #导入urllib模块  
  5. import urllib2                                                    #导入urllib2模块  
  6. import re                                                         #导入正则表达式模块:re模块  
  7.   
  8. def getPDFFromNet(inputURL):  
  9.         req = urllib2.Request(inputURL)  
  10.         f = urllib2.urlopen(req)                                  #打开网页  
  11.         localDir = 'E:\downloadPDF\\'                             #下载PDF文件需要存储在本地的文件夹  
  12.         urlList = []                                              #用来存储提取的PDF下载的url的列表  
  13.         for eachLine in f:                                        #遍历网页的每一行  
  14.                 line = eachLine.strip()                           #去除行首位的空格,习惯性写法  
  15.                 if re.match('.*PDF.*', line):                     #去匹配含有“PDF”字符串的行,只有这些行才有PDF下载地址  
  16.                         wordList = line.split('\"')               #以"为分界,将该行分开,这样就将url地址单独分开了  
  17.                         for word in wordList:                     #遍历每个字符串  
  18.                                 if re.match('.*\.pdf$', word):    #去匹配含有“.pdf”的字符串,只有url中才有  
  19.                                         urlList.append(word)      #将提取的url存入列表  
  20.         for everyURL in urlList:                                  #遍历列表的每一项,即每一个PDF的url  
  21.                 wordItems = everyURL.split('/')                   #将url以/为界进行划分,为了提取该PDF文件名  
  22.                 for item in wordItems:                            #遍历每个字符串  
  23.                         if re.match('.*\.pdf$', item):            #查找PDF的文件名  
  24.                                 PDFName = item                    #查找到PDF文件名  
  25.                 localPDF = localDir + PDFName                     #将本地存储目录和需要提取的PDF文件名进行连接  
  26.                 try:                                               
  27.                         urllib.urlretrieve(everyURL, localPDF)    #按照url进行下载,并以其文件名存储到本地目录  
  28.                 except Exception,e:  
  29.                         continue  
  30.   
  31. getPDFFromNet('http://www.cvpapers.com/cvpr2014.html')  

注意:

(1)第1、6、8、23行分别多谢了一个“\”来进行转义;

(2)第27行的urlretrieve函数有3个参数:第一个参数就是目标url;第二个参数是保存的文件绝对路径(含文件名),该函数的返回值是一个tuple(filename,header),其中的filename就是第二个参数filename。如果urlretrieve仅提供1个参数,返回值的filename就是产生的临时文件名,函数执行完毕后该临时文件会被删除参数。第3个参数是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。其中回调函数名称可任意,但是参数必须为三个。一般直接使用reporthook(block_read,block_size,total_size)定义回调函数,block_size是每次读取的数据块的大小,block_read是每次读取的数据块个数,taotal_size是一一共读取的数据量,单位是byte。可以使用reporthook函数来显示读取进度。

如果想显示读取进度,则可以讲第三个参数加上,将上述程序第27行改为如下:

[python]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. urllib.urlretrieve(everyURL, localPDF, reporthook=reporthook)  

而reporthook回调函数的代码如下:

[python]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. def reporthook(block_read,block_size,total_size):  
  2.   if not block_read:  
  3.     print "connection opened";  
  4.     return  
  5.   if total_size<0:  
  6.     #unknown size  
  7.     print "read %d blocks (%dbytes)" %(block_read,block_read*block_size);  
  8.   else:  
  9.     amount_read=block_read*block_size;  
  10.     print 'Read %d blocks,or %d/%d' %(block_read,block_read*block_size,total_size);  

综上所述,这就是一个简单的从网页抓取数据、下载文件的小程序,希望对正在学习Python的同学有帮助。谢谢!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值