1.问题背景
为了下载NDSS2019年的论文集,页面中有给出所有论文的链接,通过正则匹配来获取论文下载链接和论文名。
通过开发者模式,我们可以找到下载论文的页面(https://www.ndss-symposium.org/ndss-program/ndss-symposium-2019-program/)的html代码,然后分析我们需要的信息在html中有什么相似性,怎么样制定匹配规则。
我之前的想法是找到链接在对应html中的位置,然后下载所有html中对应位置的内容就好了,但是...这个页面也太复杂了,正则化匹配会来得更简单。
2.解决方案
import os
import re
import urllib
import requests
def get_context(url):
web_context=requests.get(url)returnweb_context.text
url= ‘https://www.ndss-symposium.org/ndss-program/ndss-symposium-2019-program/‘web_context=get_context(url)name_list=re.findall(r"(?<=/\">).+(?=)",web_context) #论文名,用来保存
link_list=re.findall(r"(?<=href=\").+(?=\">Paper)",web_context) #链接地址,用来下载
print(str(link_list))
print(str(name_list))
local_dir=‘D:\\nudt\\NDSS2019\\‘
ifnot os.path.exists(local_dir):
os.makedirs(local_dir)cnt=0
while cnt
file_name= name_list[cnt+1]
download_url=link_list[cnt]
print(download_url)
#将标点符号和空格替换为‘_‘,防止由于如:字符等不能保存文件file_name= re.sub(‘[:\?/]+‘,"_",file_name).replace(‘ ‘,‘_‘)
print(file_name)
file_path= local_dir + file_name + ‘.pdf‘print(file_path)
print(download_url)
#download
print(‘[‘+str(cnt)+‘/‘+str(len(link_list))+‘] Downloading‘ +file_path)try:
# urllib.urlretrieve(download_url, file_path)
r= requests.get(download_url)
with open(file_path,‘wb+‘) asf:
f.write(r.content)
except Exception:
print(‘download Fail:‘+file_path)
cnt+= 1print(‘Finished‘)
参考了https://blog.csdn.net/a529975125/article/details/79479438这位大佬的做法,但是我通过urllib.urlretrive()函数下载会失败,所以直接通过文件操作来保存了
原文:https://www.cnblogs.com/lyeeer/p/11738260.html