python爬虫批量下载pdf文件,python批量下载邮件附件

这篇文章主要介绍了python爬虫批量下载pdf文件,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获,下面让小编带着大家一起了解一下。

 HTTP Error 429时采用延时一段时间访问的方法解决


import requests
import os
import urllib
import time

def download_img(save_name):
    status=429
    global str
    save_path ="C:/Users/Dell/Desktop/datasets/"  #保存路径名
    if not os.path.exists((save_path)):
        os.makedirs(save_path)
        
    ##1.修改
    f = open("SMU-MedicalVision-ECG-MoCo-Classfication-7518104/url.txt")  # 替换自己要下载的路径集合文件:每行为一个URL地址
    num = 0
    all_line = f.readlines()  
    line = all_line[num]
    while line:
        #print(line)
        url = str(line).replace("\n","")
        url_split = url.split("=", -1)
        url_split = url_split[-1]
        print("正在下载 第 %d 个病人数据...." % num)
        if(status!=429):
            num += 1
        line = all_line[num]
        # line = line[0]  
        try:
            # 获取当前页面的源码
            urllib.request.urlretrieve(url, save_path+url_split)
            status = 0
        except Exception as e:  # 响应错误
            status = e.code
            if status== 429:
                sec = 600 #等待时间
                print(status, "请求过快,服务器要求等待",sec , url )
                time.sleep(sec) # If the rate limit is renewed in a minute, put 60 seconds, and so on.



    print('下载完成!')
    
##3.##修改
download_img('save_name')

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值