Python提取资源

在爬取大文件时,不能直接将文件读取到内存中,因为内存是有限的,所以优化请求方式为断点续传。

import sys
import os
import csv
import random
import requests

from concurrent.futures import ThreadPoolExecutor
from fake_useragent import UserAgent

# 实例化ua对象
ua = UserAgent()



class Downloader:
    def __init__(self, url, file_path):
        self.url = url
        self.file_path = file_path

    def start(self):
        
        # 重连次数
        requests.adapters.DEFAULT_RETRIES = 5
        s = requests.session()
        
        # 关闭长链接,链接数过多
        s.keep_alive = False
        res_length = s.get(self.url, stream=True)
        total_size = int(res_length.headers['Content-Length'])
        
        # 文件总量获取
        if os.path.exists(self.file_path):
            temp_size = os.path.getsize(self.file_path)
            print("当前:%d 字节, 总:%d 字节, 已下载:%2.2f%% " % (temp_size, total_size, 100 * temp_size / total_size))
        else:
            temp_size = 0
            print("总:%d 字节,开始下载..." % (total_size,))
        
        # 模拟浏览器 随机请求头
        headers = {
            'Range': 'bytes=%d-' % temp_size,
            "Connection": "close",
            "User-Agent": ua.random,
        }
        res_left = s.get(self.url, stream=True, headers=headers)
        
        # 断点续传策略
        with open(self.file_path, "ab") as f:
            for chunk in res_left.iter_content(chunk_size=1024):
                temp_size += len(chunk)
                f.write(chunk)
                f.flush()

                done = int(50 * temp_size / total_size)
                sys.stdout.write("\r[%s%s] %d%%" % ('█' * done, ' ' * (50 - done), 100 * temp_size / total_size))
                sys.stdout.flush()

def async_url(url):
    try:
        downloader = Downloader(url, filepath)
        downloader.start()
    except Exception as e:
        print(e)


# GIL线程锁,只针对cpu的调用权限,针对IO请求不会锁住
pool = ThreadPoolExecutor(20)

if __name__ == '__main__':
    # 获取到的video url list
    video_list = []
    for url in video_lst:
        pool.submit(async_url, url)

    pool.shutdown(wait=True)

Q1: 出现SSL验证警告

Requests包可以设置绕过ssl证书的校验

# 关闭请求警告库
requests.packages.urllib3.disable_warnings()

Q2:Failed to establish a new connection: [Errno 60] Operation timed out’ ?

主要是下面几种原因导致:

  • 本身的链接无法访问,造成读取失败,直至超时错误。复制链接到浏览器中访问一下,看能否可以正常访问。
  • 访问的地址是外网,如果没有Vpn或者Vpn带宽限制非常小,就很容易导致这样的问题出现。
  • requests的timeout限值明确缩小

例如:response = requests.get(url, timeout = 5,verify=True),因为如果是死链,时间再长也没用。

Q3: 下载速度慢?

这个有物理带宽限制,主要和网速有关系!!!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

楼下安同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值