Python 爬虫时间优化——设置不自动读取响应正文,避免自动读取大文件

Python 爬虫优化——设置不自动读取响应正文,避免自动读取大文件

有的童鞋可能发现,自己的项目,自从按推荐,升级uillib库到urllib3之后,爬虫什么的,有时候会特别耗时,然而自己只不过是分析一下网页,不该如此。

排查时我们往往发现,在某个链接卡住了。

这要从 Python 的 urllib3说起,它的网络请求默认会自动读取响应体正文。这会导致什么问题?导致一旦加载链接,直接全部读取,而网络上常常包含有图片、视频、压缩文件、软件、APP等体积较大甚至突破天际的文件。于是……悲剧就诞生了。

即使我们根据链接名称,过滤掉这些软件,然而仍会存在漏网之鱼——某些网站搞出来的链接,不包含文件后缀,导致不知道是否要过滤掉。怎么办?

答案是对http响应头进行分析,符合条件,再读取响应正文,http响应头中包含的东西很多,例如
content-type: image/pngcontent-length: 960

依据这些条件,可以判断文件类型(MimeType),文件大小之后,再决定是否读取。

对于使用urlib来说,不必担心,而使用urllib3以及以urllib3为基础的库(例如request),可能都存在该问题,urllib3则设置preload_content=False, 分析请求头之后再决定是否读取内容即可

res = urllib3.request(method="GET", url=url,preload_content=False)
if int(content_length) > 1024 * 1024:
    # > 1M
    return
if "image" in content_type:
    res.data
……

PS
对于request库而言,默认很可能也是直接读取的,对应的配置是
stream: (optional) if False, the response content will be immediately downloaded.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值