python计算大文件的hash值,为什么要分块读取数据

import io
import hashlib


def read_chunks(file, size=io.DEFAULT_BUFFER_SIZE):
    """Yield pieces of data from a file-like object until EOF."""
    while True:
        chunk = file.read(size)
        if not chunk:
            break
        yield chunk


def hash_file(path, blocksize=1 << 20):
    # type: (Text, int) -> Tuple[Any, int]
    """Return (hash, length) for path using hashlib.sha256()
    """

    h = hashlib.sha256()
    length = 0
    with open(path, 'rb') as f:
        for block in read_chunks(f, size=blocksize):
            length += len(block)
            h.update(block)
    return h, length

这两个函数是pip源码里找到的,hash_file 以二进制方式打开文件,分块读取文件内容,每读出一块内容,就调用一次update方法,最后返回h对象和文件长度,h并不是hash值,想要获取hash值需要使用hexdigest方法。

print(h.hexdigest())        # 16进制摘要

代码不难理解,有疑问之处是为什么要分块读取,一次性读取有何不可呢?

并非不可,而是不应该。一次性读取整个文件,如果文件过大,会耗尽电脑的内存资源,而分块读取就不会,由于每次只将一小部分数据load进内存,内存使用量很小。update方法会对每一个block进行计算,而不是将其存储起来等到调用hexdigest方法时进行计算,如果是这样,文件过大时,内存还是会耗尽。

分块读取文件,看似多余,其实是一种基于内存考虑的安全选择。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

酷python

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值