只有一台普通电脑, 用python如何读取10G的超大文件?

学习或者工作当中经常会碰到处理大文件的时候, 如果你只有一台普通电脑该如何处理呢? 今天跟大家分享一个处理技巧, 就算现在没有碰到, 点右上角先收藏说不定以后会用到呢!

前段时间碰到的大文件

思路

硬件条件有限, 我们可以试试用pandas分块读取, 读取文件后一般有3种处理办法:

  1. 读取后拆分为多个小文件存放
  2. 读取后筛选部分信息合并为一个文件
  3. 对数据进行汇总(数据透视)后存储

(解释: 比如原始数据是一个按时间的明细, 可以读取后按年或者按月保存问题; 这种大文件有时候列比较多, 但不一定都是我们需要的, 我们可以只筛选部分有用的列; 明细数据我们只使用一次, 需要的是汇总数据, 我们就可以透视后保存结果, 以后只读取结果数据即可)

代码

# 读取后保存为多个文件
import pandas as pd
file = pd.read_csv('./data/汇总表.csv',iterator=True)  # iterator=True 表示分块读取
n = 0
while True:
    chunk = file.get_chunk(5000000) # 每次读取500万条数据
    chunk[['pdf', 'fs', 'ey','nd']].to_hdf(str(n)+'_data.h5',key='xy') # 筛选部分列保存为hdf文件格式
    print(chunk.tail(10))
    n = n +1
# 读取后合并为一个文件
file = pd.read_csv('./data/汇总表.csv', iterator=True)
loop = True
chunkSize = 1000000
chunks = []
while loop:
    try:
        chunk = reader.get_chunk(chunkSize)
        chunks.append(chunk)
    except StopIteration:
        loop = False
        print("读取完成")        
df = pd.concat(chunks, ignore_index=True)  # 合并成一个文件

是否已经掌握这个技巧了呢, 欢迎留言!

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

python技巧(数据分析及可视化)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值