使用 pandas 分块处理大文件

当处理大量数据时,pandas的read_csv提供了chunksize参数进行分块读取,避免一次性加载整个文件导致内存溢出。可以通过for循环处理每个数据块,并使用get_chunk方法获取特定大小的数据块。此外,可以结合usecols和nrows参数进一步优化读取效率,只读取所需列和行。
摘要由CSDN通过智能技术生成

关注RPA请访问网站:
www.i-search.com.cn
学Python,用RPA,欢迎下载使用
https://www.i-search.com.cn/?from=csdn

使用 pandas 分块处理大文件
问题:今天在处理系统导出的 70 万行数据。打开文件进行读取时因超过默认读取上限导致流程出错,如果要处理不知得多费劲。

解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksize,iterator

原理就是不一次性把文件数据读入内存中,而是分多次。

1,指定 CHUNKSIZE 分块读取文件
read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返回一个可迭代的 TextFileReader 对象。

table=pd.read_table(path+‘kuaishou.txt’,sep=’\t’,chunksize=1000000)
for df in table:
对df处理
#如df.drop(columns=[‘page’,‘video_id’],axis=1,inplace=True)
#print(type(df),df.shape)打印看一下信息

我这里又对文件进行了划分,分成若干个子文件分别处理(没错,to_csv 也同样有 CHUNKSIZE 参数)

2,指定迭代 = 真
iterator=True 报道查看同样的的英文 TextFileReader 对象

reader = pd.read_table(‘tmp.sv’, sep=’\t’, iterator=Tr

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值