使用python中的Pandas库轻松完成千万级数据处理

本文介绍了如何使用Pandas处理千万级别的大数据,包括只读取有用列以减少内存占用,将列转换为更高效的数据类型来节省存储空间,以及通过分批次读取和处理数据来避免内存不足的问题。这些技巧对于处理大规模数据集十分实用。
摘要由CSDN通过智能技术生成

当我们使用Pandas读取小量数据进行处理时,一般性能不是问题。但有时我们需要处理较大数据量,比如几个G的数据,数据量达到千万甚至上亿级别,这时我们在读数据时经常会出现因内存不足而导致程序崩溃的问题。

本文提出一些可行方案,利用Pandas实现千万级数据的处理。首先我们来看一下用于演示的数据集:

df = pd.read_csv('JL_4G.csv')df.head()

使用info函数,并传入memory_usage='deep'参数可以查看数据的特征及占用的内存数量。

df.info(memory_usage='deep')

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白话机器学习

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值