MemoryError: Unable to allocate 32.6 GiB for an array with shape (114149, 306215) and data type uint

在使用Python的pandas库进行数据预处理时,遇到内存不足的问题。原因是尝试对连续变量直接应用pd.get_dummies创建虚拟变量,导致内存需求激增。解决方法是对连续变量进行分箱(binning)操作,降低数据维度,从而减少内存消耗。这个过程对于大规模数据集的处理至关重要,合理的数据分箱和虚拟变量创建是数据预处理的关键步骤。
摘要由CSDN通过智能技术生成

当我想使用python的pd.get_dummies生成虚拟变量时,报错说内存不够。
发现忘记给连续变量进行分箱了,导致需要的内存极大。一定需要先对连续变量进行分箱啊。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值