python 会增加内存吗,Python+不断增加的内存分配

我正在写一个模块来训练一个大型数据集上的ML模型——它包括0.6米的数据点,每个数据点的维度都是0.15米。我在加载数据集本身时遇到了问题。(全是numpy数组)

下面是一个代码片段(它复制了实际代码的主要行为):import numpy

import psutil

FV_length = 150000

X_List = []

Y_List = []

for i in range(0,600000):

feature_vector = numpy.zeros((FV_length),dtype=numpy.int)

# using db data, mark the features to activated

class_label = 0

X_List.append(feature_vector)

Y_List.append(class_label)

if (i%100 == 0):

print(i)

print("Virtual mem %s" %(psutil.virtual_memory().percent))

print("CPU usage %s" %psutil.cpu_percent())

X_Data = np.asarray(X_List)

Y_Data = np.asarray(Y_List)

这些代码会导致内存分配不断增加,直到被杀死。有没有办法减少不断增加的内存分配?在

我试过用gc.收集()但它始终返回0。我把variables=None显式地设置为,不再有用。在

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值