python packages limited ram_ubuntu - Python进程不会分配超过20GB的RAM - 堆栈内存溢出

我正在尝试在大量数据(功能和目标,(约75k x 130k))上训练MultinomialNB分类器。 我知道一个事实,该分类器将为每个目标生成一个不同的分类器,因此内存预计会爆炸。

但是,即使计算机大约有640GB,该进程分配的RAM也不会超过20GB。

我试图设置内存锁定,试图以root身份运行(必须调整这些限制),但是它不起作用。

Traceback (most recent call last):

File "test_classifiers.py", line 202, in

train_mb()

File "test_classifiers.py", line 168, in train_mb

mb_classifier.partial_fit(X, y, list(set(y)))

File "/usr/local/lib/python3.5/dist-packages/sklearn/naive_bayes.py", line 539, in partial_fit

Y = label_binarize(y, classes=self.classes_)

File "/usr/local/lib/python3.5/dist-packages/sklearn/preprocessing/label.py", line 657, in label_binarize

Y = Y.toarray()

File "/usr/local/lib/python3.5/dist-packages/scipy/sparse/compressed.py", line 1024, in toarray

out = self._process_toarray_args(order, out)

File "/usr/local/lib/python3.5/dist-packages/scipy/sparse/base.py", line 1186, in _process_toarray_args

return np.zeros(self.shape, dtype=self.dtype, order=order)

MemoryError

resource.setrlimit(resource.RLIMIT_MEMLOCK, (-1, -1))

resource.setrlimit(resource.RLIMIT_MEMLOCK, (resource.RLIM_INFINITY, resource.RLIM_INFINITY))

已经尝试过,有什么想法吗? 它是否与使用该分类器只能使用一个CPU的事实相关?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值