解决机器学习中anaconda jupyternotebook对于代码需要的计算量太大,导致内存崩溃(out of memory),无法进入的问题(有Pycharm专业版情况下)

因为个人是在上机器学习这门课的小白,所以在老师让我们手写代码(没有安装SKlearn包)的情况下,经常不小心就会写出一些需要计算量非常大的代码,然后就会导致Jupyternotebook卡在网页那一栏提示崩溃 out of memory。

我也查过了许多CSDN上的文章,好像是说这个东西是因为内存太大而Jupyternotebook最多只支持100MB的文件大小,所以,我当时是因为写了个循环代码,需要比较大的运算量(103MB),然后一直卡在页面那里进不去,一直显示内核正忙,当时实验课急死我了,真的非常崩溃。

天无绝人之路,最后我用Pycharm打开后,将那个循环的部分给它注释掉,文件保存好之后再看,只有41k了(天壤之别),重新打开之后就可以run了,再将注释部分修改一下(避免再次出现计算量过大的情况)。

当然了,这个方法只是解决燃眉之急,真正的解决方案是尽量避免写出需要计算量过大的代码

学生好像是可以免费申请专业版的,有需求的小伙伴可以试试下载一个pycharm专业版。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值