Jupyter notebook读取大型csv文件遇到The kernel appears to have died. It will restart automatically的错误原因排查

在尝试使用pandas读取超过1GB的大型csv文件时,遇到了kernel崩溃的问题。排查原因发现并非numpy等包的版本问题,而是由于运行Jupyter Notebook的docker容器内存不足。通过检查容器内存使用状况,确认了内存不足是导致问题的关键。解决方案包括调整容器内存配置或升级服务器资源。这个问题在运行于腾讯云服务器的1核2G内存环境中尤为明显。
摘要由CSDN通过智能技术生成

在用pandas读取大型(都几乎是超1G)的csv文件,发生了如下报错:
在这里插入图片描述
搜了一下,

  • 第一种发生原因:安装包版本问题。所以解决办法:

    • pip install -U numpy(好一部分朋友表示这个有用)
    • conda install nomkl(少部分朋友表示这个有用)
    • conda update anaconda/ mkl(一部分朋友表示这个有用)

但是这些都不适用掌柜这里,后来又查了一下。

  • 第二种发生原因:容器分配的内存不足导致。 解决办法:修改容器内存配置
docker update -m 4096M 

或者

docker update -m 4096M --memory-swap 409
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值