记一次内存爆炸的经历

本文讲述了作者在部署一个Python程序时遇到的内存爆炸问题。程序原本采用生产者-消费者模型,但在生产环境中线程数被过度增加,导致内存持续增长直至系统OOM。原因是API调用速度超过数据库保存速度,积压数据占满内存。作者认识到Python多线程的局限性,并提出设置队列最大限制和使用多进程或协程作为解决方案。
摘要由CSDN通过智能技术生成

本文原载于https://base.admirable.one/t/topic/149,作者亦是本人,特此申明。


最近有做一个程序,内容其实很简单:调用几百万次一个api,然后把结果保存到 MongoDB 数据库。

一开始我没有想到用 coroutine 等高级方法,就简单采用了“生产者消费者”的模式:第一组线程负责分配任务,第二组线程负责从api获取结果,然后保存到一个队列,第三组线程负责从队列中拿任务并保存到数据库。

程序很快就写出来了,在本机上跑也没有出现问题,但是后来部署到正式机器上后就出现了问题:程序启动后,内存一直拼命增长,直到把内存占满,然后被内核 OOM。

一开始,出于不自信,我想的是会不会是我的程序哪个地方内存泄漏了。但是经过资料的查找,

在使用Linux系统下的vi编辑器打开大文件时,可能会遇到内存爆炸的问题。这是因为vi编辑器是将整个文件加载到内存中进行编辑的,当文件太大时,超出了系统的内存限制,就会导致内存爆炸的情况发生。 为了解决这个问题,可以采取以下措施: 1. 使用其他编辑器:可以尝试使用其他适合处理大文件的编辑器,如Emacs、Sublime Text等。这些编辑器通常会使用一种分页或按需加载的方式来处理大文件,以避免内存爆炸的问题。 2. 使用命令行工具:另一种解决方法是使用一些命令行工具来处理大文件,例如sed、awk等。这些工具可以对文件进行分割、过滤、查找等操作,而不需要将整个文件加载到内存中。 3. 分块加载:如果使用vi是必须的,可以尝试将大文件分割成多个较小的块进行编辑。可以使用命令行工具或脚本来实现这个过程,例如使用split命令将文件分割成多个较小的文件,然后使用vi分别打开这些文件进行编辑。 4. 调整内存限制:在一些情况下,可能可以通过调整系统的内存限制来解决内存爆炸的问题。可以通过修改系统的内核参数或使用软件限制工具,如ulimit命令,来增加系统对内存的限制。 综上所述,当使用Linux的vi编辑器打开大文件时,可能会遇到内存爆炸的问题。可以尝试使用其他编辑器、命令行工具或分块加载来解决此问题,或者调整系统的内存限制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值