python 内存问题(glibc库的malloc相关)


题记:

这是工作以来困扰我最久的问题。python 进程内存占用问题。

经过长时间断断续续的研究,终于有了一些结果。

项目(IM服务器)中是以C做底层驱动python代码,主要是用C完成 网络交互部分。随着用户量和用户数据的增加,服务器进程内存出现持续上升(基本不会下降),导致需要经常重启服务器,这也是比较危险的信号。

因此便开始了python内存研究之路。


1、业务代码问题

开始是怀疑业务代码问题,可能出现了内存泄漏,有一些对象没有释放。

于是便检查一些全局变量,和检查有没有循环引用导致对象没有释放。

a、全局变量问题:

  发现有一些全局变量(缓存数据)没有做定时清理,于是便加上一些定时清理机制,和缩短一些定时清理的时间。

  结果:确实清理了不少对象,但是对整体内存占用情况并没有改善多少。

b、循环引用问题:

  使用python的gc模块可发现,并没有循环引用的对象,具体可参考 gc.garbage,gc.collect,gc.disable 等方法。

参考:
http://www.cnblogs.com/Xjng/p/5128269.html
https://www.cnblogs.com/xybaby/p/7491656.html#_label_9

 

结论:内存上涨和业务代码关系不大


2、python内存管理问题

python 有自己一套缓存池机制,可能是缓存池持续占用没有释放导致,于是便开始研究python缓存池机制。

python中一些皆为对象,所有对象都继承自 type(PyType_Type),但内建类型具体的内存管理不太一样。

 

a、int对象:

int对象一旦申请了内存空间,就不会再释放,销毁的int对象的内存会由一个 free_list 数组管理,等待下次复用。

因此int 对象占用进程的内存空间,总为int对象最多的时候,等到进程结束后才会把内存返回给操作系统。(python3.x则会调用free)

python启动时会先创建int小整数对象做缓存池用([-5, 256])。

 

b、string对象:

字符串对象释放后则会调用free。

对于长度为0的字符串会直接返回 nullstring对象,长度唯一的对象则用 characters 数组管理,长度大于1的对象则使用interned机制(interned 字典维护)。

 

c、其他变长对象(list、dict、tuple等):

list有一个大小有80的free_list缓存池,用完后申请释放直接用malloc和free;

dict和list一样有一个大小为80的free_list缓存池,机制也一样;

tuple有长度为[0, 19]的缓存池,长度为0的缓存池只有一个,其余19个缓冲池最多能有2000个,存放长度小于20的元组,长度超过20或对应长度缓冲池满了则直接用malloc和free;

 

接下来分析Python的缓存池机制:

python内存池主要由 block、pool、arena组成,其中block在代码中没有实体代码,不过block都是8字节对齐;

block由pool管理,所有512字节以下的内存申请会根据申请字节的大小分配不一样的block,一个pool通常为4K(系统页大小),一个pool管理着一堆固定大小的内存块(block);

 * Request in bytes     Size of allocated block Size class idx * ---------------------------------------------------------------- * 1-8 8 0 * 9-16 16 1 * 17-24 24 2 * 25-32 32 3 * 33-40 40 4 * 41-48 48 5 * 49-56 56 6 * 57-64 64 7 * 65-72 72 8 * ... ... ... * 497-504 504 62 * 505-512 512 63 * * 0, SMALL_REQUEST_THRESHOLD + 1 and up: routed to the underlying * allocator. */

pool有arena管理,一个arena为256KB,但pyhton申请小内存是不会直接使用arena的,会使用use_pools:

pool = usedpools[size + size]; if pool可用: pool 没满, 取一个block返回 pool 满了, 从下一个pool取一个block返回 否则: 获取arena, 从里面初始化一个pool, 拿到第一个block, 返回

参考

http://www.wklken.me/category/python.html

 

python 中大部分对象都小于512B,故python主要还是使用内存池;

 

再看下python的垃圾回收机制:

python使用的是gc垃圾回收机制,主要由引用计数(主要), 标记清除, 分代收集(辅助)。

引用计数:每次申请或释放内存时都增减引用计数,一旦没有对象指向该引用时就释放掉;

标记清除:主要解决循环引用问题;

分代收集:划分三代,每代的回收检测时间不一样;

 

到这一步,卡了比交久,修改了python源码,打印了pool和arena的情况(重编译python后可提现),

arena的大小只占了服务器进程占用内存大小的一小部分,后面发现是python版本比较旧,使用pool的阈值是256B,但是在64位系统上python的dict(程序里比较多的对象)的大小为300+B,就不会使用内存池。

故把python升级到2.7.14(阈值已被修改为512),arena的相对大小比较合理,占了近半进程内存。

这里分析是否合理的方法,就是打印python进程中各对象的数量以及大小,一个方法是利用gc,因为大部分内存申请会经过gc,使用gc.get_objects可以获取gc管理的所有对象,然后再按类型区分,可获取不同类型的对象的数量以及大小;另一种方法是直接使用第三方工具guppy,也可打印这些信息。(不过这两种方法实现不一样,得到的结果会有一点区别,guppy的分类会更准确)

得到不同对象的数量以及大小后,可以对比arena的情况,看看是否合理了。

 

结论:python内存管理暂时没发现问题,可能是由其他问题引起。

 

接下来很长一段时间都在纠结:进程剩下的内存哪去了?


3、malloc内存管理问题

回想一下进程内存分配,包括哪些部分:

 

查看 /proc/$PID/status (smaps、maps) 可以看到上图中对应的 进程的信息,可发现堆分配(和映射区域)是占了绝大部分的内存的。

python的内存申请主要使用的malloc,malloc的实现主要是 brk和mmap,

brk实现是malloc方法的内存池实现,默认小于128KB的内存都经常brk,大于的则由mmap直接想系统申请和释放。

使用brk的缓存池主要是考虑cpu性能,如果所有内存申请都由mmap管理(直接向系统申请),则会触发大量的系统调用,导致cpu占用过高。

brk的缓存池就是为了解决这个问题,小内存(小于128KB)的申请和释放在缓存池进行,减少系统调用减低cpu消耗。

 

使用C函数 mallinfo、malloc_stats、malloc_info等函数可以打印出brk、mmap内存分配、占比的情况。

 

本来阈值128KB是固定的,后来变成动态改变,变为随峰值的增加而增加,所以大部分对象使用brk申请了。虽然brk方法申请的内存也可以复用和内存紧缩,但是内存紧缩要等到高地址的内存释放后才能进行,这很容易导致内存不释放。

于是便使用 mallopt 调整M_MMAP_THREASHOLD 和 M_MMAP_MAX,让使用brk的阈值固定在128KB,调整后再本地进行测试。可以观察到mmap内存占比增加了,系统调用次数增加,在申请和释放大量Python对象后进程内存占用少了20%-30%。

系统调用次数查询:

可通过以下命令查看缺页中断信息 
ps -o majflt,minflt -C <program_name> 
ps -o majflt,minflt -p <pid> 
其中:: majflt 代表 major fault ,指大错误;

           minflt 代表 minor fault ,指小错误。

这两个数值表示一个进程自启动以来所发生的缺页中断的次数。 
其中 majflt 与 minflt 的不同是::

        majflt 表示需要读写磁盘,可能是内存对应页面在磁盘中需要load 到物理内存中,也可能是此时物理内存不足,需要淘汰部分物理页面至磁盘中。

 

 

参考:

https://www.cnblogs.com/dongzhiquan/p/5621906.html

https://paper.seebug.org/255/

https://blog.csdn.net/rebirthme/article/details/50402082

 

 结论:malloc中的brk使用阈值动态调整,虽然降低了cpu负载,但是却间接增加了内存碎片(brk使用缓存),在库定后内存使用下降了20%-30%。


 

4、是否还存在其他问题

4.1、理解进程的内存占用情况后,python缓存好像优点占用过高,可以回头再仔细分析;

4.2、据说使用jemalloc或tcmalloc会有提升,准备试用;

更新至2018-4-16


5、jemalloc

今天测试了jemalloc,现在总结一下:

5.1、安装使用:

a、下载:https://github.com/jemalloc/jemalloc/releases  jemalloc-5.0.1.tar.bz2

b、安装:

  ./configure –prefix=/usr/local/jemalloc

  make -j8

  make install

c、编译时使用:
  gcc -g -c -o 1.o 1.c 
  gcc -g -o 1.out 1.o -L/usr/local/jemalloc/lib -ljemalloc

d、运行时可能会报错,找不到库:

此时需要把libjemalloc.so.2 放到可寻找到的路径中就行

我的做法是:
先查看依赖库是否找到位置:ldd xxx  (xxx是可运行文件)

把libjemalloc.so.2放到 /lib 下:ln -s /usr/local/jemalloc/lib/libjemalloc.so.2 /lib/libjemalloc.so.2  (我这里使用软链接)

 

在用ldd xxx可以看到依赖库可发现了

 5.2、使用效果:

同样条件测试,内存占用变化不大(这里主要关注的是内存使用率不是cpu使用率);

参考:

https://blog.csdn.net/xiaofei_hah0000/article/details/52214592

 

结论:测试使用jemalloc,暂无明显变化。

更新至2018-4-17


 

安装tcmalloc,使用静态库编译可执行文件,对比原来的方法、jemalloc方法(使用动态库,5.0.1版本)和tcmalloc方法(使用静态库,2.7版本):

 

开了三个进程,里面定时加载、清除数据(3000个用户私有数据,加载后内存增加300M),在运行4~5个小时后,tcmalloc 比原来 的方法内存占用少10%~15%,jemalloc方法比tcmalloc方法内存占用少5%~10%;使用jemalloc和tcmalloc都能优化内存碎片的问题,而jemalloc方法的效果会更好些。(tcmalloc、jemalloc源码直接使用,未改源码、未调参数情况)

 

更新至2018-5-29


 在正式服务器环境中连续运行一个月,tcmalloc占用内存比原来的ptmalloc 少了 25%,效果显著!
更新至2018-6-11

转载于:https://www.cnblogs.com/GO-NO-1/p/8822258.html

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值