python 内存释放规则_python内存释放问题/回答/疑问

问题:

for i in range(1000 * 1000 * 10 ):

pass;

等价

l = range(1000 * 1000 * 10 )

这样的内存大对象,是不会被随便释放的,直到进程退出;

我了解到一个 Boehm GC 尝试做类似的事情.GC后全部释放;

但只是Linux试验;并不是通用性解决方法;

回答:

环境:是w_xp下的虚拟机--debian下运行.

使用下面的方法:

1.

>>> for i in range ( 1000000 * 10 ):

...    del i

...

>>>

看能否完成你的需求?

我测试过:如果1000000,几秒就过去了.

所以我使用1000000 * 10 .

另外开一个窗口:

运行:

while true; do ps aux | grep python; sleep 1 ; done;

观察mem的使用率.发现使用了47%

2.重启python运行环境.

>>> def test():

...    for i in range ( 1000000 * 10 ):

...       del i

...

>>> test()

这样使用,观察mem使用率:内存上升47%,之后重复运行test(),内存只是上升20%之后就是回落到47%.

3.为什么呢?那么把这个函数定义放到一个文件里面去.

"test.py" 7L, 106C                                              5,1           All

def test():

for i in range ( 1000000 * 10 ):

del i

if ( __name__ == "__main__" ):

test()

运行 python test.py

观察 mem,上升到47%-->44%-->0.2%

4.

import time

def test():

for i in range ( 1000000 * 10 ):

del i

if ( __name__ == "__main__" ):

test()

while ( True ):

time.sleep( 1 )

观察mem:内存维持不变!

从这点可以猜测:python不是立即释放资源的.

下面来源于:http://book.csdn.net/bookfiles/749/10074922944.shtml

在一个对象的引用计数减为0时,与该对象对应的析构函数就会被调用,但是要特别注意的是,调用析构函数并不意味着最终一定会调用free释放内存空间,如果真是这样的话,那频繁地申请、释放内存空间会使 Python的执行效率大打折扣(更何况Python已经多年背负了人们对其执行效率的不满)。一般来说,Python中大量采用了内存对象池的技术,使用这种技术可以避免频繁地申请和释放内存空间。因此在析构时,通常都是将对象占

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值