问题:
for i in range(1000 * 1000 * 10 ):
pass;
等价
l = range(1000 * 1000 * 10 )
这样的内存大对象,是不会被随便释放的,直到进程退出;
我了解到一个 Boehm GC 尝试做类似的事情.GC后全部释放;
但只是Linux试验;并不是通用性解决方法;
回答:
环境:是w_xp下的虚拟机--debian下运行.
使用下面的方法:
1.
>>> for i in range ( 1000000 * 10 ):
... del i
...
>>>
看能否完成你的需求?
我测试过:如果1000000,几秒就过去了.
所以我使用1000000 * 10 .
另外开一个窗口:
运行:
while true; do ps aux | grep python; sleep 1 ; done;
观察mem的使用率.发现使用了47%
2.重启python运行环境.
>>> def test():
... for i in range ( 1000000 * 10 ):
... del i
...
>>> test()
这样使用,观察mem使用率:内存上升47%,之后重复运行test(),内存只是上升20%之后就是回落到47%.
3.为什么呢?那么把这个函数定义放到一个文件里面去.
"test.py" 7L, 106C 5,1 All
def test():
for i in range ( 1000000 * 10 ):
del i
if ( __name__ == "__main__" ):
test()
运行 python test.py
观察 mem,上升到47%-->44%-->0.2%
4.
import time
def test():
for i in range ( 1000000 * 10 ):
del i
if ( __name__ == "__main__" ):
test()
while ( True ):
time.sleep( 1 )
观察mem:内存维持不变!
从这点可以猜测:python不是立即释放资源的.
下面来源于:http://book.csdn.net/bookfiles/749/10074922944.shtml
在一个对象的引用计数减为0时,与该对象对应的析构函数就会被调用,但是要特别注意的是,调用析构函数并不意味着最终一定会调用free释放内存空间,如果真是这样的话,那频繁地申请、释放内存空间会使 Python的执行效率大打折扣(更何况Python已经多年背负了人们对其执行效率的不满)。一般来说,Python中大量采用了内存对象池的技术,使用这种技术可以避免频繁地申请和释放内存空间。因此在析构时,通常都是将对象占