我需要优化应用程序的RAM使用。
请不要给我讲课,告诉我在编写Python时不应该关心内存。我有一个内存问题,因为我使用了非常大的默认字典(是的,我也想快速)。我目前的内存消耗是350MB,而且还在增长。我已经不能使用共享托管了,如果我的Apache打开更多的进程,内存将加倍和三倍。。。而且很贵。
我已经做了大量的分析工作,我很清楚我的问题在哪里。
我有几本带Unicode键的大型(>;100K个条目)词典。字典从140字节开始,增长很快,但更大的问题是键。Python优化了内存中的字符串(或者我已经读过的字符串),以便查找可以是ID比较(“interning”它们)。不确定unicode字符串也是如此(我无法“实习”它们)。
字典中存储的对象是元组列表(一个对象、一个int、一个int)。my_big_dict[some_unicode_string].append((my_object, an_int, another_int))
我已经发现分拆成几本字典是值得的,因为元组占用了很多空间……
我发现在把字符串用作键之前,通过散列可以节省内存!
但不幸的是,我在32位系统上遇到了生日碰撞。(附带问题:在32位系统上是否有64位的密钥字典?)
在Linux(生产)和Windows上都有Python2.6.5。
关于优化字典/列表/元组的内存使用有什么提示吗?
我甚至想过用C语言——我不在乎这段代码是否难看。它只是一个独特的位置。
提前谢谢!