python运行内存不足_Python非常大的集合.如何避免内存不足异常?

我使用

Python集合来存储唯一对象.每个对象都重写了__hash__和__eq__.

该集包含近20万个对象.该集本身占用了近4 GB的内存.

它在超过5 GB的机器上运行良好,但现在我需要在只有3 GB RAM的机器上运行该脚本.

我重写了一个脚本到C# – 实际上从同一个源读取相同的数据,把它放到一个CLR模拟的集合(HashSet)而不是4 GB,它花了近350 MB,而脚本执行的速度相对相同(接近40秒)但我必须使用Python.

问题1:Python是否有任何“磁盘持久性”设置或任何其他解决方法?我猜它只能在内存中存储hash / eq方法中使用的“key”数据,其他所有内容都可以保存到磁盘上.或者也许在Python中有其他变通方法可以拥有一个独特的对象集合,这些对象可能占用比系统中可用内存更多的内存.

Q2:不太实际的问题:为什么python set会为一个集合占用更多的内存?

我在64位Ubuntu 12.10上使用标准Python 2.7.3

谢谢.

UPDATE1:

什么脚本做:

>阅读大量半结构化JSON文档(每个JSON由序列化对象组成,其中包含与之相关的聚合对象集合)

>解析每个JSON文档以从中检索主对象和聚合集合中的对象.每个解析的对象都存储在一个集合中. Set仅用于存储唯一对象.首先我使用了数据库,但数据库中的唯一约束使x100-x1000的速度变慢.每个JSON文档都被解析为1-8种不同的对象类型.每个对象类型都存储在它自己的集合中,以便仅在内存中保存唯一对象.

>存储在集合中的所有数据都将保存到具有唯一约束的关系数据库中.每个集都存储在单独的数据库表中.

脚本的整个想法是获取非结构化数据,从JSON文档中的聚合对象集合中删除重复项,并将结构化数据存储到关系数据库中.

更新2:

2 delnan:我评论了所有代码行,添加了不同的集合,使所有其他人员(获取数据,解析,迭代)保持不变 – 该脚本占用的内存减少了4 GB.

这意味着当这些200K对象被添加到集合中时 – 它们开始占用大量内存.该对象是来自TMDB的简单电影数据 – ID,类型列表,演员列表,导演,许多其他电影细节以及可能来自维基百科的大型电影描述.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值