我有用于将XML文件解析为detailed here的Python代码。我知道XML文件在内存中操作时占用系统资源是臭名昭著的。我的解决方案适用于较小的XML文件(比如200KB,我有一个340MB的文件)。
我开始研究StAX(pull parser)实现,但我的工作日程很紧,我正在寻找一种更简单的方法来完成这项任务。
我了解如何创建较小的文件块,但如何通过每次输出main/header标记来提取正确的元素?
例如,这是架构:<?xml version="1.0" ?>
....
....
....
....
....
....
....
....
....
....
....
如何为每1000个book元素创建带有头数据的新XML文件?有关代码和数据集的具体示例,请参阅我的其他question here。谢谢。
我要做的就是避免一次在内存中加载数据集。我们能以流方式解析XML文件吗?我的思路对吗?
注:我的情况类似于2009年的a question asked。一旦我找到一个更简单的解决方法,我会在这里发布一个答案。感谢您的反馈。