我也在用Python解压/解压/解压zip文件,而那种“创建zip file对象,遍历其.namelist(),读取文件并将其写入文件系统”的低级方法似乎不是很Python。所以我开始挖掘zipfile objects我认为没有很好的文档记录,并涵盖了所有的对象方法:>>> from zipfile import ZipFile
>>> filepath = '/srv/pydocfiles/packages/ebook.zip'
>>> zip = ZipFile(filepath)
>>> dir(zip)
['NameToInfo', '_GetContents', '_RealGetContents', '__del__', '__doc__', '__enter__', '__exit__', '__init__', '__module__', '_allowZip64', '_didModify', '_extract_member', '_filePassed', '_writecheck', 'close', 'comment', 'compression', 'debug', 'extract', 'extractall', 'filelist', 'filename', 'fp', 'getinfo', 'infolist', 'mode', 'namelist', 'open', 'printdir', 'pwd', 'read', 'setpassword', 'start_dir', 'testzip', 'write', 'writestr']
我们开始了,“extractall”方法的工作方式就像tarfile's extractall!(在Python2.6和2.7上,但不是2.5)
然后是性能问题;ebook.zip文件是84.6mb(主要是pdf文件),未压缩文件夹是103mb,默认情况下在MacOSx 10.5下压缩为“存档实用程序”。所以我对Python的timeit模块也做了同样的操作:>>> from timeit import Timer
>>> t = Timer("filepath = '/srv/pydocfiles/packages/ebook.zip'; \
... extract_to = '/tmp/pydocnet/build'; \
... from zipfile import ZipFile; \
... ZipFile(filepath).extractall(path=extract_to)")
>>>
>>> t.timeit(1)
1.8670060634613037
在一台拥有90%内存的重负载机器上,其他应用程序正在使用它不到2秒。
希望这能帮助别人。