python保存队列数据到文件_Python处理列表/队列中的项目并保存进度

像保存文件这样的I/O操作总是比较慢的。如果必须处理大量的文件,那么无论使用多少线程,都会占用很长的I/O时间。在

最简单的方法是使用多线程而不是多处理,让操作系统的调度器来解决问题。The docs对如何设置线程有很好的解释。一个简单的例子是from threading import Thread

def process_data(file_name):

# does the processing

print(f'processed {file_name}')

if __name__ == '__main__':

file_names = ['file_1', 'file_2']

processes = [Thread(target=process_data, args=(file_name,)) for file_name in file_names]

# here you start all the processes

for proc in processes:

proc.start()

# here you wait for all processes to finish

for proc in processes:

proc.join()

一种可能更快的解决方案是创建一个单独的进程来执行I/O,然后使用multiprocessing.Queue将来自“data process thread”的文件排队,让I/O线程获取这些文件并逐个处理它们。在

这样,I/O就不会停止,这将接近于最佳状态。我不知道这是否会比基于线程的解决方案产生更大的优势,但正如并发性的一般情况一样,最好的方法是用自己的应用程序做一些基准测试。在

需要注意的一个问题是,如果数据处理速度快得多,那么{}可能会变得非常大。这可能会对性能产生影响,具体取决于您的系统以及其他因素。一个快速的解决方法是在队列变大时暂停数据处理。在

记住用Python编写所有的多处理代码

^{pr2}$

注意,有些ide不能很好地处理并发Python代码。安全的办法是通过从终端执行代码来测试代码。在

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值