python csv性能_用Python编写大型CSV的最快方法

问题似乎主要是IO绑定的。您可以通过以较大的块写入文件而不是一次写入一行来稍微改进I/O:import numpy as np

import uuid

import os

outfile = 'data-alt.csv'

outsize = 10 # MB

chunksize = 1000

with open(outfile, 'ab') as csvfile:

while (os.path.getsize(outfile)//1024**2) < outsize:

data = [[uuid.uuid4() for i in range(chunksize)],

np.random.random(chunksize)*50,

np.random.random(chunksize)*50,

np.random.randint(1000, size=(chunksize,))]

csvfile.writelines(['%s,%.6f,%.6f,%i\n' % row for row in zip(*data)])

您可以尝试使用chunksize(每个块写入的行数)来查看在您的计算机上最有效的方法。

下面是一个基准,将上述代码与原始代码进行比较,outsize设置为10 MB:% time original.py

real 0m5.379s

user 0m4.839s

sys 0m0.538s

% time write_in_chunks.py

real 0m4.205s

user 0m3.850s

sys 0m0.351s

所以这比原始代码快25%。

我试着用所需总行数的估计值替换对os.path.getsize的调用。不幸的是,它没有提高速度。由于表示最终int所需的字节数不同,估计也不精确——也就是说,它不能完全复制原始代码的行为。所以我把os.path.getsize放在原地。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值