我正在运行一个脚本来将一些标题列还原为CSV文件。它将具有头列的原始文件作为字典,并将它们缝合回丢失了头列的文件中。在
问题是它的速度非常慢。这些文件都是中等大的(约50mb),有200000行96列。目前,当我预览输出文件时,它看起来是正确的。大小每10分钟增长约200kb。在
我在编码方面绝对是个笨蛋,所以如果能帮我弄清楚为什么脚本这么慢,我会很感激的。在hapinfile = file('file_with_header_columns', 'r')
hapoutfile = file('file_missing_header_columns.csv', 'r')
o = file('filescombined.txt', 'w')
dictoutfile={}
for line in hapoutfile:
a=line.rstrip('\n').rstrip('\r').split('\t')
dictoutfile[a[0]]=a[1:]
hapinfile.close()
for line in hapinfile:
q=line.rstrip('\n').rstrip('\r').split('\t')
g=q[0:11]
for key, value in dictoutfile.items():
if g[0] == key:
g.extend(value)
o.write(str('\t'.join(g)+'\n'))
hapoutfile.close()
o.close()