同样值得指出的是,这个问题的答案取决于在每次迭代中添加的列表/元组的小规模。对于更大的列表,extend显然更优越(列表和元组没有区别)。从mgilson的answer开始,我检查了包含600个项的集合的行为,而不是2:
调用append 600次所需时间是对手动定义的列表/元组使用extend()(即[v,v,v,v,v,v,v...])所需时间的8倍:42.4969689846
5.45146393776
5.38034892082
这五秒钟的大部分时间实际上是创建列表/元组。在调用timeit之前准备它会给extend down带来时间1.42491698265
0.657584905624
分别用于列表和元组。
对于更真实(更公平)的情况,可以在函数调用中动态生成数据:import timeit
def append_loop(foo, reps):
for i in range(reps):
foo.append(i)
def append_comp(foo, reps):
[foo.append(i) for i in range(reps)]
def extend_lst(foo, reps):
foo.extend([i for i in range(reps)])
def extend_tup(foo, reps):
foo.extend((i for i in range(reps)))
repetitions = 600
print timeit.timeit('append_loop([], repetitions)', setup='from __main__ import append_loop, repetitions')
print timeit.timeit('append_comp([], repetitions)', setup='from __main__ import append_comp, repetitions')
print timeit.timeit('extend_lst([], repetitions)', setup='from __main__ import extend_lst, repetitions')
print timeit.timeit('extend_tup([], repetitions)', setup='from __main__ import extend_tup, repetitions')
(Append通过for循环和list理解来实现,以消除两种循环方式之间的效率差异。)
时间安排如下:53.8211231232
57.1711571217
19.8829259872
28.5986201763
如我们所见,使用列表理解扩展仍然比添加快两倍以上。而且,元组理解看起来明显比列表理解慢,而且append_comp只会带来不必要的列表创建开销。