我们来玩个游戏,如果在python中计算1到n的累加和,用什么计算方式效率最高? 我们直接上代码:
import timeit
import numpy
def while_loop(n=100_000_000):
i = 0
s = 0
while i < n:
s += i
i += 1
return s
def for_loop(n=100_000_000):
s = 0
for i in range(n):
s += i
return s
def sum_range(n=100_000_000):
return sum(range(n))
def sum_numpy(n=100_000_000):
return numpy.sum(numpy.arange(n))
def sum_math(n=100_000_000):
return (n * (n - 1)) // 2
def main():
print('while_loop\t\t', timeit.timeit(while_loop, number=1))
print('for_loop\t\t', timeit.timeit(for_loop, number=1))
print('sum_range\t\t', timeit.timeit(sum_range, number=1))
print('sum_numpy\t\t', timeit.timeit(sum_numpy, number=1))
print('sum_math\t\t', timeit.timeit(sum_math, number=1))
if __name__ == '__main__':
main()
我先把运行后的结果也贴出来:
上面的代码是求0到n之间所有的数累加之和。做同样的功能,居然有这么大的性能差距。
我们先聊一下while_loop和for_loop:这两个最大的区别在i这个变量的累加,对于while_loop接口所有的操作都在python中处理的,但是for_loop接口中变量i的+1操作其实在C语言中实现,所以对于for_loop接口处理的性能会高一些。
sum_range接口中sum其实是对累加求和的内部实现,相对而言比我们自己写效率会高很多,毕竟内部会做一些优化。而sum_numpy接口比sum_range接口性能更好的原因是numpy几乎都是用C语言实现的并提供的接口,所以效率比python要高。
当然对于sum(range(n))和numpy.sum(numpy.arange(n))也需要注意,前者是一个一个的创建累加值,而后者是一下子在内存里开辟了n大小的数组,然后进行累加。所以当内存不够的时候,前者还能运行,而后者就直接崩溃了。
最后一个直接通过数学公式直接得出结果,这个不难理解,效率应该是最高的,其实工作中有些性能的优化就是这么来的,所以为什么说高端玩家,玩的是高数。
好了,今天就聊到这里,之前有小伙伴问我他的环境不能用numpy,我这里贴一个网上的教程链接:https://www.imangodoc.com/c978d423.html。