如何提高python的运行效率_提高Python性能的一些建议

最近换住的地方,网费到期,有两个星期没更新博客了,博客还是要坚持写的,有时候工作时遇到了相关问题,查看相关博客,还是能够得到一些思路或者灵感。虽然写篇博客要话费不少时间(我一般要花一个半小时到两个小时之间),但是这中间码字呀、归纳总结的过程还是让我受益匪浅的,温故而知新!当然分享自己的学习心得,也会让自己认识一些志同道合的朋友,也挺好。不说许多,今天讲讲如何提高Python性能的问题。

python的性能相对c语言等还是有一定的劣势,但是如果能掌握一些优化性能的技巧,不仅能够提高代码的运行效率,还能够使代码更加Pythonic。刚刚接触Python时,也在网上找了一些提高`python性能的博文看,还是另外受益匪浅,http://www.jb51.net/article/56699.htm

这篇博文还是写的不错的,可以参考。不过结合我自己最近看的书及书上的建议,做一个更细致的总结吧,不正之处欢迎批评指正,共同进步!

一、循环优化的基本技巧

循环的优化应遵循尽量减少循环过程中计算量的原则,多重循环的情况下尽量将内存的计算提到上一层。

(1)减少循环内部计算。先看下面例子#coding=utf-8

import datetime

import math

#第一种方法

def fun1(iter,x):

j = 0

for i in iter:

d = math.sqrt(x)

j += i * d

return j

#第二中方法

def fun2(iter,x):

j = 0

d = math.sqrt(x)

for i in iter:

j += i * d

return j

iter = range(1,1000)

t0 = datetime.datetime.now()

a = fun1(iter,9)

t1 = datetime.datetime.now()

b = fun2(iter,9)

t2 = datetime.datetime.now()

print a," ",b

print t1-t0,t2-t1

运行结果如下图:

wKioL1fx55qz_JUKAAApTCz5FSM590.png-wh_500x0-wm_3-wmp_4-s_4187676640.png

第二种方法比一种速度快,因为第一种方法中,d = math.sqrt(x)在循环内部,每次循环过程中都会重复计算一次,增加了系统开销,这里的d = math.sqrt(x)还是个比较简单的计算,如果遇到自己定义的复杂的、计算量大的那么第一种方法真的就不太好了。一般情况下,第二种方法比第一种方法运算效率高40%-60%。

(2)将显示循环改为隐式循环。比如说,在求等差数列的和时,可以直接通过循环来计算,这个很简单,如下:#coding=utf-8

def SUM(n):

sum = 0

for i in xrange(n+1):

sum +=i

这么写是没问题的,但是等差数列有现成的求和公式呀,即n*(n+1)/2,没必要要再用循环了,所以说如果程序中有类似的情况,可以直接将显示循环改为隐式。

(3)在循环中尽量引用局部变量。根据"LEGB"原则(不了解的可以参考之前的博文,地址:http://11026142.blog.51cto.com/11016142/1840128 ),在命名空间局部变量优先搜索,因此局部变量查询会比全局变量更快。在循环中,如果多次引用某一变量,要尽量将其转化为局部变量,看下面例子#coding=utf-8

import datetime

import math

x = [10,20,30,40,50,60,70,80,90]

#第一种方法

def fun1(x):

for i in xrange(len(x)):

x[i] = math.sin(x[i])

return x

#第二中方法

def fun2(x):

loc_sin = math.sin

for i in xrange(len(x)):

x[i] = loc_sin(x[i])

return x

t0 = datetime.datetime.now()

a = fun1(x)

t1 = datetime.datetime.now()

b = fun2(x)

t2 = datetime.datetime.now()

print a

print b

print t1-t0,t2-t1

运行结果如下:

wKioL1fx7P2g4oXpAAAxhk6B-vg291.png-wh_500x0-wm_3-wmp_4-s_2709661818.png

可以看到方法二快于方法一,我觉得这种方法,在平时应用某个库(包括标准库和自定义库,模块)的函数时,可以这样用,比较程序搜索这个库的函数也是需要时间,如果用第一种方法,那就是循环搜索了,那肯定会划分更多的时间,这个技巧我觉得值得大家去学习、借鉴。

(4)对于嵌套循环,尽量将内层循环计算往上层移。看下面例子#coding=utf-8

import datetime

#第一种方法

def fun1(iter1,iter2):

max1 = 0

for i in range(len(iter1)):

for j in range(len(iter2)):

x = iter1[i] + iter2[j]

max1 = x if x > max1 else max1

return max1

#第二中方法

def fun2(iter1,iter2):

max1 = 0

for i in range(len(iter1)):

temp = iter1[i]

for j in range(len(iter2)):

x = temp + iter2[j]

max1 = x if x > max1 else max1

return max1

l1 = [1,23,4,5,34,8,10,18,42,10,6,88]

l2 = [100,102,34,15,16,56]

t0 = datetime.datetime.now()

a = fun1(l1,l2)

t1 = datetime.datetime.now()

b = fun2(l1,l2)

t2 = datetime.datetime.now()

print a

print b

print t1-t0,t2-t1

运行结果如下:

wKiom1fx8e-zVz7QAAAacLt41Tk666.png-wh_500x0-wm_3-wmp_4-s_503345563.png

可见方法二的速度要快些,嵌套for循环的运行机制是i=0(以上面例子为例),然后j从0增到最大值,然后i自增1,j又从0增大到最大值,依次类推。所以在内层循环的上一层加个临时变量,内层使用是就不用重新计算。这里要说明一下,对于列表它的索引,切片等操作也是一种计算/运算,也是要花费时间的。

二、使用不同的数据结构优化性能

最常用的数据结构是list,它的内存管理类似于c++的vector,即先预分配一定数量的内存,当预分配的内存用完了但是不够用,又要继续往里插入元素,就会启动新一轮内存分配,list对象就会根据内存增长算法重新申请一块更大的内存空间,然后将原有的所有元素拷贝过去,销毁之前的内存,然后插入新元素,如果还不够用,继续重复上面的步骤。删除元素也是这样,如果发现已用空间比预分配内存空间的一半还少,list会申请一块小内存,再做一次拷贝,然后销毁大内存(如果想了解这部分知识,我推荐大家看看《Python源码剖析》这本书,这本书我也是一个月前开始看,目前还没看完,我觉得这本书写的很好,很值得读两三篇甚至四五篇,第一章与第二章内容要认真读,否则后面的东西越看越糊涂(大神除外))。

可见,如果list对象经常有元素数量的巨大变化,而且比较频繁,这个时候应该考虑使用deque。如果不了解deque,可以参考我前面的博文http://11026142.blog.51cto.com/11016142/1851791

deque是双端队列,同时具备栈和队列的特性。能够提供复杂度为O(1)的两端插入和删除操作。相对于list,它最大的优势在于内存管理。它申请的内存不够用时,不会像list那样,而是申请新的内存来容纳新的元素,然后将新元素与旧元素连接起来,避免了元素的拷贝。所以,但出现元素数量频繁出现巨大变化时,deque的性能是list的好几倍。

array,中文名是数组,是一种序列数据结构,看起来和list很相似,但是所有成员必须是相同基本类型。array实例化时需要指明其存储元素类型。如'c',表示存储一个想当然c语言里的char类型,占用内存大小1字节。这就从另一个角度来说明,它可以优化代码的内存空间。看下面例子#coding=utf-8

import sys

import array

a = array.array('c',"hello,world")

c = list("hello,world")

print sys.getsizeof(a),sys.getsizeof(c)

运行结果如下:

wKiom1fx_2DBFfuFAAAVEXUmHmo035.png-wh_500x0-wm_3-wmp_4-s_167102668.png

明显,list对象更耗内存。这就会影响到一些其它操作的性能提升,比如将容器对象转换为字符串,在这一点上array性能高于list。看下面例子#coding=utf-8

import array

import datetime

a = array.array('c',"hello,world")

c = list("hello,world")

t0 = datetime.datetime.now()

s1 = ''.join(c)

t1= datetime.datetime.now()

s2 = ''.join(a)

t2 = datetime.datetime.now()

print t1 - t0,t2 - t1

运行结果如下:

wKioL1fyAcmQ1t7wAAAVZw_2o38190.png-wh_500x0-wm_3-wmp_4-s_366691489.png

也并不是所以的array性能提升比较大,比如排序,array性能不如list,看下例:#coding=utf-8

import array

import datetime

a = array.array('c',"hello,world")

c = list("hello,world")

t0 = datetime.datetime.now()

c.reverse()

t1= datetime.datetime.now()

a.reverse()

t2 = datetime.datetime.now()

print t1 - t0,t2 - t1

结果如下:

wKiom1fyApLBwFjzAAAVyrI3nDg926.png-wh_500x0-wm_3-wmp_4-s_786055152.png

(三)利用好set的优势

set是集合,python中集合是通过Hash算法实现的无序不重复元素集,创建集合是通过set()来实现的。看下图:

wKioL1fyA8fRvBi3AAKqrLC2sho474.png-wh_500x0-wm_3-wmp_4-s_1860976773.png

set对象也支持添加元素,但它的性能是list添加元素性能的好几倍,这个不在此过多叙述,有时间专门写篇关于python集合的博文。

set在求交集、并集、差集等与集合有关的操作,性能要逼list快,因此涉及到list的交集、并集、差集等运算,可以将list转换为set

四、使用生成器提高效率

生成器是Python中的一个高级用法,概念非常简单,如果一个函数中有yield语句,则称为生成器(generator),它是一种特殊的迭代器(iterator),也可以称为可迭代对象(iterable)。这三者关系如下图:

wKioL1fyWC7S6OCQAADL0VZlqW0392.png-wh_500x0-wm_3-wmp_4-s_3949789161.png

如果你熟悉/了解Python的对象协议的话,最上面的那个是容器类协议,第二个是迭代器协议,如果你对这些不太熟悉,我觉得有必要找本经典教材来看看,我看的是《Python学习手册》,这本书还不错,介绍的比较详细,对于比较熟的内容,可以跳过。

调用生成器函数会返回一个迭代器对象,只是这个迭代器对象是以生成器对象的形式出现的。看下面例子:#coding=utf-8

def fun(n):

a,b = 1,1

while a < n:

yield a

a,b = b,a + b

f = fun(10)

print type(f)

print dir(f)

输出结果如下:

['__class__', '__delattr__', '__doc__', '__format__', '__getattribute__', '__hash__', '__init__', '__iter__', '__name__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__str__', '__subclasshook__', 'close', 'gi_code', 'gi_frame', 'gi_running', 'next', 'send', 'throw']

可以看到它返回的是一个generator类型对象,而这个对象有__iter__()和__next__()方法,熟悉迭代器协议的都知道,迭代器协议就是要实现__iter__()和__next__()方法,可见它也是一个迭代器对象。

生成器为什么能够提高运行效率?

这是因为每一个生成器函数在调用之后,它的函数体并不执行,而是第一次调用next()的时候才会执行,仅在需要的时候产生对应的元素,而不是一次性生成所有的元素,从而节省了空间内存,提高了效率,理论上来讲,无限循环成为可能不会导致内存不够用的情况,这个在读数据处理的时候尤为重要。所以在循环过程中依次处理一个元素的时候,用生成器是最好的。

五、使用多进程

由于GIT的存在,是的Python中的多线程无法充分利用多核优势来提高运行效率,但是python提供了另外一个解决方案,多进程。 可以使用multiprocessing的Process,Pool等封装好的类,通过多进程的方式实现并行计算。由于篇幅有限,在此不过多介绍。

另外还有一些其它的方法,比如推到式啊,借助一些其它的开发工具呀等等,这也是一个很值得去花时间去了解的知识,由于篇幅有限,无法详细叙述,后面我会慢慢尝试使用PyPy,Cython以及一些分析工具,然后将我的学习经验与大家分享。这些都是一些技巧,平时写代码的时候就要注意考虑进这些东西,多实践多总结,相信你会越来越优秀!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值