python代码性能分析_Python性能分析指南

http://www.admin10000.com/document/2861.html

尽管并非每个你写的Python程序都需要严格的性能分析,但了解一下Python的生态系统中很多优秀的在你需要做性能分析的时候可以使用的工具仍然是一件值得去做的事。

分析一个程序的性能,最终都归结为回答4个基本的问题:

程序运行速度有多快?

运行速度瓶颈在哪儿?

程序使用了多少内存?

内存泄露发生在哪里?

下面,我们将使用一些优秀的工具深入回答这些问题。

使用time工具粗糙定时

首先,我们可以使用快速然而粗糙的工具:古老的unix工具time,来为我们的代码检测运行时间。

1

2

3

4

5

$ time python yourprogram.py

real0m1.028s

user0m0.001s

sys0m0.003s

上面三个输入变量的意义在文章 stackoverflow article 中有详细介绍。简单的说:

real - 表示实际的程序运行时间

user - 表示程序在用户态的cpu总时间

sys - 表示在内核态的cpu总时间

通过sys和user时间的求和,你可以直观的得到系统上没有其他程序运行时你的程序运行所需要的CPU周期。

若sys和user时间之和远远少于real时间,那么你可以猜测你的程序的主要性能问题很可能与IO等待相关。

使用计时上下文管理器进行细粒度计时

我们的下一个技术涉及访问细粒度计时信息的直接代码指令。这是一小段代码,我发现使用专门的计时测量是非常重要的:

timer.py

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

import time

class Timer(object):

def __init__(self, verbose=False):

self.verbose= verbose

def __enter__(self):

self.start= time.time()

return self

def __exit__(self,*args):

self.end= time.time()

self.secs= self.end- self.start

self.msecs= self.secs* 1000 # millisecs

if self.verbose:

print 'elapsed time: %f ms' % self.msecs

为了使用它,你需要用Python的with关键字和Timer上下文管理器包装想要计时的代码块。它将会在你的代码块开始执行的时候启动计时器,在你的代码块结束的时候停止计时器。

这是一个使用上述代码片段的例子:

1

2

3

4

5

6

7

8

9

10

11

from timerimport Timer

from redisimport Redis

rdb= Redis()

with Timer() as t:

rdb.lpush("foo","bar")

print "=> elasped lpush: %s s" % t.secs

with Timer as t:

rdb.lpop("foo")

print "=> elasped lpop: %s s" % t.secs

我经常将这些计时器的输出记录到文件中,这样就可以观察我的程序的性能如何随着时间进化。

使用分析器逐行统计时间和执行频率

Robert Kern有一个称作line_profiler的不错的项目,我经常使用它查看我的脚步中每行代码多快多频繁的被执行。

想要使用它,你需要通过pip安装该python包:

1

$ pip install line_profiler

一旦安装完成,你将会使用一个称做“line_profiler”的新模组和一个“kernprof.py”可执行脚本。

想要使用该工具,首先修改你的源代码,在想要测量的函数上装饰@profile装饰器。不要担心,你不需要导入任何模组。kernprof.py脚本将会在执行的时候将它自动地注入到你的脚步的运行时。

primes.py

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

@profile

def primes(n):

if n==2:

return [2]

elif n<2:

return []

s=range(3,n+1,2)

mroot= n** 0.5

half=(n+1)/2-1

i=0

m=3

while m <= mroot:

if s[i]:

j=(m*m-3)/2

s[j]=0

while j

s[j]=0

j+=m

i=i+1

m=2*i+3

return [2]+[xfor xin sif x]

primes(100)

一旦你已经设置好了@profile装饰器,使用kernprof.py执行你的脚步。

1

$ kernprof.py-l-v fib.py

-l选项通知kernprof注入@profile装饰器到你的脚步的内建函数,-v选项通知kernprof在脚本执行完毕的时候显示计时信息。上述脚本的输出看起来像这样:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

Wrote profile results to primes.py.lprof

Timer unit: 1e-06 s

File: primes.py

Function: primes at line 2

Totaltime: 0.00019 s

Line# Hits Time Per Hit % Time Line Contents

==============================================================

2 @profile

3 def primes(n):

4 1 2 2.0 1.1if n==2:

5return [2]

6 1 1 1.0 0.5elif n<2:

7return []

8 1 4 4.0 2.1 s=range(3,n+1,2)

9 1 10 10.0 5.3 mroot = n ** 0.5

10 1 2 2.0 1.1 half=(n+1)/2-1

11 1 1 1.0 0.5 i=0

12 1 1 1.0 0.5 m=3

13 5 7 1.4 3.7while m <= mroot:

14 4 4 1.0 2.1if s[i]:

15 3 4 1.3 2.1 j=(m*m-3)/2

16 3 4 1.3 2.1 s[j]=0

17 31 31 1.0 16.3while j

18 28 28 1.0 14.7 s[j]=0

19 28 29 1.0 15.3 j+=m

20 4 4 1.0 2.1 i=i+1

21 4 4 1.0 2.1 m=2*i+3

22 50 54 1.1 28.4return [2]+[xfor xin sif x]

寻找具有高Hits值或高Time值的行。这些就是可以通过优化带来最大改善的地方。

程序使用了多少内存?

现在我们对计时有了较好的理解,那么让我们继续弄清楚程序使用了多少内存。我们很幸运,Fabian Pedregosa模仿Robert Kern的line_profiler实现了一个不错的内存分析器。

首先使用pip安装:

1

2

$ pipinstall -U memory_profiler

$ pipinstall psutil

(这里建议安装psutil包,因为它可以大大改善memory_profiler的性能)。

就像line_profiler,memory_profiler也需要在感兴趣的函数上面装饰@profile装饰器:

1

2

3

4

@profile

def primes(n):

...

...

想要观察你的函数使用了多少内存,像下面这样执行:

1

$ python-m memory_profiler primes.py

一旦程序退出,你将会看到看起来像这样的输出:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

Filename: primes.py

Line# Mem usage Increment Line Contents

==============================================

2 @profile

3 7.9219 MB0.0000 MBdef primes(n):

4 7.9219 MB0.0000 MBif n==2:

5 return [2]

6 7.9219 MB0.0000 MBelif n<2:

7 return []

8 7.9219 MB0.0000 MB s=range(3,n+1,2)

9 7.9258 MB0.0039 MB mroot= n** 0.5

10 7.9258 MB0.0000 MB half=(n+1)/2-1

11 7.9258 MB0.0000 MB i=0

12 7.9258 MB0.0000 MB m=3

13 7.9297 MB0.0039 MBwhile m <= mroot:

14 7.9297 MB0.0000 MBif s[i]:

15 7.9297 MB0.0000 MB j=(m*m-3)/2

16 7.9258 MB-0.0039 MB s[j]=0

17 7.9297 MB0.0039 MBwhile j

18 7.9297 MB0.0000 MB s[j]=0

19 7.9297 MB0.0000 MB j+=m

20 7.9297 MB0.0000 MB i=i+1

21 7.9297 MB0.0000 MB m=2*i+3

22 7.9297 MB0.0000 MBreturn [2]+[xfor xin sif x]

line_profiler和memory_profiler的IPython快捷方式

memory_profiler和line_profiler有一个鲜为人知的小窍门,两者都有在IPython中的快捷命令。你需要做的就是在IPython会话中输入以下内容:

1

2

%load_ext memory_profiler

%load_ext line_profiler

在这样做的时候你需要访问魔法命令%lprun和%mprun,它们的行为类似于他们的命令行形式。主要区别是你不需要使用@profiledecorator来修饰你要分析的函数。只需要在IPython会话中像先前一样直接运行分析:

1

2

3

In [1]: from primesimport primes

In [2]: %mprun -f primes primes(1000)

In [3]: %lprun -f primes primes(1000)

这样可以节省你很多时间和精力,因为你的源代码不需要为使用这些分析命令而进行修改。

内存泄漏在哪里?

cPython解释器使用引用计数做为记录内存使用的主要方法。这意味着每个对象包含一个计数器,当某处对该对象的引用被存储时计数器增加,当引用被删除时计数器递减。当计数器到达零时,cPython解释器就知道该对象不再被使用,所以删除对象,释放占用的内存。

如果程序中不再被使用的对象的引用一直被占有,那么就经常发生内存泄漏。

查找这种“内存泄漏”最快的方式是使用Marius Gedminas编写的objgraph,这是一个极好的工具。该工具允许你查看内存中对象的数量,定位含有该对象的引用的所有代码的位置。

一开始,首先安装objgraph:

1

pip install objgraph

一旦你已经安装了这个工具,在你的代码中插入一行声明调用调试器:

1

import pdb; pdb.set_trace()

最普遍的对象是哪些?

在运行的时候,你可以通过执行下述指令查看程序中前20个最普遍的对象:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

(pdb)import objgraph

(pdb) objgraph.show_most_common_types()

MyBigFatObject20000

tuple 16938

function4310

dict 2790

wrapper_descriptor1181

builtin_function_or_method934

weakref764

list 634

method_descriptor507

getset_descriptor451

type 439

哪些对象已经被添加或删除?

我们也可以查看两个时间点之间那些对象已经被添加或删除:

1

2

3

4

5

6

7

8

9

10

11

12

(pdb)import objgraph

(pdb) objgraph.show_growth()

.

.

.

(pdb) objgraph.show_growth()# this only shows objects that has been added or deleted since last show_growth() call

traceback4 +2

KeyboardInterrupt1 +1

frame24 +1

list 667 +1

tuple 16969 +1

谁引用着泄漏的对象?

继续,你还可以查看哪里包含给定对象的引用。让我们以下述简单的程序做为一个例子:

1

2

3

x= [1]

y= [x, [x], {"a":x}]

import pdb; pdb.set_trace()

想要看看哪里包含变量x的引用,执行objgraph.show_backref()函数:

1

2

(pdb)import objgraph

(pdb) objgraph.show_backref([x], filename="/tmp/backrefs.png")

该命令的输出应该是一副PNG图像,保存在/tmp/backrefs.png,它看起来是像这样:

20130909215003754174.PNG

最下面有红字的盒子是我们感兴趣的对象。我们可以看到,它被符号x引用了一次,被列表y引用了三次。如果是x引起了一个内存泄漏,我们可以使用这个方法,通过跟踪它的所有引用,来检查为什么它没有自动的被释放。

回顾一下,objgraph 使我们可以:

显示占据python程序内存的头N个对象

显示一段时间以后哪些对象被删除活增加了

在我们的脚本中显示某个给定对象的所有引用

努力与精度

在本帖中,我给你显示了怎样用几个工具来分析python程序的性能。通过这些工具与技术的武装,你可以获得所有需要的信息,来跟踪一个python程序中大多数的内存泄漏,以及识别出其速度瓶颈。

对许多其他观点来说,运行一次性能分析就意味着在努力目标与事实精度之间做出平衡。如果感到困惑,那么就实现能适应你目前需求的最简单的解决方案。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值