加速你的Python代码

  在我看来,python社区分为了三个流派,分别是python 2.x组织,3.x组织和PyPy组织。这个分类基本上可以归根于类库的兼容性和速度。这篇文章将聚焦于一些通用代码的优化技巧以及编译成C后性能的显著提升,当然我也会给出三大主要python流派运行时间。我的目的不是为了证明一个比另一个强,只是为了让你知道如何在不同的环境下使用这些具体例子作比较。

  使用生成器

  一个普遍被忽略的内存优化是生成器的使用。生成器让我们创建一个函数一次只返回一条记录,而不是一次返回所有的记录,如果你正在使用python2.x,这就是你为啥使用xrange替代range或者使用ifilter替代filter的原因。一个很好地例子就是创建一个很大的列表并将它们拼合在一起。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import timeit
import random
 
def generate(num):
while num:
yield random.randrange( 10 )
num - = 1
 
def create_list(num):
numbers = []
while num:
numbers.append(random.randrange( 10 ))
num - = 1
return numbers
print (timeit.timeit( "sum(generate(999))" , setup = "from __main__ import generate" , number = 1000 ))
>>> 0.88098192215 #Python 2.7
>>> 1.416813850402832 #Python 3.2
print (timeit.timeit( "sum(create_list(999))" , setup = "from __main__ import create_list" , number = 1000 ))
>>> 0.924163103104 #Python 2.7
>>> 1.5026731491088867 #Python 3.2

  这不仅是快了一点,也避免了你在内存中存储全部的列表!

  Ctypes的介绍

  对于关键性的性能代码python本身也提供给我们一个API来调用C方法,主要通过 ctypes来实现,你可以不写任何C代码来利用ctypes。默认情况下python提供了预编译的标准c库,我们再回到生成器的例子,看看使用ctypes实现花费多少时间。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import timeit
from ctypes import cdll
 
def generate_c(num):
#Load standard C library
libc = cdll.LoadLibrary( "libc.so.6" ) #Linux
#libc = cdll.msvcrt #Windows
while num:
yield libc.rand() % 10
num - = 1
 
print (timeit.timeit( "sum(generate_c(999))" , setup = "from __main__ import generate_c" , number = 1000 ))
>>> 0.434374809265 #Python 2.7
>>> 0.7084300518035889 #Python 3.2

  仅仅换成了c的随机函数,运行时间减了大半!现在如果我告诉你我们还能做得更好,你信吗?

  Cython的介绍

  Cython 是python的一个超集,允许我们调用C函数以及声明变量来提高性能。尝试使用之前我们需要先安装Cython.

1
sudo pip install cython

  Cython 本质上是另一个不再开发的类似类库Pyrex的分支,它将我们的类Python代码编译成C库,我们可以在一个python文件中调用。对于你的python文件使用.pyx后缀替代.py后缀,让我们看一下使用Cython如何来运行我们的生成器代码。

1
2
3
4
5
6
7
#cython_generator.pyx
import random
 
def generate(num):
while num:
yield random.randrange( 10 )
num - = 1

  我们需要创建个setup.py以便我们能获取到Cython来编译我们的函数。

1
2
3
4
5
6
7
8
from distutils.core import setup
from distutils.extension import Extension
from Cython.Distutils import build_ext
 
setup(
cmdclass = { 'build_ext' : build_ext},
ext_modules = [Extension( "generator" , [ "cython_generator.pyx" ])]
)

  编译使用:

1
python setup.py build_ext - - inplace

  你应该可以看到两个文件cython_generator.c 文件 和 generator.so文件,我们使用下面方法测试我们的程序:

1
2
3
import timeit
print (timeit.timeit( "sum(generator.generate(999))" , setup = "import generator" , number = 1000 ))
>>> 0.835658073425

  还不赖,让我们看看是否还有可以改进的地方。我们可以先声明“num”为整形,接着我们可以导入标准的C库来负责我们的随机函数。

1
2
3
4
5
6
7
8
#cython_generator.pyx
cdef extern from "stdlib.h" :
int c_libc_rand "rand" ()
 
def generate( int num):
while num:
yield c_libc_rand() % 10
num - = 1

  如果我们再次编译运行我们会看到这一串惊人的数字。

1
>>> 0.033586025238

  仅仅的几个改变带来了不赖的结果。然而,有时这个改变很乏味,因此让我们来看看如何使用规则的python来实现吧。

  PyPy的介绍PyPy 是一个Python2.7.3的即时编译器,通俗地说这意味着让你的代码运行的更快。Quora在生产环境中使用了PyPy。PyPy在它们的下载页面有一些安装说明,但是如果你使用的Ubuntu系统,你可以通过apt-get来安装。它的运行方式是立即可用的,因此没有疯狂的bash或者运行脚本,只需下载然后运行即可。让我们看看我们原始的生成器代码在PyPy下的性能如何。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import timeit
import random
 
def generate(num):
while num:
yield random.randrange( 10 )
num - = 1
 
def create_list(num):
numbers = []
while num:
numbers.append(random.randrange( 10 ))
num - = 1
return numbers
print (timeit.timeit( "sum(generate(999))" , setup = "from __main__ import generate" , number = 1000 ))
>>> 0.115154981613 #PyPy 1.9
>>> 0.118431091309 #PyPy 2.0b1
print (timeit.timeit( "sum(create_list(999))" , setup = "from __main__ import create_list" , number = 1000 ))
>>> 0.140175104141 #PyPy 1.9
>>> 0.140514850616 #PyPy 2.0b1

  哇!没有修改一行代码运行速度是纯python实现的8倍。

  进一步测试为什么还要进一步研究?PyPy是冠军!并不全对。虽然大多数程序可以运行在PyPy上,但是还是有一些库没有被完全支持。而且,为你的项目写C的扩展相比换一个编译器更加容易。让我们更加深入一些,看看ctypes如何让我们使用C来写库。我们来测试一下归并排序和计算斐波那契数列的速度。下面是我们要用到的C代码(functions.c):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
/* functions.c */
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
 
inline void
merge ( int *left, int l_len, int *right, int r_len, int *out)
{
int i, j, k;
for (i = j = k = 0; i < l_len && j < r_len;)
out[k++] = left[i] < right[j] ? left[i++] : right[j++];
while (i < l_len)
out[k++] = left[i++];
while (j < r_len)
out[k++] = right[j++];
}
 
/* inner recursion of merge sort */
void
recur ( int *buf, int *tmp, int len)
{
int l = len / 2;
if (len <= 1)
return ;
/* note that buf and tmp are swapped */
recur (tmp, buf, l);
recur (tmp + l, buf + l, len - l);
merge (tmp, l, tmp + l, len - l, buf);
}
 
/* preparation work before recursion */
void
merge_sort ( int *buf, int len)
{
/* call alloc, copy and free only once */
int *tmp = malloc ( sizeof ( int ) * len);
memcpy (tmp, buf, sizeof ( int ) * len);
recur (buf, tmp, len);
free (tmp);
}
 
int
fibRec ( int n)
{
if (n < 2)
return n;
else
return fibRec (n - 1) + fibRec (n - 2);
}

  在Linux平台,我们可以用下面的方法把它编译成一个共享库:

1
2
gcc - Wall - fPIC - c functions.c
gcc - shared - o libfunctions.so functions.o

  使用ctypes, 通过加载”libfunctions.so”这个共享库,就像我们前边对标准C库所作的那样,就可以使用这个库了。这里我们将要比较Python实现和C实现。现在我们开始计算斐波那契数列:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# functions.py
 
from ctypes import *
import time
 
libfunctions = cdll.LoadLibrary( "./libfunctions.so" )
 
def fibRec(n):
if n < 2 :
return n
else :
return fibRec(n - 1 ) + fibRec(n - 2 )
 
start = time.time()
fibRec( 32 )
finish = time.time()
print ( "Python: " + str (finish - start))
 
# C Fibonacci
start = time.time()
x = libfunctions.fibRec( 32 )
finish = time.time()
print ( "C: " + str (finish - start))

  正如我们预料的那样,C比Python和PyPy更快。我们也可以用同样的方式比较归并排序。

  我们还没有深挖Cypes库,所以这些例子并没有反映python强大的一面,Cypes库只有少量的标准类型限制,比如int型,char数组,float型,字节(bytes)等等。默认情况下,没有整形数组,然而通过与c_int相乘(ctype为int类型)我们可以间接获得这样的数组。这也是代码第7行所要呈现的。我们创建了一个c_int数组,有关我们数字的数组并分解打包到c_int数组中

  主要的是c语言不能这样做,而且你也不想。我们用指针来修改函数体。为了通过我们的c_numbers的数列,我们必须通过引用传递merge_sort功能。运行merge_sort后,我们利用c_numbers数组进行排序,我已经把下面的代码加到我的functions.py文件中了。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
#Python Merge Sort
from random import shuffle, sample
 
#Generate 9999 random numbers between 0 and 100000
numbers = sample( range ( 100000 ), 9999 )
shuffle(numbers)
c_numbers = (c_int * len (numbers))( * numbers)
 
from heapq import merge
def merge_sort(m):
if len (m) < = 1 :
return m
middle = len (m) / / 2
left = m[:middle]
right = m[middle:]
left = merge_sort(left)
right = merge_sort(right)
return list (merge(left, right))
 
start = time.time()
numbers = merge_sort(numbers)
finish = time.time()
print ( "Python: " + str (finish - start))
 
#C Merge Sort
start = time.time()
libfunctions.merge_sort(byref(c_numbers), len (numbers))
finish = time.time()
print ( "C: " + str (finish - start))
1
2
3
4
5
6
7
8
Python: 0.190635919571 #Python 2.7
Python: 0.11785483360290527 #Python 3.2
Python: 0.266992092133 #PyPy 1.9
Python: 0.265724897385 #PyPy 2.0b1
C: 0.00201296806335 #Python 2.7 + ctypes
C: 0.0019741058349609375 #Python 3.2 + ctypes
C: 0.0029308795929 #PyPy 1.9 + ctypes
C: 0.00287103652954 #PyPy 2.0b1 + ctypes

  这儿通过表格和图标来比较不同的结果。

加速你的Python代码

  Merge Sort Fibonacci
Python 2.7 0.191 1.187
Python 2.7 + ctypes 0.002 0.044
Python 3.2 0.118 1.272
Python 3.2 + ctypes 0.002 0.046
PyPy 1.9 0.267 0.564
PyPy 1.9 + ctypes 0.003 0.048
PyPy 2.0b1 0.266 0.567
PyPy 2.0b1 + ctypes 0.003 0.046

  希望你利用C和PyPy优化你的python代码并以此为敲门砖找到一个好职位。像往常一样如果你有任何意见或问题,请随时把评论下载下面或者在我的网页上与我取得联系。感谢您的阅读!

  英文原文:Speeding Up Your Python Code

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Python 中,有许多方法可以帮助您加速代码的执行速度。以下是一些建议: 1. 使用 Cython 或 PyPy:这两种工具可以将 Python 代码编译为机器代码,从而提高执行速度。 2. 使用多线程或多进程:Python 的多线程和多进程功能可以让您在多核 CPU 上同时执行多个任务。这可以提高程序的效率,但是要注意避免竞争条件。 3. 使用向量化:在许多情况下,使用向量化操作可以大大提高代码的执行速度。例如,使用 NumPy 的向量化函数可以替代循环,并且在处理数字数据时效率非常高。 4. 使用缓存:对于那些需要大量计算的函数,使用缓存可以让您避免重复计算,从而提高程序的效率。您可以使用 Python 的 functools 库中的 lru_cache 装饰器来实现缓存。 5. 使用 C 或 C++ 扩展:如果有特定的代码部分需要优化,您可以使用 C 或 C++ 编写扩展,然后使用 Python 的 ctypes 库调用这些扩展。这通常是最有效的优化方法,但是也是最复杂的。 6. 使用优化工具:有许多工具可以帮助 ### 回答2: 要加速Python代码,可以采取以下几种方法: 1. 使用基于C语言的扩展库:可以使用Cython或PyPy等工具将Python代码编译成C级别的代码,从而加快执行速度。 2. 优化算法和数据结构:对于一些时间复杂度高的算法,可以通过优化算法和使用高效的数据结构来减少计算量,从而提高代码执行效率。 3. 并行计算:对于可以并行处理的任务,可以使用多线程或多进程的方式来提高代码执行速度。可以使用Python内置的multiprocessing库或第三方库如concurrent.futures等来实现。 4. 矢量化计算:使用NumPy等科学计算库,将循环操作转化为矩阵运算或向量化操作,可以大大提高代码执行速度。 5. 使用缓存:对于一些计算结果较为稳定的函数,可以通过使用缓存来避免重复计算,提高代码执行速度。可以使用Python内置的functools.lru_cache装饰器实现缓存。 6. 减少I/O操作:I/O操作是程序执行的一个瓶颈,可以通过合理的缓存和批量读写的方式来减少I/O次数,提高代码执行效率。 7. 使用JIT编译器:使用类似于Numba这样的即时编译器,可以将Python代码动态编译为本地机器码,从而提高执行速度。 总之,加速Python代码的方法有很多种,可以根据具体情况综合使用不同的优化方法。 ### 回答3: 要加速Python代码,可以采取以下几个方法: 1. 优化算法:通过改进算法的复杂度来提高代码的执行效率。可以选择更有效的算法或数据结构来减少代码执行所需的计算量。 2. 合理使用循环:避免使用不必要的循环并尽量减少循环的嵌套。在处理大数据集时,可以考虑使用向量化操作,如使用NumPy库来替代显式循环。 3. 减少函数调用:函数调用会带来一定的开销,所以应该尽量减少不必要的函数调用。可以将一些常用的表达式提前计算,避免在循环中重复计算。 4. 使用内置函数和库:Python提供了很多内置函数和库,它们通常比手动编写的代码执行效率更高。使用这些内置函数和库可以减少代码的执行时间。 5. JIT编译器:可以使用Just-In-Time(JIT)编译器来提高Python代码的执行速度。JIT编译器会在运行时将Python代码转换为机器代码,从而提供更高的执行速度。可以使用Numba或PyPy等JIT编译器。 6. 并行化:使用多线程或多进程来并行执行计算密集型任务,从而减少代码的执行时间。可以使用Python的multiprocessing库或第三方库,如concurrent.futures和joblib。 7. 使用Cython或其他编译器:可以将Python代码部分或全部转换为C代码,然后使用Cython或其他编译器编译为机器码。这样可以显著提高代码的执行速度。 总结起来,要加速Python代码,需要优化算法、合理使用循环、减少函数调用、使用内置函数和库、使用JIT编译器、并行化以及使用Cython或其他编译器等方法。不同的应用场景可能适用不同的方法,需要根据实际情况选择最合适的优化策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值