python高性能写法_py 高性能低级,高级写法思考

这里所谓的低级,高级是指封装抽象的程度。

低级指os.fork()

高级是指 multiprocessing包

一般根据业务需求,一个主进程负责维护接收, 不同的子进程处理不同的需求。根据各同需求组合

多进程

多线程

多进程+多线程

协程

也可基于uvloop事件启动方式

低级版

def main_process():

r = os.fork()

if r == 0 :

print("sub_process_buiness")

else:

print("main process buiness")

高级版

def sub_process_write_data():

pass

def sub_process_read_date():

pass

def main_handler():

from multiprocessing import Process

w1=Process(target=sub_process_write_data)

w1.start()

w1.join()

r1=Process(target=sub_process_read_data)

r1.start()

r1.join()

if __name__ == "__main__":

main_handler()

以下部分转自

作者:晓可加油

链接:https://www.jianshu.com/p/414e89248285

來源:简书

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

Num01-->进程的创建-fork

Python的os模块封装了常见的系统调用,其中就包括fork,可以在Python程序中轻松创建子进程。

import os

# 注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以

pid = os.fork()

if pid == 0:

print('我是子进程')

else:

print('我是父进程')

以上代码加以说明如下:

程序执行到os.fork()时,操作系统会创建一个新的进程(子进程),然后复制父进程的所有信息到子进程中。

然后父进程和子进程都会从fork()函数中得到一个返回值,在子进程中这个值一定是0,而父进程中是子进程的 id号。

在Unix/Linux操作系统中,提供了一个fork()系统函数,它非常特殊。

普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回。

子进程永远返回0,而父进程返回子进程的ID。

这样做的理由是,一个父进程可以fork出很多子进程,所以,父进程要记下每个子进程的ID,而子进程只需要调用getppid()就可以拿到父进程的ID。

Num02-->多进程修改全局变量

``

coding=utf-8

import os

import time

num = 0

注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以

pid = os.fork()

if pid == 0:

num+=1

print('我是子进程---num=%d'%num)

else:

time.sleep(1)

num+=1

print('我是父进程---num=%d'%num)

在多进程中个,每个进程中所有数据(包括全局变量)都各拥有一份,互不影响。

Num03-->多次fork问题

Test01-->fork两次产生四个进程

coding=utf-8

import os

import time

注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以

pid = os.fork()

if pid == 0:

print('我是第一次fork中的子进程')

else:

print('我是第一次fork中的父进程')

pid = os.fork()

if pid == 0:

print('我是第二次fork中的子进程')

else:

print('我是第二次fork中的父进程')

time.sleep(1)

Test02-->fork两次产生三个进程

! /usr/bin/env python3

-- coding:utf-8 --

import os

import time

def sing():

print('--我是第一次fork的子进程--')

time.sleep(1)

def dance():

ppid = os.fork()

if ppid > 0:

print('--我是第二次fork的父进程--')

time.sleep(1)

elif ppid == 0:

print('--我是第二次fork的子进程--')

time.sleep(1)

def main():

pid = os.fork()

if pid > 0:

dance()

elif pid == 0:

sing()

if name == "main":

main()

Num04-->进程的第一种创建方式-multiprocessing

multiprocessing模块提供了一个Process类来代表一个进程对象。

coding=utf-8

from multiprocessing import Process

import os

子进程要执行的代码

def fun_proc(name):

print('子进程运行中,name= %s ,pid=%d' % (name, os.getpid()))

if name=='main':

print('父进程 %d' % os.getpid())

p = Process(target=fun_proc, args=('我是子进程',))

print('子进程将要执行')

p.start()

p.join()

print('子进程已结束')

对以上代码加以说明:

1,用Process类创建子进程时,只需要传入一个执行函数和函数的参数(是一个元组)。

2,调用start()方式启动子进程。

3,join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。

Test01-->Process的语法如下:

Process([group [, target [, name [, args [, kwargs]]]]])

target:表示这个进程实例所调用对象;

args:表示调用对象的位置参数元组;

kwargs:表示调用对象的关键字参数字典;

name:为当前进程实例的别名;

group:大多数情况下用不到,表示在哪个组;

Process类常用方法:

is_alive():判断进程实例是否还在执行;

join([timeout]):是否等待进程实例执行结束,或等待多少秒;

start():启动进程实例(创建子进程);

run():如果没有给定target参数,对这个对象调用start()方法时,就将执行对象中的run()方法;

terminate():不管任务是否完成,立即终止;

Process类常用属性:

name:当前进程实例别名,默认为Process-N,N为从1开始递增的整数;

pid:当前进程实例的PID值;

Test02-->创建一个进程对象

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Date : 2017-04-25 16:36:47

# @Author : xiaoke

from multiprocessing import Process

import os

from time import sleep

# 子进程要执行的代码

def fun_proc(name, age, **kwargs):

for i in range(5):

print('子进程运行中,name= %s,age=%d ,pid=%d...' % (name, age,os.getpid()))

print(kwargs)

sleep(1)

if __name__=='__main__':

print('父进程 %d' % os.getpid())

p = Process(target=fun_proc, args=('我是子进程',66), kwargs={"得分":666})

print('子进程将要执行')

p.start()

sleep(1)

# p.terminate()# 提前结束子进程,不管子进程的任务是否完成

p.join()

print('子进程已结束')

# 结果如下:

# 父进程 7744

# 子进程将要执行

# 子进程运行中,name= 我是子进程,age=66 ,pid=8064...

# {'得分': 666}

# 子进程运行中,name= 我是子进程,age=66 ,pid=8064...

# {'得分': 666}

# 子进程运行中,name= 我是子进程,age=66 ,pid=8064...

# {'得分': 666}

# 子进程运行中,name= 我是子进程,age=66 ,pid=8064...

# {'得分': 666}

# 子进程运行中,name= 我是子进程,age=66 ,pid=8064...

# {'得分': 666}

# 子进程已结束

Test03-->创建两个进程对象

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Date : 2017-04-25 16:36:47

# @Author : xiaoke

#coding=utf-8

from multiprocessing import Process

import time

import os

def worker_1(interval):

print("worker_1,父进程(%s),当前进程(%s)"%(os.getppid(),os.getpid()))

t_start = time.time()

time.sleep(interval) #程序将会被挂起interval秒

t_end = time.time()

print("worker_1,执行时间为'%0.2f'秒"%(t_end - t_start))

def worker_2(interval):

print("worker_2,父进程(%s),当前进程(%s)"%(os.getppid(),os.getpid()))

t_start = time.time()

time.sleep(interval)

t_end = time.time()

print("worker_2,执行时间为'%0.2f'秒"%(t_end - t_start))

def main():

#输出当前程序的ID

print("进程ID:%s"%os.getpid())

#创建两个进程对象,target指向这个进程对象要执行的对象名称,

#如果不指定name参数,默认的进程对象名称为Process-N,N为一个递增的整数

p1=Process(target=worker_1,args=(2,))

p2=Process(target=worker_2,name="xiaoke",args=(1,))

#使用"进程对象名称.start()"来创建并执行一个子进程,

#这两个进程对象在start后,就会分别去执行worker_1和worker_2方法中的内容

p1.start()

p2.start()

#同时父进程仍然往下执行,如果p2进程还在执行,将会返回True

print("p2.is_alive=%s"%p2.is_alive())

print("p1.is_alive=%s"%p1.is_alive())

#输出p1和p2进程的别名和pid

print("--p1进程的别名和pid--")

print("p1.name=%s"%p1.name)

print("p1.pid=%s"%p1.pid)

print("--p2进程的别名和pid--")

print("p2.name=%s"%p2.name)

print("p2.pid=%s"%p2.pid)

#join括号中不携带参数,表示父进程在这个位置要等待p1进程执行完成后,再继续执行下面的语句,一般用于进程间的数据同步,

# 如果不写这一句,下面的is_alive判断将会是True,

#可以尝试着将下面的这条语句改成p1.join(1),

#因为p2需要2秒以上才可能执行完成,父进程等待1秒很可能,不能让p1完全执行完成,

#所以下面的print会输出True,即p1仍然在执行

print("--p1进程是否执行完毕??--")

p1.join()

print("p1.is_alive=%s"%p1.is_alive())

p2.join()

print("p2.is_alive=%s"%p2.is_alive())

if __name__ == '__main__':

main()

# 结果如下:

# 进程ID:4004

# p2.is_alive=True

# p1.is_alive=True

# --p1进程的别名和pid--

# p1.name=Process-1

# p1.pid=3352

# --p2进程的别名和pid--

# p2.name=xiaoke

# p2.pid=6092

# --p1进程是否执行完毕??--

# worker_2,父进程(4004),当前进程(6092)

# worker_2,执行时间为'1.00'秒

# worker_1,父进程(4004),当前进程(3352)

# worker_1,执行时间为'2.00'秒

# p1.is_alive=False

# p2.is_alive=False

Num05-->进程的第二种创建方式--自己创建一个类,继承Process类

定义:创建新的进程还可以使用类的方式。可以自定义一个类,继承Process类。每次实例化这个类的时候,就等同于实例化这个进程对象。

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Date : 2017-04-25 16:36:47

# @Author : xiaoke

from multiprocessing import Process

import time

import os

#继承Process类

class Process_Class(Process):

#因为Process类本身也有__init__方法,这个子类相当于重写了这个方法,

#但这样就会带来一个问题,我们并没有完全的初始化一个Process类,

# 所以就不能使用从这个类继承的一些方法和属性,

#最好的方法就是将继承类本身传递给Process.__init__方法,完成这些初始化操作

def __init__(self,interval):

Process.__init__(self)

# 传递进来的属性

self.interval = interval

#重写了Process类的run()方法

def run(self):

print("子进程(%s) 开始执行,父进程为(%s)"%(os.getpid(),os.getppid()))

t_start = time.time()

time.sleep(self.interval)

t_stop = time.time()

print("子进程(%s)执行结束,耗时%0.2f秒"%(os.getpid(),t_stop-t_start))

if __name__=="__main__":

t_start = time.time()

print("当前程序进程(%s)"%os.getpid())

p1 = Process_Class(2)

#对一个不包含target属性的Process类执行start()方法,就会运行这个类中的run()方法,所以这里会执行p1.run()

p1.start()

p1.join()

t_stop = time.time()

print("父进程(%s)执行结束,耗时%0.2f秒"%(os.getpid(),t_stop-t_start))

# 结果为:

# 当前程序进程(14736)

# 子进程(4292) 开始执行,父进程为(14736)

# 子进程(4292)执行结束,耗时2.00秒

# 父进程(14736)执行结束,耗时2.11秒

Num06-->进程池--Pool

当需要创建的子进程数量不多时,可以直接利用multiprocessing中的Process动态生成多个进程。但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法。

初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会创建新的进程来执行。

#采用非阻塞的方式

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2017/4/27 8:35

# @Author : xiaoke

# @Site :

# @File : Test33.py

# @Software: PyCharm Community Edition

from multiprocessing import Pool

import os, time, random

def worker(num):

t_start = time.time()

print("子进程-%s开始执行,进程号为%d" % (num, os.getpid()))

# random.random()随机生成0~1之间的浮点数

time.sleep(random.random() * 2)

t_stop = time.time()

print("子进程-%s执行完毕,耗时%0.2f" % (num, t_stop - t_start))

def main():

# 定义一个进程池,最大进程数5

p = Pool(3)

for i in range(10):

# Pool.apply_async(要调用的目标,(传递给目标的参数元祖,))

# 异步的方式,每次循环将会用空闲出来的子进程去调用目标

p.apply_async(worker, (i,))

m_start = time.time()

print("----start----")

p.close() # 关闭进程池,关闭后p不再接收新的请求

p.join() # 等待p中所有子进程执行完成,必须放在close语句之后

print("-----end-----")

m_stop = time.time()

print("父进程执行完毕,耗时%0.2f" % (m_stop - m_start))

if __name__ == '__main__':

main()

# 结果如下:

# ----start----

# 子进程-0开始执行,进程号为3360

# 子进程-1开始执行,进程号为16084

# 子进程-2开始执行,进程号为12580

# 子进程-1执行完毕,耗时0.05

# 子进程-3开始执行,进程号为16084

# 子进程-3执行完毕,耗时0.80

# 子进程-4开始执行,进程号为16084

# 子进程-2执行完毕,耗时1.63

# 子进程-5开始执行,进程号为12580

# 子进程-0执行完毕,耗时1.80

# 子进程-6开始执行,进程号为3360

# 子进程-4执行完毕,耗时1.55

# 子进程-7开始执行,进程号为16084

# 子进程-7执行完毕,耗时0.07

# 子进程-8开始执行,进程号为16084

# 子进程-8执行完毕,耗时0.05

# 子进程-9开始执行,进程号为16084

# 子进程-5执行完毕,耗时1.01

# 子进程-6执行完毕,耗时1.10

# 子进程-9执行完毕,耗时1.57

# -----end-----

# 父进程执行完毕,耗时4.26

multiprocessing.Pool常用函数解析:

apply_async(func[, args[, kwds]]) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;

apply(func[, args[, kwds]]):使用阻塞方式调用func

close():关闭Pool,使其不再接受新的任务;

terminate():不管任务是否完成,立即终止;

join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;

采用apply阻塞的方式

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2017/4/27 8:35

# @Author : xiaoke

# @Site :

# @File : Test33.py

# @Software: PyCharm Community Edition

from multiprocessing import Pool

import os, time, random

def worker(num):

t_start = time.time()

print("子进程-%s开始执行,进程号为%d" % (num, os.getpid()))

# random.random()随机生成0~1之间的浮点数

time.sleep(random.random() * 2)

t_stop = time.time()

print("子进程-%s执行完毕,耗时%0.2f" % (num, t_stop - t_start))

def main():

# 定义一个进程池,最大进程数5

p = Pool(3)

for i in range(10):

# Pool.apply_async(要调用的目标,(传递给目标的参数元祖,))

# 异步的方式,每次循环将会用空闲出来的子进程去调用目标

p.apply(worker, (i,))

m_start = time.time()

print("----start----")

p.close() # 关闭进程池,关闭后p不再接收新的请求

p.join() # 等待p中所有子进程执行完成,必须放在close语句之后

print("-----end-----")

m_stop = time.time()

print("父进程执行完毕,耗时%0.2f" % (m_stop - m_start))

if __name__ == '__main__':

main()

# 结果如下:

# 子进程-0开始执行,进程号为4464

# 子进程-0执行完毕,耗时1.75

# 子进程-1开始执行,进程号为11640

# 子进程-1执行完毕,耗时1.33

# 子进程-2开始执行,进程号为8756

# 子进程-2执行完毕,耗时1.86

# 子进程-3开始执行,进程号为4464

# 子进程-3执行完毕,耗时0.70

# 子进程-4开始执行,进程号为11640

# 子进程-4执行完毕,耗时1.29

# 子进程-5开始执行,进程号为8756

# 子进程-5执行完毕,耗时0.69

# 子进程-6开始执行,进程号为4464

# 子进程-6执行完毕,耗时0.33

# 子进程-7开始执行,进程号为11640

# 子进程-7执行完毕,耗时1.83

# 子进程-8开始执行,进程号为8756

# 子进程-8执行完毕,耗时1.58

# 子进程-9开始执行,进程号为4464

# 子进程-9执行完毕,耗时1.37

# ----start----

# -----end-----

# 父进程执行完毕,耗时0.08

Num07-->进程间的通信--Queue

进程(Process)之间有时间需要通信,操作系统提供了很多机制来实现进程间的通信。如Queue、Pipes等。Queue本身是一个消息队列。

Test01--> 先看一个简单的案例:

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2017/4/27 8:35

# @Author : xiaoke

# @Site :

# @File : Test33.py

# @Software: PyCharm Community Edition

from multiprocessing import Queue

q = Queue(3) # 初始化一个Queue对象,最多可接收三条put消息

q.put("消息1")

q.put("消息2")

print(q.full()) # False

q.put("消息3")

print(q.full()) # True

# 因为消息列队已满下面的try都会抛出异常,第一个try会等待3秒后再抛出异常,第二个Try会立刻抛出异常

try:

q.put("消息4", True, 3)

except:

print("消息列队已满,现有消息数量:%s" % q.qsize())

try:

q.put_nowait("消息4")

except:

print("消息列队已满,现有消息数量:%s" % q.qsize())

# 推荐的方式,先判断消息列队是否已满,再写入

if not q.full():

q.put_nowait("消息4")

# 读取消息时,先判断消息列队是否为空,再读取

if not q.empty():

for i in range(q.qsize()):

# print("取出消息:%s" % q.get())

print("取出消息:%s" % q.get_nowait())

# 结果是:

# False

# True

# 消息列队已满,现有消息数量:3

# 消息列队已满,现有消息数量:3

# 取出消息:消息1

# 取出消息:消息2

# 取出消息:消息3

以上代码加以说明:

初始化Queue()对象时(例如:q=Queue()),若括号中没有指定最大可接收的消息数量,或数量为负值,那么就代表可接受的消息数量没有上限(直到内存的尽头);

Queue.qsize():返回当前队列包含的消息数量;

Queue.empty():如果队列为空,返回True,反之False ;

Queue.full():如果队列满了,返回True,反之False;

Queue.get([block[, timeout]]):获取队列中的一条消息,然后将其从列队中移除,block默认值为True;

1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出"Queue.Empty"异常;

2)如果block值为False,消息列队如果为空,则会立刻抛出"Queue.Empty"异常;

Queue.get_nowait():相当Queue.get(False);

Queue.put(item,[block[, timeout]]):将item消息写入队列,block默认值为True;

1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出"Queue.Full"异常;

2)如果block值为False,消息列队如果没有空间可写入,则会立刻抛出"Queue.Full"异常;

Queue.put_nowait(item):相当Queue.put(item, False);

Test02-->在父进程创建两个子进程,一个往Queue里面写数据,一个从Queue里面读数据。

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2017/4/27 8:35

# @Author : xiaoke

# @Site :

# @File : Test33.py

# @Software: PyCharm Community Edition

from multiprocessing import Process, Queue

import os, time, random

# 写数据进程

def write(q):

for value in ['A', 'B', 'C', 'quit']:

print('Put %s to queue...' % value)

q.put(value)

time.sleep(random.random())

# 读数据进程

def read(q):

while True:

if not q.empty():

value = q.get(True)

print('Get %s from queue.' % value)

# 因为读进程是一个死循环,所以要设置一个标记,用于退出

if value == "quit":

break

time.sleep(random.random())

if __name__ == '__main__':

# 父进程创建Queue,并传给各个子进程:

q = Queue()

pw = Process(target=write, args=(q,))

pr = Process(target=read, args=(q,))

# 启动子进程pw,写入:

pw.start()

# 等待pw结束:

pw.join()

# 启动子进程pr,读取:

pr.start()

pr.join()

print('所有数据都写入并且读完')

print("pw is alive:%s" % pw.is_alive())

print("pr is alive:%s" % pr.is_alive())

# 结果如下:

# Put A to queue...

# Put B to queue...

# Put C to queue...

# Put quit to queue...

# Get A from queue.

# Get B from queue.

# Get C from queue.

# Get quit from queue.

# 所有数据都写入并且读完

# pw is alive:False

# pr is alive:False

Test03-->进程池Pool中的Queue来进行进程间的通信

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Author : xiaoke

# @Site :

# @File : Test33.py

# @Software: PyCharm Community Edition

from multiprocessing import Pool, Queue, Manager

import os

import time

import random

def task_write(q):

for s in ('hello', 'python', 'world', 'quit'):

q.put(s) # 向队列中添加消息

print('%s 进程向队列中添加消息:%s' % (os.getpid(), s))

time.sleep(random.random() * 2)

print('%s 进程要结束了' % os.getpid())

def task_read(q):

while True:

msg = q.get() # 阻塞式从队列中收消息

print('%s 进程从队列中取出消息:%s' % (os.getpid(), msg))

if msg == "quit":

break

time.sleep(random.random() * 2)

print('%s 进程要结束了' % os.getpid())

def main():

# 1.创建消息队列对象

# q = Queue() #只能用于父子进程

# Manger().Queue() 消息队列可用于进程池

q = Manager().Queue()

# 2.创建进程池,里面放两个进程

my_pool = Pool(2)

# 3.添加任务

# 采用阻塞的方式

my_pool.apply(task_write, args=(q,))

my_pool.apply(task_read, args=(q,))

# 采用非阻塞的方式

# my_pool.apply_async(task_write, args=(q,))

# my_pool.apply_async(task_read, args=(q,))

# 4.关闭进程池

my_pool.close()

# 5.等待所有进程结束

my_pool.join()

if __name__ == "__main__":

main()

# 采用非阻塞的方式结果:

# 7380 进程向队列中添加消息:hello

# 11256 进程从队列中取出消息:hello

# 7380 进程向队列中添加消息:python

# 11256 进程从队列中取出消息:python

# 7380 进程向队列中添加消息:world

# 11256 进程从队列中取出消息:world

# 7380 进程向队列中添加消息:quit

# 11256 进程从队列中取出消息:quit

# 11256 进程要结束了

# 7380 进程要结束了

# 采用阻塞的方式结果:

# 96 进程向队列中添加消息:hello

# 96 进程向队列中添加消息:python

# 96 进程向队列中添加消息:world

# 96 进程向队列中添加消息:quit

# 96 进程要结束了

# 12412 进程从队列中取出消息:hello

# 12412 进程从队列中取出消息:python

# 12412 进程从队列中取出消息:world

# 12412 进程从队列中取出消息:quit

# 12412 进程要结束了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值