进程对象及其他方法
"""
一台计算机上面运行着很多进程,那么计算机是如何区分并管理这些进程服务端的呢?
计算机会给每一个运行的进程分配一个PID号(有点类似于端口号,即唯一标识)
如何查看:
windows电脑
进入cmd输入tasklist即可查看
tasklist |findstr PID 查看具体的进程
mac电脑
进入终端之后输入ps aux
ps aux|grep PID 查看具体的进程
"""
from multiprocessing import Process, current_process
current_process().pid # 查看当前进程的进程号
import os
os.getpid() # 查看当前进程进程号
os.getppid() # 查看当前进程的父进程进程号
p.terminate() # 杀死当前进程
# 是告诉操作系统帮你去杀死当前进程 但是需要一定的时间 而代码运行的速度机器快
time.sleep(0.1)
print(p.is_alive()) # 判断当前进程是否存活
守护进程
import time
from multiprocessing import Process
def task(name):
print('%s总管正在活着' % name)
time.sleep(3)
print('%s总管正在死亡' % name)
if __name__ == '__main__':
p = Process(target=task, args=('egon',))
# p = Process(target=task, kwargs={'name': 'egon', }) # 当def task(name = 'egon')这样写时要用kwargs
p.daemon = True # 将进程p设置为守护进程(总管陪伴皇帝一生)
# 上面这句话一定要放在start方法上面 否则会报错
p.start()
print('皇帝jason寿终正寝')
互斥锁
多个进程操作同一份数据的时候,会出现数据错乱的问题
针对上述问题,解决方式就是枷锁处理:将并发编程变串行,牺牲效率但是保证了数据的安全
import json
import random
import time
from multiprocessing import Process, Lock
# 查票
def search(i):
# 文件操作读取票数
with open('data.txt', encoding = 'utf-8', mode= 'r') as f:
dic = json.load(f)
print('用户%s查询取票:%s' %(i, dic.get('ticket_num')))
# 字典取值不要用[]得形式,推荐使用get 原因是:代码一定不可以报错
# print(search('Egon'))
# 任何时候都是先查 再买
def buy(name):
# 先查票
with open('data.txt', mode= 'r', encoding='utf-8') as f:
dic = json.load(f)
# 模拟网络延迟
time.sleep(random.randint(1, 3))
# 判断当前是否有票
if dic.get('ticket_num') > 0:
# 修改数据库 买票
dic['ticket_num'] -= 1
with open('data.txt', mode = 'w', encoding= 'utf-8') as f:
json.dump(dic, f)
print('用户%s买票成功' %(name))
else:
print('用户%s买票失败' %(name))
# 整合两个函数
def run(name, mutex):
search(name)
# 给买票环节加锁处理
# 抢锁
mutex.acquire()
buy(name)
# 释放锁
mutex.release()
if __name__ == '__main__':
# 在主进程中生成一把锁 让所有子进程抢 谁先抢到谁先买票
mutex = Lock()
for i in range(1, 10):
p =Process(target = run, args=(str(i), mutex))
p.start()
"""
扩展:行锁 表锁
(只要是看见了锁,大部分情况就是将并发编程变串行,牺牲效率但是保证了数据的安全)
注意:
1、所不要轻易使用,容易造成锁死的问题(我们一半不会用到,都是内部分装好的)
2、锁只在处理数据的部分加来保证数据的安全(只在争抢数据的环节加锁处理即可)
"""
进程间通讯
队列Queue模块
"""
管道:subprocess
stdin stdout stderr
队列:管道+锁
队列:先进先出
堆栈:先进后出
"""
# from multiprocessing import Queue
import queue
# 创建一个队列
q = queue.Queue(5) # 括号可以传数字 标识生成的最大可以同时存放的数据量
# 往队列中存数据
q.put(111)
q.put(222)
q.put(333)
print(q.full()) # 判断当前队列是否满了
print(q.empty()) # 判断当前队列是否为空
q.put(444)
q.put(555)
# q.put(666) # 当队列数据放满了之后 如果还有数据药房程序会阻塞 直到有位置让出 (不会报错)
"""
存取数据 存是为了更好的取
千方百计地存、简单快捷地取
同在一个屋檐下
差距为什么那么大
"""
# 在队列中取数据
v1 = q.get()
v2 = q.get()
v3 = q.get()
v4 = q.get()
v5 = q.get()
# v6 = q.get_nowait() # 没有数据直接报错 queue.Empty
v6 = q.get(time = 3) # 没有数据原地等待3秒直接报错 queue.Empty
# 队列中如果已经没有数据了的话 get方法会原地阻塞
print(v1, v2)
"""
q.full()
q.empty()
q.get_nowait()
在多进程下是不精确的
"""
IPC机制
from multiprocessing import Queue, Process
"""
研究思路:
1、主进程跟子进程借助于队列通信
2、子进程跟子进程借助于队列通信
"""
def producer(q):
q.put('shenjiarun')
print('hello big baby~')
def consumer(q):
print(q.get())
if __name__ == '__main__':
q = Queue()
p = Process(target=producer, args=(q,))
p1 = Process(target=consumer, args=(q,))
p.start()
p1.start()
成产者消费者模型
"""
生产者:生产/制造东西的
消费者:消费/处理东西的
该模型除了上述两个之外还需要一个媒介
生活中的列子:做包子的将包子做好后放在蒸笼(媒介)里面,买包子的取蒸笼里面拿
厨师做菜做完之后用盘子装着给你消费者端过去
生产者和消费这之间不是直接交互的,而是借助于媒介做交互
生产者(做包子的) + 消息队列(蒸笼) + 消费者(吃包子的)
"""
from multiprocessing import Process, Queue, JoinableQueue
import time
import random
def producer(name,food,q):
for i in range(5):
data = '%s生产了%s%s' %(name, food, i)
# 模拟延迟
time.sleep(random.randint(1,3))
print(data)
# 将数据放入队列中
q.put(data)
def consumer(name, q):
while True:
food = q.get()
# if food is None:break
time.sleep(random.randint(1, 3))
print('%s吃了%s' %(name, food))
q.task_done() # 告诉队列你已经从里面取出一个数据并处理完毕了
if __name__ == '__main__':
q = JoinableQueue()
p1 = Process(target=producer,args=('大厨','包子',q))
p2 = Process(target=producer,args=('马叉虫tank','泔水',q))
c1 = Process(target=consumer,args=('春哥', q))
c2 = Process(target=consumer,args=('新哥', q))
p1.start()
p2.start()
# 将消费者设置成守护进程
c1.daemon = True
c2.daemon = True
c1.start()
c2.start()
p1.join()
p2.join()
# 等待生产者者生产完毕之后 往队列中添加特定的结束符号
# q.put(None) # 肯定在所有生产者成产数据的末尾
# q.put(None) # 肯定在所有生产者成产数据的末尾
q.join()
"""
JoinableQueue 每当你往该队列中存入数据的时候 内部会有一个计数器+1
每当你调用task_done的时候 计数器-1
q.join() 当计数器为0的时候 才往后运行
"""
# 只要q.join执行完毕 说明消费者已经处理完数据的了 消费者就没有存在的必要了