最近在使用multiprocessing创建多进程的时候,一开始,在主进程内写了一个Redis连接的方法,然后在每个进程中调用,发现最后往Redis(同一个Redis key,Redis采用的是HASH方式)内写入数据时会有数据紊乱的情况,之后尝试了在每个进程中重新实例化Redis连接还是没能解决该问题。猜想可能是Redis不能接受多个进程同时往一个KEY内写入多条数据,想到了一个比较笨也很直接的方法,在每个进程开始之前sleep时间,第一个进程休眠60秒,第二个休眠120,依次类推,成功解决该问题。
虽然问题得到了解决,但是并不是最好的解决方案,期待该问题得到更好的解决方案。
代码大概是这样的
from multiprocessing import Process
import redis
import time
def conn_redis():
"""
conn = redis.Redis('xxx.xxx.xxx.xxx',6379)
return conn
"""
class Test(object):
def fun_a(self):
"""
time.sleep(60)
conn = conn_redis()
while True:
xxxxxx
xxxxxxxxx
xxxxx
conn.hset(xxxx,xxxxxxxx)
time.sleep(xxx + 60)
""&#