python mysql 从库查询锁_python基于mysql实现的简单队列以及跨进程锁

在我们做多进程应用开发的过程中,难免会遇到多个进程访问同一个资源(临界资源)的状况,必须通过加一个全局性的锁,来实现资源的同步访问(同一时间只能有一个进程访问资源)。

举个例子:

假设我们用mysql来实现一个任务队列,实现的过程如下:

1. 在Mysql中创建Job表,用于储存队列任务,如下:

create table jobs(

id auto_increment not null primary key,

message text not null,

job_status not null default 0

);

message 用来存储任务信息,job_status用来标识任务状态,假设只有两种状态,0:在队列中, 1:已出队列

2. 有一个生产者进程,往job表中放新的数据,进行排队

insert into jobs(message) values('msg1');

3.假设有多个消费者进程,从job表中取排队信息,要做的操作如下:

select * from jobs where job_status=0 order by id asc limit 1;

update jobs set job_status=1 where id = ?; -- id为刚刚取得的记录id

4. 如果没有跨进程的锁,两个消费者进程有可能同时取到重复的消息,导致一个消息被消费多次。这种情况是我们不希望看到的,于是,我们需要实现一个跨进程的锁。

=========================华丽的分割线=======================================

说道跨进程的锁实现,我们主要有几种实现方式:

1. 信号量

2. 文件锁fcntl

3. socket(端口号绑定)

4. signal

这几种方式各有利弊,总体来说前2种方式可能多一点,这里我就不详细说了,大家可以去查阅资料。

查阅了大量资料之后,发现mysql中有锁的实现,链接如下:

外链网址已屏蔽

经过测试,功能还是挺强大的,甚至能够作为一些分布式应用的锁,且即使多个进程在不同的服务器上,也能够实现锁的功能。我用python实现了一个demo,如下:

文件名:glock.py

#!/usr/bin/env python2.7

#

# -*- coding:utf-8 -*-

#

# Author :

# E-mail :

# Date : 2014/02/25

# Desc :

#

import logging, time

import MySQLdb

class Glock:

def __init__(self, db):

self.db = db

def _execute(self, sql):

cursor = self.db.cursor()

try:

ret = None

cursor.execute(sql)

if cursor.rowcount != 1:

logging.error("Multiple rows returned in mysql lock function.")

ret = None

else:

ret = cursor.fetchone()

cursor.close()

return ret

except Exception, ex:

logging.error("Execute sql \"%s\" failed! Exception: %s", sql, str(ex))

cursor.close()

return None

def lock(self, lockstr, timeout):

sql = "SELECT GET_LOCK('%s', %s)" % (lockstr, timeout)

ret = self._execute(sql)

if ret[0] == 0:

logging.debug("Another client has previously locked '%s'.", lockstr)

return False

elif ret[0] == 1:

logging.debug("The lock '%s' was obtained successfully.", lockstr)

return True

else:

logging.error("Error occurred!")

return None

def unlock(self, lockstr):

sql = "SELECT RELEASE_LOCK('%s')" % (lockstr)

ret = self._execute(sql)

if ret[0] == 0:

logging.debug("The lock '%s' the lock is not released(the lock was not established by this thread).", lockstr)

return False

elif ret[0] == 1:

logging.debug("The lock '%s' the lock was released.", lockstr)

return True

else:

logging.error("The lock '%s' did not exist.", lockstr)

return None

#Init logging

def init_logging():

sh = logging.StreamHandler()

logger = logging.getLogger()

logger.setLevel(logging.DEBUG)

formatter = logging.Formatter('%(asctime)s -%(module)s:%(filename)s-L%(lineno)d-%(levelname)s: %(message)s')

sh.setFormatter(formatter)

logger.addHandler(sh)

logging.info("Current log level is : %s",logging.getLevelName(logger.getEffectiveLevel()))

def main():

init_logging()

db = MySQLdb.connect(host='localhost', user='root', passwd='')

lock_name = 'queue'

l = Glock(db)

l.lock(lock_name, 10)

time.sleep(10)

logging.info("You can do some synchronization work across processes!")

##TODO

## you can do something in here ##

l.unlock(lock_name)

if __name__ == "__main__":

main()

在这个demo中,在标记TODO的地方,可以将消费者从job表中取消息的逻辑放在这里。即分割线以上的:

3.假设有多个消费者进程,从job表中取排队信息,要做的操作如下:

select * from jobs where job_status=0 order by id asc limit 1;

update jobs set job_status=1 where id = ?; -- id为刚刚取得的记录id

这样,就能保证多个进程访问临界资源时同步进行了,保证数据的一致性。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值