目录
Redis分布式锁,一般就是用Redisson框架就好了,非常的简便易用。
大家如果有兴趣,可以去看看Redisson的官网,看看如何在项目中引入Redisson的依赖,然后基于Redis实现分布式锁的加锁与释放锁。
下面给大家看一段简单的使用代码片段,先直观的感受一下:
RLock rLock = redissonClient.getLock("myLock");
rLock.lock();
rLock.unlock();
怎么样,上面那段代码,是不是感觉简单的不行!
此外,人家还支持redis单实例、redis哨兵、redis cluster、redis master-slave等各种部署架构,都可以给你完美实现。
Redisson实现Redis分布式锁的底层原理
好的,接下来就通过一张手绘图,给大家说说Redisson这个开源框架对Redis分布式锁的实现原理。
1、加锁机制
看上面那张图,现在某个客户端要加锁,如果该客户端面对的是一个redis cluster集群,他首先会根据hash节点选择一台机器。
这里注意,仅仅只是选择一台机器!这点很关键!
紧接着,就会发送一段lua脚本到redis上,那段lua脚本如下所示:
"if (redis.call('exists', KEYS[1]) == 0) then " +
"redis.call('hset', KEYS[1], ARGV[2], 1); " +
"redis.call('pexpire', KEYS[1], ARGV[1]); " +
"return nil; " +
"end; " +
"if (redis.call('hexists', KEY[1], ARGV[2]) == 1) then "
"redis.call('hincrby', KEYS[1],ARGV[2], 1); " +
"redis.call('pexpire', KEYS[1],ARGV[1]); " +
"return nil; " +
"end; " +
"return redis.call('pttl', KEYS[1]);"
- 为啥要用lua脚本呢?
因为一大坨复杂的业务逻辑,可以通过封装在lua脚本中发送给redis,保证这段复杂业务逻辑执行的原子性。
- 那么,这段lua脚本是什么意思呢?
KEYS[1]代表的是加锁key,比如:RLock rLock = redissonClient.getLock("myLock");那么KEYS[1]就是myLock
ARGV[1]代表的是锁key的默认生存时间,默认30秒
ARGV[2]代表的是加锁的客户端的ID,类似于这样:8743c9c0-0795-4907-87fd-6c719a6b4586:1
第一段if判断语句,就是用“exists myLock”命令判断一下,如果要加锁的key不存在,就进行加锁。
加锁的命令:hset myLock 8743c9c0-0795-4907-87fd-6c719a6b4586:1 1
//加锁后Redis中的数据结构:
myLock:
{
"8743c9c0-0795-4907-87fd-6c719a6b4586:1":1
}
上述就代表“8743c9c0-0795-4907-87fd-6c719a6b4586:1”这个客户端对“myLock”这个锁key完成了加锁。
接着会执行“pexpire myLock 30000”命令,设置myLock这个锁key的生存时间是30秒。
好了,到此为止,ok,加锁完成了。
2、锁互斥机制
那么在这个时候,如果客户端2来尝试加锁,执行了同样的一段lua脚本,会咋样呢?
很简单,第一个if判断会执行“exists myLock”,发现myLock这个锁key已经存在了。
接着第二个if判断,判断一下,myLock锁key的hash数据结构中,是否包含客户端2的ID,但是明显不是的,因为那里包含的是客户端1的ID。
所以,客户端2会获取到pttl myLock返回的一个数字,这个数字代表了myLock这个锁key的剩余生存时间。比如还剩15000毫秒的生存时间。
此时客户端2会进入一个while循环,不停的尝试加锁。
3、watch dog自动延期机制
客户端1加锁的锁key默认生存时间才30秒,如果超过了30秒,客户端1还想一直持有这把锁,怎么办呢?
简单!只要客户端1一旦加锁成功,就会启动一个watch dog看门狗,他是一个后台线程,会每隔10秒检查一下,如果客户端1还持有锁key,那么就会不断的延长锁key的生存时间。
4、可重入加锁机制
客户端1都已经持有了这把锁了,然后重入的加锁会怎么样呢?
比如下面这种代码:
RLock rLock = redissonClient.getLock("myLock");
rLock.lock();
//这里有一坨代码
rLock.lock();
//这里有一坨代码
rLock.unlock();
rLock.unlock();
这时我们来分析一下上面那段lua脚本。
第一个if判断肯定不成立,“exists myLock”会显示锁key已经存在了。
第二个if判断会成立,因为myLock的hash数据结构中包含的那个ID,就是客户端1的那个ID,也就是“8743c9c0-0795-4907-87fd-6c719a6b4586:1”
此时就会执行可重入加锁的逻辑,他会用:
incrby myLock 8743c9c0-0795-4907-87fd-6c71a6b4586:1 1
通过这个命令,对客户端1的加锁次数,累加1。
此时myLock数据结构变为下面这样:
//加锁后Redis中的数据结构:
myLock:
{
"8743c9c0-0795-4907-87fd-6c719a6b4586:1":2
}
5、释放锁机制
执行lock.unlock(),就可以释放分布式锁,此时的业务逻辑也是非常简单的。
其实说白了,就是每次都对myLock数据结构中的那个加锁次数减1。
如果发现加锁次数是0了,说明这个客户端已经不再持有锁了,此时就会用:
“del myLock”命令,从redis里删除这个key。
然后呢,另外的客户端2就可以尝试完成加锁了。
6、上述Redis分布式锁的缺点
其实上面那种方案最大的问题,就是如果你对某个redis master实例,写入了myLock这种锁key的value,此时会异步复制给对应的master slave实例。
但是这个过程中一旦发生redis master宕机,主备切换,redis slave变为了redis master。
接着就会导致,客户端2来尝试加锁的时候,在新的redis master上完成了加锁,而客户端1也以为自己成功加了锁。
此时就会导致多个客户端对一个分布式锁完成了加锁。
这时系统在业务语义上一定会出现问题,导致各种脏数据的产生。
所以这个就是redis cluster,或者是redis master-slave架构的主从异步复制导致的redis分布式锁的最大缺陷:在redis master实例宕机的时候,可能导致多个客户端同时完成加锁。
7、测试Redis分布式锁
@GetMapping(value = "/redisLock")
public String redisLock() {
Thread t1 = new Thread(new Runnable() {
@Override
public void run() {
toLock(Thread.currentThread());
}
}, "t1");
Thread t2 = new Thread(new Runnable() {
@Override
public void run() {
toLock(Thread.currentThread());
}
}, "t2");
t1.start();
t2.start();
return "OK";
}
public void toLock(Thread thread) {
RLock rLock = redissonClient.getLock("myLock");
rLock.lock();
System.out.println(LocalTime.now() + ":线程" + thread.getName() + "获得了锁");
try {
thread.sleep(1000 * 10);
} catch (Exception e) {
}
rLock.unlock();
System.out.println(LocalTime.now() + ":线程" + thread.getName() + "释放了锁");
}
控制台打印信息:
10:15:09.717:线程t1获得了锁
10:15:19.734:线程t1释放了锁
10:15:19.744:线程t2获得了锁
10:15:29.759:线程t2释放了锁