分布式锁详解

  • 分布式锁代码
<!-- curator 版本4.1.0 对应 zookeeper 版本 3.5.x -->
        <!-- curator 与 zookeeper 版本对应关系:https://curator.apache.org/zk-compatibility.html -->
        <!--<dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-recipes</artifactId>
            <version>2.12.0</version>
        </dependency>-->
		<dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-framework</artifactId>
            <version>2.12.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-recipes</artifactId>
            <version>2.12.0</version>
        </dependency>
package com.wqq.registry.zk;

import org.apache.curator.framework.CuratorFramework;
import org.apache.curator.framework.CuratorFrameworkFactory;
import org.apache.curator.framework.recipes.locks.InterProcessMutex;
import org.apache.curator.retry.ExponentialBackoffRetry;

import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.TimeUnit;
import java.util.stream.IntStream;

public class ZkTest {
    public Integer getCount() {
        return count;
    }

    //zk客户端
    public static CuratorFramework zkClient;

    private Integer count = 100;
    private ExecutorService executorService = Executors.newFixedThreadPool(100);
    private static String ZK_URL ="localhost:2181";
    static{
        //第二个参数是重试策略 RetryPolicy,重试连接策略,有四种实现 ExponentialBackoffRetry、RetryNTimes、RetryOneTimes、RetryUntilElapsed
        //自己查看不是重点
        zkClient= CuratorFrameworkFactory.newClient(ZK_URL,new ExponentialBackoffRetry(100,3));
        zkClient.start();
    }

    public static void main(String[] args) throws  Exception {
        ZkTest zkTest=new ZkTest();
        zkTest.testManualLock();
    }


    public void testManualLock() throws InterruptedException {
        //循环多线程执行 manualBuy 方法
        IntStream.range(0, 100).forEach(i -> executorService.execute(this::manualBuy));
        //等待执行完成
        TimeUnit.MINUTES.sleep(1);
        System.out.println("count值为"+ count);
    }

    public void manualBuy() {
        String lockPath = "/buy";
        try {
            //InterProcessMutex基于Zookeeper实现了分布式的公平可重入互斥锁,类似于单个JVM进程内的ReentrantLock(fair=true)
            InterProcessMutex lock = new InterProcessMutex(zkClient, lockPath);
            try {
                if (lock.acquire(1, TimeUnit.MINUTES)) {
                    doBuy();
                    System.out.println("buy successfully!");
                }
            } finally {
                lock.release();
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
    public void doBuy() {
        count--;
        System.out.println("count值为"+count);
    }
}

  • InterProcessMutex分布式的公平可重入互斥锁分析
// 最常用
public InterProcessMutex(CuratorFramework client, String path){
    // Zookeeper利用path创建临时顺序节点,实现公平锁的核心
    this(client, path, new StandardLockInternalsDriver());
}
public InterProcessMutex(CuratorFramework client, String path, LockInternalsDriver driver){
    // maxLeases=1,表示可以获得分布式锁的线程数量(跨JVM)为1,即为互斥锁
    this(client, path, LOCK_NAME, 1, driver);
}
// protected构造函数
InterProcessMutex(CuratorFramework client, String path, String lockName, int maxLeases, LockInternalsDriver driver){
    basePath = PathUtils.validatePath(path);
    // internals的类型为LockInternals,InterProcessMutex将分布式锁的申请和释放操作委托给internals执行
    internals = new LockInternals(client, driver, path, lockName, maxLeases);

//获取锁
// 无限等待
public void acquire() throws Exception{
    if ( !internalLock(-1, null) ){
        throw new IOException("Lost connection while trying to acquire lock: " + basePath);
    }
}

// 限时等待
public boolean acquire(long time, TimeUnit unit) throws Exception{
    return internalLock(time, unit);
}

private boolean internalLock(long time, TimeUnit unit) throws Exception{
    Thread currentThread = Thread.currentThread();
    LockData lockData = threadData.get(currentThread);
    if ( lockData != null ){
        // 实现可重入
        // 同一线程再次acquire,首先判断当前的映射表内(threadData)是否有该线程的锁信息,如果有则原子+1,然后返回
        lockData.lockCount.incrementAndGet();
        return true;
    }

    // 映射表内没有对应的锁信息,尝试通过LockInternals获取锁
    String lockPath = internals.attemptLock(time, unit, getLockNodeBytes());
    if ( lockPath != null ){
        // 成功获取锁,记录信息到映射表
        LockData newLockData = new LockData(currentThread, lockPath);
        threadData.put(currentThread, newLockData);
        return true;
    }
    return false;
}

// 映射表
// 记录线程与锁信息的映射关系
private final ConcurrentMap<Thread, LockData> threadData = Maps.newConcurrentMap();

// 锁信息
// Zookeeper中一个临时顺序节点对应一个“锁”,但让锁生效激活需要排队(公平锁),下面会继续分析
private static class LockData{
    final Thread owningThread;
    final String lockPath;
    final AtomicInteger lockCount = new AtomicInteger(1); // 分布式锁重入次数

    private LockData(Thread owningThread, String lockPath){
        this.owningThread = owningThread;
        this.lockPath = lockPath;
    }
}

// 尝试获取锁,并返回锁对应的Zookeeper临时顺序节点的路径
String attemptLock(long time, TimeUnit unit, byte[] lockNodeBytes) throws Exception{
    final long startMillis = System.currentTimeMillis();
    // 无限等待时,millisToWait为null
    final Long millisToWait = (unit != null) ? unit.toMillis(time) : null;
    // 创建ZNode节点时的数据内容,无关紧要,这里为null,采用默认值(IP地址)
    final byte[] localLockNodeBytes = (revocable.get() != null) ? new byte[0] : lockNodeBytes;
    // 当前已经重试次数,与CuratorFramework的重试策略有关
    int retryCount = 0;

    // 在Zookeeper中创建的临时顺序节点的路径,相当于一把待激活的分布式锁
    // 激活条件:同级目录子节点,名称排序最小(排队,公平锁),后续继续分析
    String ourPath = null;
    // 是否已经持有分布式锁
    boolean hasTheLock = false;
    // 是否已经完成尝试获取分布式锁的操作
    boolean isDone = false;

    while ( !isDone ){
        isDone = true;
        try{
            // 从InterProcessMutex的构造函数可知实际driver为StandardLockInternalsDriver的实例
            // 在Zookeeper中创建临时顺序节点
            ourPath = driver.createsTheLock(client, path, localLockNodeBytes);
            // 循环等待来激活分布式锁,实现锁的公平性,后续继续分析
            hasTheLock = internalLockLoop(startMillis, millisToWait, ourPath);
        } catch ( KeeperException.NoNodeException e ) {
            // 容错处理,不影响主逻辑的理解,可跳过
            // 因为会话过期等原因,StandardLockInternalsDriver因为无法找到创建的临时顺序节点而抛出NoNodeException异常
            if ( client.getZookeeperClient().getRetryPolicy().allowRetry(retryCount++,
                    System.currentTimeMillis() - startMillis, RetryLoop.getDefaultRetrySleeper()) ){
                // 满足重试策略尝试重新获取锁
                isDone = false;
            } else {
                // 不满足重试策略则继续抛出NoNodeException
                throw e;
            }
        }
    }
    if ( hasTheLock ){
        // 成功获得分布式锁,返回临时顺序节点的路径,上层将其封装成锁信息记录在映射表,方便锁重入
        return ourPath;
    }
    // 获取分布式锁失败,返回null
    return null;
}

// From StandardLockInternalsDriver
// 在Zookeeper中创建临时顺序节点
public String createsTheLock(CuratorFramework client, String path, byte[] lockNodeBytes) throws Exception{
    String ourPath;
    // lockNodeBytes不为null则作为数据节点内容,否则采用默认内容(IP地址)
    if ( lockNodeBytes != null ){
        // 下面对CuratorFramework的一些细节做解释,不影响对分布式锁主逻辑的解释,可跳过
        // creatingParentContainersIfNeeded:用于创建父节点,如果不支持CreateMode.CONTAINER
        // 那么将采用CreateMode.PERSISTENT
        // withProtection:临时子节点会添加GUID前缀
        ourPath = client.create().creatingParentContainersIfNeeded()
            // CreateMode.EPHEMERAL_SEQUENTIAL:临时顺序节点,Zookeeper能保证在节点产生的顺序性
            // 依据顺序来激活分布式锁,从而也实现了分布式锁的公平性,后续继续分析
            .withProtection().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath(path, lockNodeBytes);
    } else {
        ourPath = client.create().creatingParentContainersIfNeeded()
            .withProtection().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath(path);
    }
    return ourPath;
}

// 循环等待来激活分布式锁,实现锁的公平性
private boolean internalLockLoop(long startMillis, Long millisToWait, String ourPath) throws Exception {
    // 是否已经持有分布式锁
    boolean haveTheLock = false;
    // 是否需要删除子节点
    boolean doDelete = false;
    try {
        if (revocable.get() != null) {
            client.getData().usingWatcher(revocableWatcher).forPath(ourPath);
        }

        while ((client.getState() == CuratorFrameworkState.STARTED) && !haveTheLock) {
            // 获取排序后的子节点列表
            List<String> children = getSortedChildren();
            // 获取前面自己创建的临时顺序子节点的名称
            String sequenceNodeName = ourPath.substring(basePath.length() + 1);
            // 实现锁的公平性的核心逻辑,看下面的分析
            PredicateResults predicateResults = driver.getsTheLock(client,
                                                        children , sequenceNodeName , maxLeases);
            if (predicateResults.getsTheLock()) {
                // 获得了锁,中断循环,继续返回上层
                haveTheLock = true;
            } else {
                // 没有获得到锁,监听上一临时顺序节点
                String previousSequencePath = basePath + "/" + predicateResults.getPathToWatch();
                synchronized (this) {
                    try {
                        // exists()会导致导致资源泄漏,因此exists()可以监听不存在的ZNode,因此采用getData()
                        // 上一临时顺序节点如果被删除,会唤醒当前线程继续竞争锁,正常情况下能直接获得锁,因为锁是公平的
                        client.getData().usingWatcher(watcher).forPath(previousSequencePath);
                        if (millisToWait != null) {
                            millisToWait -= (System.currentTimeMillis() - startMillis);
                            startMillis = System.currentTimeMillis();
                            if (millisToWait <= 0) {
                                doDelete = true; // 获取锁超时,标记删除之前创建的临时顺序节点
                                break;
                            }
                            wait(millisToWait); // 等待被唤醒,限时等待
                        } else {
                            wait(); // 等待被唤醒,无限等待
                        }
                    } catch (KeeperException.NoNodeException e) {
                    // 容错处理,逻辑稍微有点绕,可跳过,不影响主逻辑的理解
                    // client.getData()可能调用时抛出NoNodeException,原因可能是锁被释放或会话过期(连接丢失)等
                    // 这里并没有做任何处理,因为外层是while循环,再次执行driver.getsTheLock时会调用validateOurIndex
                    // 此时会抛出NoNodeException,从而进入下面的catch和finally逻辑,重新抛出上层尝试重试获取锁并删除临时顺序节点
                    }
                }
            }
        }
    } catch (Exception e) {
        ThreadUtils.checkInterrupted(e);
        // 标记删除,在finally删除之前创建的临时顺序节点(后台不断尝试)
        doDelete = true;
        // 重新抛出,尝试重新获取锁
        throw e;
    } finally {
        if (doDelete) {
            deleteOurPath(ourPath);
        }
    }
    return haveTheLock;
}

// From StandardLockInternalsDriver
public PredicateResults getsTheLock(CuratorFramework client, List<String> children, String sequenceNodeName, int maxLeases) throws Exception{
    // 之前创建的临时顺序节点在排序后的子节点列表中的索引
    int ourIndex = children.indexOf(sequenceNodeName);
    // 校验之前创建的临时顺序节点是否有效
    validateOurIndex(sequenceNodeName, ourIndex);
    // 锁公平性的核心逻辑
    // 由InterProcessMutex的构造函数可知,maxLeases为1,即只有ourIndex为0时,线程才能持有锁,或者说该线程创建的临时顺序节点激活了锁
    // Zookeeper的临时顺序节点特性能保证跨多个JVM的线程并发创建节点时的顺序性,越早创建临时顺序节点成功的线程会更早地激活锁或获得锁
    boolean getsTheLock = ourIndex < maxLeases;
    // 如果已经获得了锁,则无需监听任何节点,否则需要监听上一顺序节点(ourIndex-1)
    // 因为锁是公平的,因此无需监听除了(ourIndex-1)以外的所有节点,这是为了减少羊群效应,非常巧妙的设计!!
    String pathToWatch = getsTheLock ? null : children.get(ourIndex - maxLeases);
    // 返回获取锁的结果,交由上层继续处理(添加监听等操作)
    return new PredicateResults(pathToWatch, getsTheLock);
}

static void validateOurIndex(String sequenceNodeName, int ourIndex) throws KeeperException{
    if ( ourIndex < 0 ){
        // 容错处理,可跳过
        // 由于会话过期或连接丢失等原因,该线程创建的临时顺序节点被Zookeeper服务端删除,往外抛出NoNodeException
        // 如果在重试策略允许范围内,则进行重新尝试获取锁,这会重新重新生成临时顺序节点
        // 佩服Curator的作者将边界条件考虑得如此周到!
        throw new KeeperException.NoNodeException("Sequential path not found: " + sequenceNodeName);
    }
}

// From LockInternals
private final Watcher watcher = new Watcher(){
    @Override
    public void process(WatchedEvent event){
        notifyFromWatcher();
    }
};
private synchronized void notifyFromWatcher(){
   notifyAll(); // 唤醒所有等待LockInternals实例的线程
}

// From LockInternals
private void deleteOurPath(String ourPath) throws Exception{
    try{
        // 后台不断尝试删除
        client.delete().guaranteed().forPath(ourPath);
    } catch ( KeeperException.NoNodeException e ) {
        // 已经删除(可能会话过期导致),不做处理
        // 实际使用Curator-2.12.0时,并不会抛出该异常
    }
}
  • 释放锁
public void release() throws Exception{
    Thread currentThread = Thread.currentThread();
    LockData lockData = threadData.get(currentThread);
    if ( lockData == null ){
        // 无法从映射表中获取锁信息,不持有锁
        throw new IllegalMonitorStateException("You do not own the lock: " + basePath);
    }

    int newLockCount = lockData.lockCount.decrementAndGet();
    if ( newLockCount > 0 ){
        // 锁是可重入的,初始值为1,原子-1到0,锁才释放
        return;
    }
    if ( newLockCount < 0 ){
        // 理论上无法执行该路径
        throw new IllegalMonitorStateException("Lock count has gone negative for lock: " + basePath);
    }
    try{
        // lockData != null && newLockCount == 0,释放锁资源
        internals.releaseLock(lockData.lockPath);
    } finally {
        // 最后从映射表中移除当前线程的锁信息
        threadData.remove(currentThread);
    }
}

void releaseLock(String lockPath) throws Exception{
   revocable.set(null);
   // 删除临时顺序节点,只会触发后一顺序节点去获取锁,理论上不存在竞争,只排队,非抢占,公平锁,先到先得
   deleteOurPath(lockPath);
}
// Class:LockInternals
private void deleteOurPath(String ourPath) throws Exception{
    try{
        // 后台不断尝试删除
        client.delete().guaranteed().forPath(ourPath);
    } catch ( KeeperException.NoNodeException e ) {
        // 已经删除(可能会话过期导致),不做处理
        // 实际使用Curator-2.12.0时,并不会抛出该异常
    }
}

  • 总结

InterProcessMutex的特性

1、分布式锁(基于Zookeeper)
2、互斥锁
3、公平锁(监听上一临时顺序节点 + wait() / notifyAll())
4、可重入

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值