JUC读书笔记(四)

Java并发容器和框架

ConcurrentHashMap

为什么要使用ConcurrentHashMap

在并发编程中使用HashMap可能导致程序死循环。而使用线程安全的HashTable效率又非常低下,基于以上两个原因,便有了ConcurrentHashMap的登场机会。

  1. 线程不安全的HashMap
    在多线程环境下,使用HashMap进行put操作会引起死循环,导致CPU利用率接近100%,所以在并发情况下不能使用HashMap。示例代码如下:
final HashMap<String, String> map = new HashMap<String, String>(2);
Thread t = new Thread(new Runnable(){
	public void run(){
		for(int i = 0; i < 10000; i++){
			new Thread(new Runnable(){
				public void run(){
					map.put(UUID.randomUUID().toString(), "");
				}
			},"ftf" + i).start();
		}
	}
},"ftf");
t.start();
t.join();		

HashMap在并发执行put操作时会引起死循环,是因为多线程会导致HashMap的Entry链表形成环形数据结构,一旦形成环形数据结构,Entry的next节点永远不会为空,就会产生死循环获取Entry。

  1. 效率低下的HashTable
    HashTable容器使用Synchronized来保证线程安全,但在线程竞争激烈的情况下,HashTable的效率非常低下。因为当一个线程访问HasgTable的同步方法,其他线程也访问HashTable的同步方法时,会进入阻塞或者轮询状态。如线程1使用put进行元素添加,线程2不但不能使用put方法添加元素,也不能使用get方法来获取元素,所以竞争越激烈效率越低。
  2. ConcurrentHashMap的锁分段技术可有效提升并发访问率
    ConcurrentHashMap使用锁分段技术,首先将数据分成一段一段地存储,然后给每一段数据配一把锁,当一个线程占用锁访问其中一个段数据的时候,其他段的数据也能被其他线程访问。

ConcurrentHashMap的结构

ConcurrentHashMap是由Segment数据结构和HashEntry数据结构组成。Segment是一种可重入锁(ReentrantLock),在ConcurrentHashMap中扮演锁的角色:HashEntry则用于存储键值对数据。一个ConcurrentHashMap里包含一个Segment数组。Segment的结构和HashMap类似,是一种数组和链表结构。一个Segment里包含一个HashEntry数组,每个HashEntry是一个链表结构的元素,每个Segment守护着一个HashEntry数组里的元素,当对HashEntry数组的数据进行修改时,必须首先获得与它相对应的Segment锁。

ConcurrentLinkedQueue

以非阻塞的方式实现的线程安全队列。它是一个基于链接节点的无界线程安全队列,它采用先进先出的规则对节点机进行排序,当我们添加一个元素的时候,它会添加到队列的尾部;当我们获取一个元素时,它会返回队列头部的元素。它采用了"wait-free"算法(CAS)来实现,该算法在Michael&Scott算法上进行了一些修改。

ConcurrentLinkedQueue的结构

ConcurrentLinkedQueued由head节点和tail节点组成,每个节点(Node)由节点元素(item)和指向下一个节点(next)的引用组成,节点与节点之间就是通过这个next关联起来,从而组成一张链表结构的队列。默认情况下head节点存储的元素为空,tail节点等于head节点。
private transient volatile Node tail = head;

入队列

入队列就是将入队节点添加到队列的尾部。主要做两件事:

  1. 将入队节点设置为当前队列尾节点的下一个节点;
  2. 更新tail节点,如果tail的next节点不为空,则将入队节点设置成tail节点,如果tail节点的next节点为空,则将入队节点设置成tail的next节点(为了执行效率,tail节点不一定是尾节点)
    源码分析:
public boolean offer(E e){
	if(e == null) throw new NullPointerException();
	// 入队前,创建一个入队节点
	Node<E> n = new Node<E>(e);
	retry:
	// 死循环,入队不成功反复入队
	for(;;){
		// 创建一个指向tail节点的引用
		Node<E> t = tail;
		// p用来表示队列的尾节点,默认情况下等于tail节点
		Node<E> p = t;
		for(int hops = 0; ; hops++){
		// 获取p节点的下一个节点。
			Node<E> next = succ(p);
	// next节点不为空,说明p不是尾节点,需要更新p后再将它指向next节点
			if(next != null){
				//循环了两边及以上,并且当前节点不等于尾节点
				//HOPS默认为1,值越高定位尾节点的时候需要的循环次数越多,但普遍可以提高效率
				if(hops > HOPS && t != tail)
					continue retry;
				p = next;
			}
			// 如果p是尾节点,则设置p节点的next节点为入队节点。
			else if(p.casNext(null,n)){
				/* 如果tail节点有大于1个next节点,则将入队节点设置成tail节点,更新失败了也没关系,因为失败了表示有其他线程成功更新了tail节点*/
				if(hops >= HOPS)
					casTail(t, n);
				return true;
			}
			// p有next节点,表示p的next节点是尾节点,则重新设置p节点
			else{
				p = succ(p);
			}
		}
	}
}		

此处主要做了两件事,第一是定位出尾节点,第二是使用CAS算法将入队节点设置成尾节点的next节点,如不成功则重试。

定位尾节点

因为tail节点不一定是尾节点(为了效率,后续给出解释),所以每次入队都必须先通过tail节点来找到尾节点。所以第一个if判断tail是否有next节点,有则表示next节点可能是尾节点。如果p节点等于p的next节点,只有可能是两个节点都等于空,表示这个队列刚初始化,正准备添加节点,所以此时需要返回head节点。
获取p节点的next节点的代码如下:

final Node<E> succ(Node<E> p){
	Node<E> next = p.getNext();
	return (p == next) ? head : next;
}

设置入队节点为尾节点

p.casNext(null, n)方法用于将入队节点设置为队列尾节点的next节点,如果p是null,表示p是当队列的尾节点,如果不为null,表示有其他线程更新了尾节点,则需要重新获取当前队列的尾节点。

HOPS的设计意图(提高效率)

public boolean offer(E e){
	if(e == null)
		throw new NullPointerException();
	Node<E> n = new Node<E>(e);
	for(;;){
		Node<E> t = tail;
		if(t.casNext(null,n) && casTail(t, n){
			return true;
		}
	}
}

让tail节点永远作为队列的尾节点,这样实现代码量非常少,而且逻辑清晰和易懂。但是,这么做有个缺点,每次都需要使用CAS更新tail节点。如果能够减少CAS更新tail节点的次数,就能提高入队的概率,所以doug lea使用hops变量来控制并减少tail节点的更新频率,并不是每次节点入队后都将tail节点更新成尾节点,而是当tail节点和尾节点的距离大于等于常量HOPS的值(默认等于1)时,才更新tail节点,tail和尾节点的距离越长,使用CAS更新tail节点的次数就会越少,但是距离越长带来的负面效果就是每次入队时定位尾节点的时间就越长,因为循环体需要多循环一次来定位出尾节点,但是这样仍然能提高入队的效率,因为从本质上来看它通过增加对volatile变量的读操作来减少对volatile变量的写操作,而对volatile变量的写操作的开销远远大于读操作,所以入队效率会有所提升。

private static final int HOPS = 1;

由于入队方法永远返回true,所以不要通过返回值来判断入队是否成功。

出队列

出队列就是从队列里返回一个节点的元素,并清空该节点对该元素的引用。并不是每次出队时都更新head节点,当head节点里有元素时,直接弹出head节点里的元素,而不会更新head节点。只有当head节点里没有元素时,出队操作才会更新head节点。 这种做法也是通过hops变量来减少使用CAS更新head节点的消耗,从而提高出队效率。

public E poll(){
	Node<E> h = head;
	//p表示头节点,需要出队的节点
	Node<E> p = h;
	for(int hops = 0;; hops++){
		// 获取p节点的元素
		E item = p.getItem();
		// 如果p节点的元素不为空,使用CAS设置p节点引用的元素为nuull,
		// 如果成功则返回p节点的元素
		if(item != null && p.casItem(item,null)){
			if(hops >= HOPS){
				// 将p节点下一个节点设置成head节点
				Node<E> q = p.getNext();
				updateHead(h, (q != null) ? q : p);
			}
			return item;
		}
		// 如果头节点的元素为空或头节点发生了变化,这说明头节点已经被另外一个线程修改了。那么获取p节点的下一个节点
		Node<E> next = succ(p);
		// 如果p的下一个节点也为空,说明这个对列已经空了
		if(next = null){
		// 更新头节点
			updateHead(h, p);
			break;
		}
		// 如果下一个元素不为空,则将头节点的下一个节点设置成头节点
		p = next;
	}
	return null;
}

首先获取头节点的元素,然后判断头节点元素是否为空,如果为空,表示另外一个线程已经进行了一次出队操作将该节点的元素取走,如果不为空,则使用CAS的方式将头节点的引用设置成null,如果CAS成功,则直接返回头节点的元素,如果不成功,表示另外一个线程已经进行了一次出队操作更新了head节点,导致元素发生了变化,需要重新获取头节点。

Java中的阻塞队列

什么是阻塞队列

阻塞队列(BlockingQueue)是一个支持两个附加操作的队列,这两个附加的操作支持阻塞的插入和移除方法。

  1. 支持阻塞的插入方法:意思是当队列满时,队列会阻塞插入元素的线程,直到队列不满。
  2. 支持阻塞的移除方法:意思是当队列空时,获取元素的线程会等待队列变为非空。
    阻塞队列不可用时,这两个附加操作提供了4中处理方式:
方法/处理方式抛出异常返回特殊值一直阻塞超时退出
插入方法add(e)offer(e)put(e)offer(e, time, unit)
移除方法remove()poll()take()poll(time, unit)
检查方法element()peek()不可用不可用
  • 抛出异常:当队列满时,如果再往队列里插入元素,会抛出IllegalStateException(“Queue full”)异常。当队列空时,从队列里获取元素会抛出NoSuchElementException异常。
  • 返回特殊值:当往队列插入元素时,会返回元素是否插入成功,成功返回true。如果是移除方法,则是从队列里取出一个元素,如果没有则返回null。
  • 一直阻塞:当阻塞队列满时,如果生产者线程往队列里put元素,队列会一直阻塞生产者线程,直到队列可用或者响应中断退出。当队列空时,如果消费者线程从队列里take元素,队列会阻塞住消费者线程,直到队列不为空。
  • 超时退出:当阻塞队列满时,如果生产者线程往队列里插入元素,队列会阻塞生产者线程一段时间,如果超过了指定的时间,生产者线程就会退出。

如果是无界阻塞队列,队列不可能会出现满的情况,所以使用put或offer方法永远不会被阻塞,而且使用offer方法时,该方法永远返回true。

Java里的阻塞队列

JDK7提供了7个阻塞队列:

  1. ArrayBlockingQueue:一个由数据结构组成的有界阻塞队列

ArrayBlockingQueue是一个用数组实现的有界阻塞队列。此队列按照先进先出的原则对元素进行排序。默认情况下不保证线程公平的访问队列,所谓公平访问队列是指阻塞的线程,可以按照阻塞的先后顺序访问队列,即先阻塞线程先访问队列。非公平性是对先等待的线程非公平的,当队列可用时,阻塞的线程都可以争夺访问队列的资格,有可能先阻塞的线程最后才访问队列。为了保证公平性,通常会降低吞吐量。

ArrayBlockingQueue fairQueue = new ArrayBlockingQueue(1000, true);

实现原理(可重入锁):

public ArrayBlockingQueue(int capacity, boolean fair){
	if(capacity <= 0)
		throw new IllegalArgumentException();
	this.items = new Object[capacity];
	lock = new ReentrantLock(fair);
	notEmpty = lock.newCondition();
	notFull = lock.newCondition();
}
  1. LinkedBlockingQueue:一个由链表结构组成的无界阻塞队列

LinkedBlockingQueue是一个用链表实现的有界阻塞队列。此队列的默认和最大长度为Integer.MAX_VALUE。此队列按照先进先出的原则对元素进行排序。

  1. PriorityBlockingQueue:一个支持优先级排序的无界阻塞队列

PriorityBlockingQueue是一个支持优先级的无界阻塞队列。默认情况下元素采取自然顺序升序排列。也可以自定义类实现compartTo()方法来指定元素排序规则,或者初始化PriorityBlockingQueue时,指定构造参数Comparator来对元素进行排序。不能保证同优先级的元素的顺序

  1. DelayQueue:一个使用优先级队列实现的无界阻塞队列

DelayQueue是一个支持延时获取元素的无界阻塞队列。队列使用ProrityQueue来实现。队列中的元素必须实现Delayed接口,在创建元素时可以指定多久才能从队列中获取当前元素。只有在延迟期满时才能从队列中提取元素。

应用场景:

缓存系统的设计:可以用DelayQueue保存缓存元素的有效期,使用一个线程循环查询DelayQueue,一旦能从DelayQueue中获取元素时,表示缓存有效期到了。
定时任务调度:使用DelayQueue保存当天将会执行的任务和执行时间,一旦从DelayQueue中获取到任务就开始执行,比如TimerQueue就是使用DelayQueue实现的。

  1. SynchronousQueue:一个不存储元素的阻塞队列

SynchronousQueue是一个不存储元素的阻塞队列。每一个put操作必须等待一个take操作,否则不能继续添加元素。它支持公平访问队列。默认情况下线程采用非公平性策略访问队列。使用以下构造方法可以创建公平性访问的SynchronousQueue,如果设置为true,则等待的线程会采用先进先出的顺序访问队列。

public SynchronousQueue(boolean fair){
	transfer = fair ? new TransferQueue() : new TransferStack();
}

队列本身不存储元素,非常适合传递性场景。SynchronousQueue的吞吐量高于LinkedBlockingQueue和ArrayBlockingQueue。

  1. LinkedTransferQueue:一个由链表结构组成的无界阻塞队列

LinkedTransferQueue是一个由链表结构组成的无界阻塞TransferQueue队列。相对于其他阻塞队列,LinkedTransferQueue多了tryTransfer和transfer方法。
(1)transfer方法
如果当前有消费者正在等待接收元素 (消费者使用take()方法或带时间限制的poll()方法时),transfer方法可以把生产者传入的元素立刻transfer(传输)给消费者。如果没有消费者在等待接收元素,transfer方法会将元素存放在队列的tail节点,并等待该元素被消费者消费了才返回。transfer方法的关键代码如下。

Node pred = tryAppend(s, haveData);
return awaitMatch(s, pred, e, (how == TIMED), nanos);

第一行代码是试图把存放在当前元素的s节点作为tail节点。第二行代码是让CPU自旋等待消费者来消费元素。因为自旋会消耗CPU,所以自旋一定的次数后使用Thread.yield()方法来暂停当前正在执行的线程,并执行其他线程。
(2)tryTransfer方法
tryTransfer方法是用来试探生产者传入的元素是否能够直接传给消费者的。如果没有消费者等待接收元素,就返回false。和transfer方法的区别是tryTransfer方法无论消费者是否接收,方法立即返回,而transfer方法是必须等到消费者消费了才返回。
对于带有时间限制的tryTransfer(E e, long timeout, TimeUnit unit)方法,试图把生产者传入的元素直接传给消费者,但是如果没有消费者消费该元素则等指定的时间再返回,如果超时还没有消费元素,则返回false,如果在超时时间内消费了元素,则返回true。

  1. LinkedBlockingDeque:一个由链表结构组成的双向阻塞队列

LinkedBlockingDeque是一个由链表结构组成的双向阻塞队列。所为双向队列指的是可以从队列的两端插入和移出元素。双向队列因为多了一个操作队列的入口,在多线程入队时,也就少了一半的竞争。相比其他的阻塞队列,LinkedBlockingDeque多了addFirst、addLast、offerFirst、offerLast、peekFirst、peekLast等方法,以First结尾的方法,表示插入、获取(peek)或移除双端队列的第一个元素。以Last单词结尾的方法,表示插入、获取或移除双端队列的最后一个元素。另外,插入方法add等同于addLast,移除方法remove等效于removeFirst。但是take方法却不等同于takeFirst(此处不确定),使用时还是带有First和Last后缀的方法更清楚。
在初始化LinkedBlockingDeque时可以设置容量防止其过度膨胀。另外,双向阻塞队列可以用在“工作窃取”模式中。

阻塞队列的实现原理

使用通知模式实现。所谓通知模式,就是当生产者往满的队列里添加元素时会阻塞住生产者,当消费者消费了一个队列中的元素后,会通知生产者当前队列可用。示例如下:

private final Condition notFull;
private final Condition notEmpty;

public ArrayBlockingQueue(int capacity,boolean fair){
	// 省略其他代码
	notEmpty = lock.newCondition();
	notFull = lock.enwCondition();
}

public void put(E e) throws InterruptedException{
	checkNotNull(e);
	final ReentrantLock lock = this.lock;
	lock.lockInterruptibly();
	try{
		while(count == items.length)
			notFull.await();
		insert(e);
	} finally{
		lock.unlock;
	}
}

public E take() throws InterruptedException{
	final ReentrantLock lock = this.lock;
	lock.lockInterruptibly();
	try{
		while(count == 0)
			notEmpty.await();
		return extract();
	} finally{
		loock.unlock();
	}
}

private void insert(E x){
	items[putIndex] = x;
	putIndex = inc(putIndex);
	++count;
	notEmpty.signal();
}

当往队列里插入一个元素时,如果队列不可用,那么阻塞生产者主要通过LockSupport.park(this)来实现。

public final void awawit() throws InterruptedException{
	if(Thread.interrupted())
		throw new InterruptedException();
	Node node  = addConditionWaiter();
	int savedState = fullyRelease(node);
	int interruptMode = 0;
	while(!isOnSyncQueue(node)){
		LockSupport.park(this);
		if((interruptMode = checkInterruptWhileWaiting(node)) != 0)
			break;
	}
	if(acquireQueued(node, savedState) && interruptMode != THROW_IE)
		interruptMode = REINTERRUPT;
	if(node.nextWaiter != null)// clean up if cancelled
		unlinkCancelledWaiters();
	if(interruptMode != 0)
		reportInterruptAfterWait(interruptMode);
}

调用setBlocker先保存一下将要阻塞的线程,然后调用unsafe.park阻塞当前线程。

public static void park(Object blocker){
	Thread t = Thread.currentThread();
	setBlocker(t, blocker);
	unsafe.park(false, 0L);
	setBlocker(t, null);
}

unsafe.park是个native方法,代码如下。

public native void park(boolean isAbsolute, long time);

park会阻塞当前线程,只有以下4种情况中的一种发生时,该方法才会返回

  • 与park对应的unpark执行或已经执行时。“已经执行”是指unpark先执行,然后再执行park的情况。
  • 线程被中断时。
  • 等待完time参数指定的毫秒数时。
  • 异常现象发生时,这个异常现象没有任何原因。

Fork/Join框架

什么是Fork/Join框架

Fork/Join框架是Java7提供的一个用于并行执行任务的框架,是一个把大任务分割成若干个小任务,最终汇总每个小任务结果后得到大任务结果的框架。

工作窃取算法

工作窃取算法是指某个线程从其他队列里窃取任务来执行。多线程情况下有些线程完成任务快,此时可以帮助其他线程干活,这时会访问同一个队列,为了减少窃取任务线程和被窃取任务线程之间的竞争,通常会使用双端队列,被窃取任务线程永远从双端队列的头部拿任务,而窃取任务的线程永远从双端队列的尾部拿任务执行。

优点:充分利用线程进行并行计算,减少了线程间的竞争
缺点:在某些情况下还是存在竞争,比如双端队列里只有一个任务时,并且该算法会消耗了更多的系统资源,比如创建多个线程和多个双端队列。

Fork/Join框架的设计

  1. ForkJoinTask:我们要使用ForkJoin框架,必须首先创建一个ForkJoin任务。它提供在任务中执行fork()和join()操作的机制。通常情况下,我们不需要直接继承ForkJoinTask类,只需要继承它的子类,Fork/Join框架提供了以下两个子类。

RecursiveAction:用于没有返回结果的任务
RecursiveTask:用于有返回结果的任务

2.ForkJoinPool:ForkJoinTask需要通过ForkJoinPool来执行。任务分割出的子任务会添加到当前工作线程所维护的双端队列中,进入队列的头部。当一个工作线程的队列里暂时没有任务时,它会随机从其他工作线程的队列的尾部获取一个任务。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值