BlockQueue的使用

BlockingQueue详解
    阻塞队列,顾名思义,首先它是一个队列,
    
    常用的队列主要有以下两种:
        先进先出(FIFO):先插入的队列的元素也最先出队列,类似于排队的功能。
            从某种程度上来说这种队列也体现了一种公平性。
          后进先出(LIFO):后插入队列的元素最先出队列,这种队列优先处理最近发生的事件。

    阻塞队列的核心就是生产者和消费着
        当队列中没有数据的情况下,消费者端的所有线程都会被自动阻塞(挂起),直到有数据放入队列
        队列中填满数据的情况下,生产者端的所有线程都会被自动阻塞(挂起),直到队列中有空的位置,线程被自动唤醒。

    
    BlockingQueue的核心方法:
        放入数据:    
        offer(anObject):表示如果可能的话,将anObject加到BlockingQueue里,即如果BlockingQueue可以容纳,
            则返回true,否则返回false.(本方法不阻塞当前执行方法的线程)
        offer(E o, long timeout, TimeUnit unit),可以设定等待的时间,如果在指定的时间内,还不能往队列中
            加入BlockingQueue,则返回失败。
        put(anObject):把anObject加到BlockingQueue里,如果BlockQueue没有空间,则调用此方法的线程被阻断
            直到BlockingQueue里面有空间再继续.

        获取数据:
          poll(time):取走BlockingQueue里排在首位的对象,若不能立即取出,则可以等time参数规定的时间,
            取不到时返回null;
          poll(long timeout, TimeUnit unit):从BlockingQueue取出一个队首的对象,如果在指定时间内,
            队列一旦有数据可取,则立即返回队列中的数据。否则知道时间超时还没有数据可取,返回null。
          take():取走BlockingQueue里排在首位的对象,若BlockingQueue为空,阻断进入等待状态直到
            BlockingQueue有新的数据被加入;
          drainTo():一次性从BlockingQueue获取所有可用的数据对象(还可以指定获取数据的个数),
            通过该方法,可以提升获取数据效率;不需要多次分批加锁或释放锁。

    BlockingQueue成员详细介绍
        重点看前两个    
        
        1. ArrayBlockingQueue
            基于数组的阻塞队列实现,在ArrayBlockingQueue内部,维护了一个定长数组,
            以便缓存队列中的数据对象,这是一个常用的阻塞队列,除了一个定长数组外,
            ArrayBlockingQueue内部还保存着两个整形变量,分别标识着队列的头部和尾部在数组中的位置。

            ArrayBlockingQueue在生产者放入数据和消费者获取数据,都是共用同一个锁对象,
            由此也意味着两者无法真正并行运行,这点尤其不同于LinkedBlockingQueue;
            按照实现原理来分析,ArrayBlockingQueue完全可以采用分离锁,从而实现生产者和消费者操作的完全并行运行。
            Doug Lea之所以没这样去做,也许是因为ArrayBlockingQueue的数据写入和获取操作已经足够轻巧,
            以至于引入独立的锁机制,除了给代码带来额外的复杂性外,其在性能上完全占不到任何便宜。
            ArrayBlockingQueue和LinkedBlockingQueue间还有一个明显的不同之处在于,
            前者在插入或删除元素时不会产生或销毁任何额外的对象实例,而后者则会生成一个额外的Node对象。
            这在长时间内需要高效并发地处理大批量数据的系统中,其对于GC的影响还是存在一定的区别。
            而在创建ArrayBlockingQueue时,我们还可以控制对象的内部锁是否采用公平锁,默认采用非公平锁。

        2. LinkedBlockingQueue
            基于链表的阻塞队列,同ArrayListBlockingQueue类似,其内部也维持着一个数据缓冲队列(该队列由一个链表构成),
            当生产者往队列中放入一个数据时,队列会从生产者手中获取数据,并缓存在队列内部,而生产者立即返回;
            只有当队列缓冲区达到最大值缓存容量时(LinkedBlockingQueue可以通过构造函数指定该值),才会阻塞生产者队列,
            直到消费者从队列中消费掉一份数据,生产者线程会被唤醒,反之对于消费者这端的处理也基于同样的原理。
            而LinkedBlockingQueue之所以能够高效的处理并发数据,还因为其对于生产者端和消费者端分别采用了独立的锁来控制数据同步,
            这也意味着在高并发的情况下生产者和消费者可以并行地操作队列中的数据,以此来提高整个队列的并发性能。
            
            作为开发者,我们需要注意的是,如果构造一个LinkedBlockingQueue对象,而没有指定其容量大小,
            LinkedBlockingQueue会默认一个类似无限大小的容量(Integer.MAX_VALUE),

            这样的话,如果生产者的速度一旦大于消费者的速度,也许还没有等到队列满阻塞产生,系统内存就有可能已被消耗殆尽了。


例子:生产者与消费者
				package test;

				import java.util.Random;
				import java.util.concurrent.BlockingQueue;
				import java.util.concurrent.TimeUnit;
				import java.util.concurrent.atomic.AtomicInteger;

				public class Producer implements Runnable {

					private volatile boolean isRunning = true;
					private BlockingQueue queue;
					private static AtomicInteger count = new AtomicInteger();
					private static final int DEFAULT_RANGE_FOR_SLEEP = 1000;
					
					public Producer(BlockingQueue queue){
						this.queue = queue;
					}
					
					@Override
					public void run() {
						String data = null;
						Random r = new Random();
						
						System.out.println("====启动生产者====");
						try{
							while(isRunning){
								System.out.println("====正在生产数据====");
								Thread.sleep(r.nextInt(DEFAULT_RANGE_FOR_SLEEP));
								
								data = "data:" + count.incrementAndGet();
								if(!queue.offer(data, 2, TimeUnit.SECONDS)){
									System.out.println("放入数据失败:"+data);
									continue;
								}
								
								System.out.println("将数据:" + data + "放入队列...");
								
							}
						}catch(InterruptedException e){
							e.printStackTrace();
							Thread.currentThread().interrupt();
						}finally{
							System.out.println("====退出生产者线程====");
						}
					}
					
					public void stop(){
						isRunning = false;
					}
					
				}

				package test;

				import java.util.Random;
				import java.util.concurrent.BlockingQueue;
				import java.util.concurrent.TimeUnit;

				public class Consumer implements Runnable{
					
					private BlockingQueue<String> queue;
					private static final int DEFAULT_RANGE_FOR_SLEEP = 1000;
					
					public Consumer(BlockingQueue<String> queue){
						this.queue = queue;
					}

					@Override
					public void run() {
						System.out.println("====启动消费者线程!====");
						Random r = new Random();
						boolean isRunning = true;
						
						try{
							while(isRunning){
								System.out.println("====从队列获取数据====");
								String data = queue.poll(2, TimeUnit.SECONDS);
								if(null != data){
									System.out.println("拿到数据:"+data);
									System.out.println("消费数据:"+data);
									Thread.sleep(r.nextInt(DEFAULT_RANGE_FOR_SLEEP));
								}else{
									isRunning = false;
								}
							}
						}catch(InterruptedException e){
							e.printStackTrace();
							Thread.currentThread().interrupt();
						}finally{
							System.out.println("====退出消费者线程!====");
						}
					}
					
				}

				package test;

				import java.util.concurrent.BlockingQueue;
				import java.util.concurrent.ExecutorService;
				import java.util.concurrent.Executors;
				import java.util.concurrent.LinkedBlockingQueue;


				public class Test {

					public static void main(String[] args) throws InterruptedException {
						BlockingQueue<String> queue = new LinkedBlockingQueue<String>(10);
						
						Producer producer1 = new Producer(queue);
						Producer producer2 = new Producer(queue);
						Producer producer3 = new Producer(queue);
						Consumer consumer = new Consumer(queue);
						
						ExecutorService service = Executors.newCachedThreadPool();
						service.execute(producer1);
					service.execute(producer2);
					service.execute(producer3);
					service.execute(consumer);

					Thread.sleep(10 * 1000); //生产者执行10m
					producer1.stop();
					producer2.stop();
					producer3.stop();
					
					Thread.sleep(2000);
					
					//退出Executor
					service.shutdown();
					}
				}
3. DelayQueue
            DelayQueue中的元素只有当其指定的延迟时间到了,才能够从队列中获取到该元素。
            DelayQueue是一个没有大小限制的队列,因此往队列中插入数据的操作(生产者)永远不会被阻塞,
            而只有获取数据的操作(消费者)才会被阻塞。
            
            使用场景:
              DelayQueue使用场景较少,但都相当巧妙,常见的例子比如使用一个DelayQueue来管理一个超时未响应的连接队列。

        4. PriorityBlockingQueue
            基于优先级的阻塞队列(优先级的判断通过构造函数传入的Compator对象来决定),
            但需要注意的是PriorityBlockingQueue并不会阻塞数据生产者,
            而只会在没有可消费的数据时,阻塞数据的消费者。
            因此使用的时候要特别注意,生产者生产数据的速度绝对不能快于消费者消费数据的速度,
            否则时间一长,会最终耗尽所有的可用堆内存空间。在实现PriorityBlockingQueue时,内部控制线程同步的锁采用的是公平锁。

        5. SynchronousQueue
            种无缓冲的等待队列,类似于无中介的直接交易,有点像原始社会中的生产者和消费者,
            生产者拿着产品去集市销售给产品的最终消费者,而消费者必须亲自去集市找到所要商品的直接生产者,
            如果一方没有找到合适的目标,那么对不起,大家都在集市等待。相对于有缓冲的BlockingQueue来说,
            少了一个中间经销商的环节(缓冲区),如果有经销商,生产者直接把产品批发给经销商,
            而无需在意经销商最终会将这些产品卖给那些消费者,由于经销商可以库存一部分商品,因此相对于直接交易模式,
            总体来说采用中间经销商的模式会吞吐量高一些(可以批量买卖);但另一方面,又因为经销商的引入,
            使得产品从生产者到消费者中间增加了额外的交易环节,单个产品的及时响应性能可能会降低。

            声明一个SynchronousQueue有两种不同的方式,它们之间有着不太一样的行为。公平模式和非公平模式的区别:
            如果采用公平模式:SynchronousQueue会采用公平锁,并配合一个FIFO队列来阻塞多余的生产者和消费者,从而体系整体的公平策略;
            但如果是非公平模式(SynchronousQueue默认):SynchronousQueue采用非公平锁,同时配合一个LIFO队列来管理多余的生产者和消费者,
            而后一种模式,如果生产者和消费者的处理速度有差距,则很容易出现饥渴的情况,即可能有某些生产者或者是消费者的数据永远都得不到处理。

        小结:
              BlockingQueue不光实现了一个完整队列所具有的基本功能,
            同时在多线程环境下,他还自动管理了多线间的自动等待于唤醒功能,
            从而使得程序员可以忽略这些细节,关注更高级的功能。



  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值