10分钟搞定 Java 并发队列好吗?好的

开发 后端
在【并发系列】中,主要讲解了 执行者与线程池,同步工具,锁 , 在分析源码时,或多或少的提及到了「队列」,队列在 JUC 中也是多种多样存在,所以本文就以「远看」视角,帮助大家快速了解与区分这些看似「杂乱」的队列。

前言

如果按照用途与特性进行粗略的划分,JUC 包中包含的工具大体可以分为 6 类:

  1. 执行者与线程池
  2. 并发队列
  3. 同步工具
  4. 并发集合
  5. 原子变量

在【并发系列】中,主要讲解了 执行者与线程池,同步工具,锁 , 在分析源码时,或多或少的提及到了「队列」,队列在 JUC 中也是多种多样存在,所以本文就以「远看」视角,帮助大家快速了解与区分这些看似「杂乱」的队列

并发队列

Java 并发队列按照实现方式来进行划分可以分为 2 种:

  1. 阻塞队列
  2. 非阻塞队列

如果你已经看完并发系列锁的实现,你已经能够知道他们实现的区别:

前者就是基于锁实现的,后者则是基于 CAS 非阻塞算法实现的

常见的队列有下面这几种:

 

瞬间懵逼?看到这个没有人性的图想直接走人?客观先别急,一会就柳暗花明了

当下你也许有个问题:

为什么会有这么多种队列的存在?

锁有应对各种情形的锁,队列也自然有应对各种情形的队列了, 是不是也有点单一职责原则的意思呢?

所以我们要了解这些队列到底是怎么设计的?以及用在了哪些地方?

先来看下图

 

如果你在 IDE 中打开以上非阻塞队列和阻塞队列,查看其实现方法,你就会发现,阻塞队列较非阻塞队列 额外支持两种操作:

阻塞的插入

当队列满时,队列会阻塞插入元素的线程,直到队列不满

阻塞的移除

当队列为空时,获取元素的线程会阻塞,直到队列变为非空

综合说明入队/出队操作,看似杂乱的方法,用一个表格就能概括了

 

抛出异常

  • 当队列满时,此时如果再向队列中插入元素,会抛出 IllegalStateException (这很好理解)
  • 当队列空时,此时如果再从队列中获取元素,会抛出 NoSuchElementException (这也很好理解)

返回特殊值

  • 当向队列插入元素时,会返回元素是否插入成功,成功则返回 true
  • 当从队列移除元素时,如果没有则返回 null

一直阻塞

  • 当队列满时,如果生产者线程向队列 put 元素,队列会一直阻塞生产者线程,直到队列可用或者响应中断退出
  • 当队列为空时,如果消费者线程 从队列里面 take 元素,队列会阻塞消费者线程,直到队列不为空

关于阻塞,我们其实早在 并发编程之等待通知机制 就已经充分说明过了,你还记得下面这张图吗?原理其实是一样一样滴

 

超时退出

和锁一样,因为有阻塞,为了灵活使用,就一定支持超时退出,阻塞时间达到超时时间,就会直接返回

至于为啥插入和移除这么多种单词表示形式,我也不知道,为了方便记忆,只需要记住阻塞的方法形式即可:

单词 put 和 take 字母 t 首位相连,一个放,一个拿

到这里你应该对 Java 并发队列有了个初步的认识了,原来看似杂乱的方法貌似也有了规律。接下来就到了疯狂串知识点的时刻了,借助前序章节的知识,分分钟就理解全部队列了

 

ArrayBlockingQueue

之前也说过,JDK中的命名还是很讲究滴,一看这名字,底层就是数组实现了,是否有界,那就看在构造的时候是否需要指定 capacity 值了

填鸭式的说明也容易忘,这些都是哪看到的呢?在所有队列的 Java docs 的第一段,一句话就概括了该队列的主要特性,所以强烈建议大家自己在看源码时,简单瞄一眼 docs 开头,心中就有多半个数了

 

在讲 Java AQS队列同步器以及ReentrantLock的应用 时我们介绍了公平锁与非公平锁的概念,ArrayBlockingQueue 也有同样的概念,看它的构造方法,就有 ReentrantLock 来辅助实现

  1. public ArrayBlockingQueue(int capacity, boolean fair) { 
  2.     if (capacity <= 0) 
  3.         throw new IllegalArgumentException(); 
  4.     this.items = new Object[capacity]; 
  5.     lock = new ReentrantLock(fair); 
  6.     notEmpty = lock.newCondition(); 
  7.     notFull =  lock.newCondition(); 

默认情况下,依旧是不保证线程公平访问队列(公平与否是指阻塞的线程能否按照阻塞的先后顺序访问队列,先阻塞线访问,后阻塞后访问)

到这我也要临时问一个说过多次的面试送分题了:

为什么默认采用非公平锁的方式?它较公平锁方式有什么好处,又可能带来哪些问题?

知道了以上内容,结合上面表格中的方法,ArrayBlockingQueue 就可以轻松过关了

 

和数组相对的自然是链表了

LinkedBlockingQueue

 

LinkedBlockingQueue 也算是一个有界阻塞队列 ,从下面的构造函数中你也可以看出,该队列的默认和最大长度为 Integer.MAX_VALUE ,这也就 docs 说 optionally-bounded 的原因了

  1. public LinkedBlockingQueue() { 
  2.     this(Integer.MAX_VALUE); 
  3.  
  4. public LinkedBlockingQueue(int capacity) { 
  5.   if (capacity <= 0) throw new IllegalArgumentException(); 
  6.   this.capacity = capacity; 
  7.   last = head = new Node<E>(null); 

正如 Java 集合一样,链表形式的队列,其存取效率要比数组形式的队列高。但是在一些并发程序中,数组形式的队列由于具有一定的可预测性,因此可以在某些场景中获得更高的效率

看到 LinkedBlockingQueue 是不是也有些熟悉呢?为什么要使用线程池? 就已经和它多次照面了

创建单个线程池

  1. public static ExecutorService newSingleThreadExecutor() { 
  2.     return new FinalizableDelegatedExecutorService 
  3.         (new ThreadPoolExecutor(1, 1, 
  4.                                 0L, TimeUnit.MILLISECONDS, 
  5.                                 new LinkedBlockingQueue<Runnable>())); 

创建固定个数线程池

  1. public static ExecutorService newFixedThreadPool(int nThreads) { 
  2.     return new ThreadPoolExecutor(nThreads, nThreads, 
  3.                                   0L, TimeUnit.MILLISECONDS, 
  4.                                   new LinkedBlockingQueue<Runnable>()); 

面试送分题又来了

使用 Executors 创建线程池很简单,为什么大厂严格要求禁用这种创建方式呢?

PriorityBlockingQueue

PriorityBlockingQueue 是一个支持优先级的无界的阻塞队列,默认情况下采用自然顺序升序排列,当然也有非默认情况自定义优先级,需要排序,那自然要用到 Comparator 来定义排序规则了

 

可以定义优先级,自然也就有相应的限制,以及使用的注意事项

  • 按照上图说明,队列中不允许存在 null 值,也不允许存在不能排序的元素
  • 对于排序值相同的元素,其序列是不保证的,但你可以继续自定义其他可以区分出来优先级的值,如果你有严格的优先级区分,建议有更完善的比较规则,就像 Java docs 这样
  1. class FIFOEntry<E extends Comparable<? super E>> 
  2.     implements Comparable<FIFOEntry<E>> { 
  3.   static final AtomicLong seq = new AtomicLong(0); 
  4.   final long seqNum; 
  5.   final E entry; 
  6.   public FIFOEntry(E entry) { 
  7.     seqNum = seq.getAndIncrement(); 
  8.     this.entry = entry; 
  9.   } 
  10.   public E getEntry() { return entry; } 
  11.   public int compareTo(FIFOEntry<E> other) { 
  12.     int res = entry.compareTo(other.entry); 
  13.     if (res == 0 && other.entry != this.entry) 
  14.       res = (seqNum < other.seqNum ? -1 : 1); 
  15.     return res; 
  16.   } 
  • 队列容量是没有上限的,但是如果插入的元素超过负载,有可能会引起OutOfMemory异常(这是肯定的),这也是为什么我们通常所说,队列无界,心中有界
  • PriorityBlockingQueue 也有 put 方法,这是一个阻塞的方法,因为它是无界的,自然不会阻塞,所以就有了下面比较聪明的做法
  1. public void put(E e) { 
  2.     offer(e); // never need to block  请自行对照上面表格 
  • 可以给定初始容量,这个容量会按照一定的算法自动扩充
  1. // Default array capacity. 
  2. private static final int DEFAULT_INITIAL_CAPACITY = 11; 
  3.  
  4. public PriorityBlockingQueue() { 
  5.     this(DEFAULT_INITIAL_CAPACITY, null); 

这里默认的容量是 11,由于也是基于数组,那面试送分题又来了

你通常是怎样定义容器/集合初始容量的?有哪些依据?

DelayQueue

DelayQueue 是一个支持延时获取元素的无界阻塞队列

  • 是否延时肯定是和某个时间(通常和当前时间) 进行比较
  • 比较过后还要进行排序,所以也是存在一定的优先级

看到这也许觉得这有点和 PriorityBlockingQueue 很像,没错,DelayQueue 的内部也是使用 PriorityQueue

 

上图绿色框线也告诉你,DelayQueue 队列的元素必须要实现 Depayed 接口:

 

所以从上图可以看出使用 DelayQueue 非常简单,只需要两步:

实现 getDelay() 方法,返回元素要延时多长时间

  1. public long getDelay(TimeUnit unit) { 
  2.    // 最好采用纳秒形式,这样更精确 
  3.     return unit.convert(time - now(), NANOSECONDS); 

实现 compareTo() 方法,比较元素顺序

  1. public int compareTo(Delayed other) { 
  2.     if (other == this) // compare zero if same object 
  3.         return 0; 
  4.     if (other instanceof ScheduledFutureTask) { 
  5.         ScheduledFutureTask<?> x = (ScheduledFutureTask<?>)other; 
  6.         long diff = time - x.time
  7.         if (diff < 0) 
  8.             return -1; 
  9.         else if (diff > 0) 
  10.             return 1; 
  11.         else if (sequenceNumber < x.sequenceNumber) 
  12.             return -1; 
  13.         else 
  14.             return 1; 
  15.     } 
  16.     long diff = getDelay(NANOSECONDS) - other.getDelay(NANOSECONDS); 
  17.     return (diff < 0) ? -1 : (diff > 0) ? 1 : 0; 

上面的代码哪来的呢?如果你打开 ScheduledThreadPoolExecutor 里的 ScheduledFutureTask,你就看到了 (ScheduledThreadPoolExecutor 内部就是应用 DelayQueue)

所以综合来说,下面两种情况非常适合使用 DelayQueue

  • 缓存系统的设计:用 DelayQueue 保存缓存元素的有效期,使用一个线程循环查询 DelayQueue,如果能从 DelayQueue 中获取元素,说明缓存有效期到了
  • 定时任务调度:用 DelayQueue 保存当天会执行的任务以及时间,如果能从 DelayQueue 中获取元素,任务就可以开始执行了。比如 TimerQueue 就是这样实现的

SynchronousQueue

 

这是一个不存储元素的阻塞队列,不存储元素还叫队列?

 

没错,SynchronousQueue 直译过来叫同步队列,如果在队列里面呆久了应该就算是“异步”了吧

所以使用它,每个put() 操作必须要等待一个 take() 操作,反之亦然,否则不能继续添加元素

实际中怎么用呢?假如你需要两个线程之间同步共享变量,如果不用 SynchronousQueue 你可能会选择用 CountDownLatch 来完成,就像这样:

  1. ExecutorService executor = Executors.newFixedThreadPool(2); 
  2. AtomicInteger sharedState = new AtomicInteger(); 
  3. CountDownLatch countDownLatch = new CountDownLatch(1); 
  4.  
  5.  
  6.  
  7. Runnable producer = () -> { 
  8.     Integer producedElement = ThreadLocalRandom 
  9.       .current() 
  10.       .nextInt(); 
  11.     sharedState.set(producedElement); 
  12.     countDownLatch.countDown(); 
  13. }; 
  14.  
  15.  
  16.  
  17. Runnable consumer = () -> { 
  18.     try { 
  19.         countDownLatch.await(); 
  20.         Integer consumedElement = sharedState.get(); 
  21.     } catch (InterruptedException ex) { 
  22.         ex.printStackTrace(); 
  23.     } 
  24. }; 

这点小事就用计数器来实现,显然很不合适,用 SynchronousQueue 改造一下,感觉瞬间就不一样了

  1. ExecutorService executor = Executors.newFixedThreadPool(2); 
  2. SynchronousQueue<Integer> queue = new SynchronousQueue<>(); 
  3.  
  4. Runnable producer = () -> { 
  5.     Integer producedElement = ThreadLocalRandom 
  6.       .current() 
  7.       .nextInt(); 
  8.     try { 
  9.         queue.put(producedElement); 
  10.     } catch (InterruptedException ex) { 
  11.         ex.printStackTrace(); 
  12.     } 
  13. }; 
  14.  
  15. Runnable consumer = () -> { 
  16.     try { 
  17.         Integer consumedElement = queue.take(); 
  18.     } catch (InterruptedException ex) { 
  19.         ex.printStackTrace(); 
  20.     } 
  21. }; 

其实 Executors.newCachedThreadPool() 方法里面使用的就是 SynchronousQueue

  1. public static ExecutorService newCachedThreadPool() { 
  2.     return new ThreadPoolExecutor(0, Integer.MAX_VALUE, 
  3.                                   60L, TimeUnit.SECONDS, 
  4.                                   new SynchronousQueue<Runnable>()); 

看到前面 LinkedBlockingQueue 用在 newSingleThreadExecutor 和newFixedThreadPool 上,而newCachedThreadPool 却用 SynchronousQueue,这是为什么呢?

因为单线程池和固定线程池中,线程数量是有限的,因此提交的任务需要在LinkedBlockingQueue队列中等待空余的线程;

而缓存线程池中,线程数量几乎无限(上限为Integer.MAX_VALUE),因此提交的任务只需要在SynchronousQueue 队列中同步移交给空余线程即可, 所以有时也会说SynchronousQueue 的吞吐量要高于 LinkedBlockingQueue 和 ArrayBlockingQueue

LinkedTransferQueue

简单来说,TransferQueue提供了一个场所,生产者线程使用 transfer 方法传入一些对象并阻塞,直至这些对象被消费者线程全部取出。

你有没有觉得,刚刚介绍的 SynchronousQueue 是否很像一个容量为 0 的 TransferQueue。

但 LinkedTransferQueue 相比其他阻塞队列多了三个方法

transfer(E e)如果当前有消费者正在等待消费元素,transfer 方法就可以直接将生产者传入的元素立刻 transfer (传输) 给消费者;如果没有消费者等待消费元素,那么 transfer 方法会把元素放到队列的 tail(尾部)

节点,一直阻塞,直到该元素被消费者消费才返回

  • tryTransfer(E e)

tryTransfer,很显然是一种尝试,如果没有消费者等待消费元素,则马上返回 false ,程序不会阻塞

  • tryTransfer(E e, long timeout, TimeUnit unit)

带有超时限制,尝试将生产者传入的元素 transfer 给消费者,如果超时时间到,还没有消费者消费元素,则返回 false

你瞧,所有阻塞的方法都是一个套路:

  1. 阻塞方式
  2. 带有 try 的非阻塞方式
  3. 带有 try 和超时时间的非阻塞方式

看到这你也许感觉 LinkedTransferQueue 没啥特点,其实它和其他阻塞队列的差别还挺大的:

BlockingQueue 是如果队列满了,线程才会阻塞;但是 TransferQueue 是如果没有消费元素,则会阻塞 (transfer 方法)

这也就应了 Doug Lea 说的那句话:

LinkedTransferQueue is actually a superset of ConcurrentLinkedQueue, SynchronousQueue (in “fair” mode), and unboundedLinkedBlockingQueues. And it’s made better by allowing you to mix and match those features as well as take advantage of higher-performance i mplementation techniques.

简单翻译:LinkedTransferQueue 是ConcurrentLinkedQueue, SynchronousQueue (在公平模式下), 无界的LinkedBlockingQueues等的超集; 允许你混合使用阻塞队列的多种特性

所以,在合适的场景中,请尽量使用LinkedTransferQueue上面都看的是单向队列 FIFO,接下来我们看看双向队列

LinkedBlockingDeque

LinkedBlockingDeque 是一个由链表结构组成的双向阻塞队列,凡是后缀为 Deque 的都是双向队列意思,后缀的发音为deck——/dek/, 刚接触它时我以为是这个冰激凌的发音

 

所谓双向队列值得就是可以从队列的两端插入和移除元素。所以:

双向队列因为多了一个操作队列的入口,在多线程同时入队是,也就会减少一半的竞争

队列有头,有尾,因此它又比其他阻塞队列多了几个特殊的方法

  • addFirst
  • addLast
  • xxxxFirst
  • xxxxLast
  • ... ...

这么一看,双向阻塞队列确实很高效,

那双向阻塞队列应用在什么地方了呢?

不知道你是否听过 “工作窃取”模式,看似不太厚道的一种方法,实则是高效利用线程的好办法。下一篇文章,我们就来看看 ForkJoinPool 是如何应用 “工作窃取”模式的

总结

 

到这关于 Java 队列(其实主要介绍了阻塞队列)就快速的区分完了,将看似杂乱的方法做了分类整理,方便快速理解其用途,同时也说明了这些队列的实际用途。相信你带着更高的视角来阅读源码会更加轻松,最后也希望大家认真看两个队列的源码实现,在遇到队列的问题,脑海中的画面分分钟就可以搞定了

本文转载自微信公众号「 日拱一兵」,可以通过以下二维码关注。转载本文请联系 日拱一兵公众号。

 

责任编辑:武晓燕 来源: 日拱一兵
相关推荐

2021-01-07 08:05:20

JenkinsDevOps

2021-12-01 06:50:50

Docker底层原理

2011-02-21 17:48:35

vsFTPd

2011-05-26 09:03:17

JSONjavascript

2009-11-26 11:19:52

NIS服务器

2021-01-28 10:36:09

Redis扩缩容架构

2009-11-02 08:44:17

Windows 7快速安装

2020-10-29 08:28:42

Java NIO异步非阻塞

2010-03-05 17:28:08

2021-07-15 06:43:11

Bash调试脚本

2021-02-17 00:08:53

Windows 10Windows微软

2013-09-13 14:08:01

2017-09-27 11:00:50

LinuxBash使用技巧

2013-06-24 15:32:41

JPush极光推送Android Pus移动开发

2023-04-12 11:18:51

甘特图前端

2010-11-03 11:01:05

求职面试

2024-10-15 09:18:30

2016-04-06 11:14:48

iOS相机自定义

2020-12-18 07:33:20

SpringSchedule组件

2023-11-30 10:21:48

虚拟列表虚拟列表工具库
点赞
收藏

51CTO技术栈公众号