说说你对线程池的理解?
首先明确,池化的意义在于缓存,创建性能开销较大的对象,比如线程池、连接池、内存池。预先在池里创建一些对象,使用时直接取,用完就归还复用,使用策略调整池中缓存对象的数量。
Java创建对象,仅是在JVM堆分块内存,但创建一个线程,却需调用os内核API,然后os要为线程分配一系列资源,成本很高,所以线程是一个重量级对象,应避免频繁创建或销毁。
既然这么麻烦,就要避免呀,所以要使用线程池!
一般池化资源,当你需要资源时,就调用申请线程方法申请资源,用完后调用释放线程方法释放资源。但JDK的线程池根本没有申请线程和释放线程的方法。
那到底该如何理解它的设计思想呢?
其实线程池的设计,采用的是生产者-消费者模式:
-
线程池的使用方是生产者
-
线程池本身是消费者
以下简化代码即可显示线程池的基本原理:
JDK线程池最核心的就是ThreadPoolExecutor,看名字,它强调的是Executor,并非一般的池化资源。
为什么都说要手动声明线程池?
虽然JDK的Executors
工具类提供的方法可快速创建线程池。
但阿里有话说:
弊端真的这么严重吗,newFixedThreadPool=OOM?
写段测试代码:
执行不久,出现OOM
Exception in thread "http-nio-30666-ClientPoller"
java.lang.OutOfMemoryError: GC overhead limit exceeded
-
newFixedThreadPool
线程池的工作队列直接new了一个LinkedBlockingQueue -
但其默认构造器是一个
Integer.MAX_VALUE
长度的队列,所以很快Q满
虽然使用newFixedThreadPool
可以固定工作线程数量,但任务队列几乎无界。若任务较多且执行较慢,队列就会快速积压,内存不够,易导致OOM。
newCachedThreadPool也等于OOM?
[11:30:30.487] [http-nio-30666-exec-1] [ERROR] [.a.c.c.C.[.[.[/].[dispatcherServlet]:175 ] - Servlet.service() for servlet [dispatcherServlet] in context with path [] threw exception [Handler dispatch failed; nested exception is java.lang.OutOfMemoryError: unable to create new native thread] with root cause
java.lang.OutOfMemoryError: unable to create new native thread
可见OOM是因为无法创建线程,newCachedThreadPool这种线程池的最大线程数是Integer.MAX_VALUE,也可认为无上限,而其工作队列SynchronousQueue是一个没有存储空间的阻塞队列。
所以只要有请求到来,就必须找到一条工作线程处理,若当前无空闲线程就再创建一个新的。
由于我们的任务需很长时间才能执行完成,大量任务进来后会创建大量线程。而线程是需要分配一定内存空间作为线程栈的,比如1MB,因此无限创建线程必OOM
所以使用线程池,请不要抱任何侥幸,以为只是处理轻量任务,不会造成队列积压或创建大量线程!比如某业务设计用户注册后,就调用短信服务发送短信,发短信接口正常一般在100ms内响应,现在TPS=100的注册量,CachedThreadPool能稳定在占用10个左右线程情况下满足需求。
突然某时间点,短信服务不可用了!而代码里调用短信服务设置的超时又特别长, 比如1min,1min可能已经进来6000个用户的注册请求,产生6000个发短信的任务,需6000个线程,没多久就因为无法再创建新线程导致OOM。
所以阿里才不建议使用Executors:
-
要结合实际并发情况,评估线程池核心参数,确保其工作行为符合预期,关键的也就是设置有界工作队列和数量可控的线程数
-
永远要为自定义的线程池设置有意义名称,以便排查问题
因为当出现线程数量暴增、死锁、CPU负载高、线程执行异常等事故时,往往都需抓取线程栈。有意义的线程名称,就很重要。
注意异常处理
使用线程池,尤其需要注意异常处理,例如通过ThreadPoolExecutor#execute()提交任务时,若任务在执行的过程中出现运行时异常,会导致执行任务的线程终止。
但致命的是任务虽然异常了,但是你却获取不到任何通知,让你有任务都执行很正常的错觉。虽然线程池提供了很多用于异常处理的方法,但最稳妥和简单的方案还是捕获所有异常并具体处理:
线程池的线程管理
-
最简陋的监控
还好有谷歌,一般我们直接利用guava的ThreadFactoryBuilder实现线程池线程的自定义命名即可。
测试线程池管理线程的策略。每次间隔1秒向线程池提交任务,循环20次,每个任务需要10秒才能执行完成。执行发现提交失败的记录,日志就像这样
线程池的拒绝策略
线程池默认的拒绝策略会抛RejectedExecutionException,这是个运行时异常,IDEA不会强制捕获,所以我们也很容易忽略它。
对于采用何种策略,具体要看任务的重要性:
-
若是一些不重要任务,可选择直接丢弃
-
重要任务,可采用降级,比如将任务信息插入DB或MQ,启用一个专门用作补偿的线程池去补偿处理。所谓降级,也就是在服务无法正常提供功能的情况下,采取的补救措施。具体处理方式也看具体场景而不同。
-
当线程数大于核心线程数时,线程等待keepAliveTime后还是无任务需要处理,收缩线程到核心线程数
了解这个策略,有助于我们根据实际的容量规划需求,为线程池设置合适的初始化参数。也可通过一些手段来改变这些默认工作行为,比如: -
声明线程池后立即调用prestartAllCoreThreads,启动所有核心线程
-
传true给allowCoreThreadTimeOut,让线程池在空闲时同样回收核心线程
弹性伸缩的实现
线程池是先用Q存放来不及处理的任务,满后再扩容线程池。当Q设置很大时(那个 工具类),最大线程数这个参数就没啥意义了,因为队列很难满或到满时可能已OOM,更没机会去扩容线程池了。
是否能让线程池优先开启更多线程,而把Q当成后续方案?比如我们的任务执行很慢,需要10s,若线程池可优先扩容到5个最大线程,那么这些任务最终都可以完成,而不会因为线程池扩容过晚导致慢任务来不及处理。
难题在于:
-
线程池在工作队列满时,会扩容线程池
重写队列的offer,人为制造该队列满的条件 -
改变了队列机制,达到最大线程后势必要触发拒绝策略
实现一个自定义拒绝策略,这时再把任务真正插入队列
Tomcat就实现了类似的“弹性”线程池。
务必确认清楚线程池本身是不是复用的。
某线上服务,运维监控偶尔报警线程数过多,超过2000,收到告警后查看监控,发现瞬时线程数比较多但过一会儿又会降下来,线程数抖动厉害,但应用访问量变化不大。
于是,在线程数较高时抓取线程栈,发现内存中有1000多个自定义线程池。线程池应该是复用的,有5个以内线程池都基本正常,但上千个线程池肯定不正常!
但代码里也没看到声明了线程池,于是就搜索execute关键字,定位到原来业务代码调用了一个类库:
该类库竟然每次都创建一个新的线程池。
newCachedThreadPool会在需要时创建必要多的线程,业务代码的一次业务操作会向线程池提交多个慢任务,这样执行一次业务操作就会开启多个线程。如果业务操作并发量较大的话,的确有可能一下子开启几千个线程。
那为何监控中看到线程数量会下降,而不OOM?
newCachedThreadPool的核心线程数是0,而keepAliveTime是60s,所以60s后所有线程都可回收。
那这如何修复呢?
使用static字段存放线程池引用。
线程池的意义在于复用,就意味着程序应该始终使用一个线程池吗?
不是的。要根据任务优先级指定线程池的核心参数,包括线程数、回收策略和任务队列。
业务代码使用线程池异步处理一些内存中的数据,但监控发现处理得很慢,整个处理过程都是内存中的计算不涉及I/O操作,也需要数s处理时间,CPU占用也不高。
最终排查发现业务代码使用的线程池,还被一个后台文件批处理任务用了。
这文件批处理程序,在程序启动后通过一个线程开启死循环逻辑,不断向线程池提交任务,任务的逻辑是向一个文件中写入大量的数据。可以想象,这个线程池中的2个线程任务相当重。
线程池的2个线程始终处活跃状态,队列也基本满。因为开启了CallerRunsPolicy拒绝处理策略,所以当线程满队列满,任务会在提交任务的线程或调用execute方法的线程执行,所以不能认为提交到线程池的任务就一定会被异步处理。
若使用CallerRunsPolicy,就有可能异步任务变同步执行。业务代码复用这样的线程池来做内存计算就麻烦了。
-
向线程池提交一个简单任务
-
简单压测TPS为85,性能差
问题没这么简单。原来执行I/O任务的线程池使用CallerRunsPolicy,所以直接使用该线程池进行异步计算,当线程池饱和的时候,计算任务会在执行Web请求的Tomcat线程执行,这时就会进一步影响到其他同步处理的线程,甚至造成整个应用程序崩溃。
如何修正?
使用独立线程池处理这种“计算型任务”。
模拟代码执行的是休眠操作,并不属于CPU绑定的操作,更类似I/O绑定的操作,若线程池线程数设置太小会限制吞吐能力:
-
使用单独的线程池改造代码后再来测试一下性能,TPS提高到1683
所以盲目复用线程池的问题在于,别人定义的线程池属性不一定适合你的任务!
最后再提一个 Java 8的parallel stream
可方便并行处理集合中的元素,共享同一ForkJoinPool,默认并行度是CPU核数-1。对于CPU绑定的任务,使用这样的配置较合适,但若集合操作涉及同步I/O操作(比如数据库操作、外部服务调用),建议自定义一个ForkJoinPool(或普通线程池)。