**由于不知线程池的bug,某Java程序员叕被祭天

说说你对线程池的理解?

首先明确,池化的意义在于缓存,创建性能开销较大的对象,比如线程池、连接池、内存池。预先在池里创建一些对象,使用时直接取,用完就归还复用,使用策略调整池中缓存对象的数量。

Java创建对象,仅是在JVM堆分块内存,但创建一个线程,却需调用os内核API,然后os要为线程分配一系列资源,成本很高,所以线程是一个重量级对象,应避免频繁创建或销毁。
既然这么麻烦,就要避免呀,所以要使用线程池!

一般池化资源,当你需要资源时,就调用申请线程方法申请资源,用完后调用释放线程方法释放资源。但JDK的线程池根本没有申请线程和释放线程的方法。

那到底该如何理解它的设计思想呢?
其实线程池的设计,采用的是生产者-消费者模式:

  • 线程池的使用方是生产者

  • 线程池本身是消费者

以下简化代码即可显示线程池的基本原理:
图片
JDK线程池最核心的就是ThreadPoolExecutor,看名字,它强调的是Executor,并非一般的池化资源。

为什么都说要手动声明线程池?

虽然JDK的Executors工具类提供的方法可快速创建线程池。
图片
但阿里有话说:
图片

弊端真的这么严重吗,newFixedThreadPool=OOM?

写段测试代码:
图片

执行不久,出现OOM

Exception in thread "http-nio-30666-ClientPoller" 
	java.lang.OutOfMemoryError: GC overhead limit exceeded
  • newFixedThreadPool线程池的工作队列直接new了一个LinkedBlockingQueue
    图片

  • 但其默认构造器是一个Integer.MAX_VALUE长度的队列,所以很快Q满
    图片

虽然使用newFixedThreadPool可以固定工作线程数量,但任务队列几乎无界。若任务较多且执行较慢,队列就会快速积压,内存不够,易导致OOM。

newCachedThreadPool也等于OOM?

[11:30:30.487] [http-nio-30666-exec-1] [ERROR] [.a.c.c.C.[.[.[/].[dispatcherServlet]:175 ] - Servlet.service() for servlet [dispatcherServlet] in context with path [] threw exception [Handler dispatch failed; nested exception is java.lang.OutOfMemoryError: unable to create new native thread] with root cause
java.lang.OutOfMemoryError: unable to create new native thread

可见OOM是因为无法创建线程,newCachedThreadPool这种线程池的最大线程数是Integer.MAX_VALUE,也可认为无上限,而其工作队列SynchronousQueue是一个没有存储空间的阻塞队列。
图片
所以只要有请求到来,就必须找到一条工作线程处理,若当前无空闲线程就再创建一个新的。
由于我们的任务需很长时间才能执行完成,大量任务进来后会创建大量线程。而线程是需要分配一定内存空间作为线程栈的,比如1MB,因此无限创建线程必OOM

所以使用线程池,请不要抱任何侥幸,以为只是处理轻量任务,不会造成队列积压或创建大量线程!比如某业务设计用户注册后,就调用短信服务发送短信,发短信接口正常一般在100ms内响应,现在TPS=100的注册量,CachedThreadPool能稳定在占用10个左右线程情况下满足需求。
突然某时间点,短信服务不可用了!而代码里调用短信服务设置的超时又特别长, 比如1min,1min可能已经进来6000个用户的注册请求,产生6000个发短信的任务,需6000个线程,没多久就因为无法再创建新线程导致OOM。

所以阿里才不建议使用Executors:

  • 要结合实际并发情况,评估线程池核心参数,确保其工作行为符合预期,关键的也就是设置有界工作队列和数量可控的线程数

  • 永远要为自定义的线程池设置有意义名称,以便排查问题
    因为当出现线程数量暴增、死锁、CPU负载高、线程执行异常等事故时,往往都需抓取线程栈。有意义的线程名称,就很重要。

注意异常处理

使用线程池,尤其需要注意异常处理,例如通过ThreadPoolExecutor#execute()提交任务时,若任务在执行的过程中出现运行时异常,会导致执行任务的线程终止。
但致命的是任务虽然异常了,但是你却获取不到任何通知,让你有任务都执行很正常的错觉。虽然线程池提供了很多用于异常处理的方法,但最稳妥和简单的方案还是捕获所有异常并具体处理:
图片

线程池的线程管理

  • 最简陋的监控
    图片

还好有谷歌,一般我们直接利用guava的ThreadFactoryBuilder实现线程池线程的自定义命名即可。

测试线程池管理线程的策略。每次间隔1秒向线程池提交任务,循环20次,每个任务需要10秒才能执行完成。执行发现提交失败的记录,日志就像这样
图片

线程池的拒绝策略

线程池默认的拒绝策略会抛RejectedExecutionException,这是个运行时异常,IDEA不会强制捕获,所以我们也很容易忽略它。
对于采用何种策略,具体要看任务的重要性:

  • 若是一些不重要任务,可选择直接丢弃

  • 重要任务,可采用降级,比如将任务信息插入DB或MQ,启用一个专门用作补偿的线程池去补偿处理。所谓降级,也就是在服务无法正常提供功能的情况下,采取的补救措施。具体处理方式也看具体场景而不同。

  • 当线程数大于核心线程数时,线程等待keepAliveTime后还是无任务需要处理,收缩线程到核心线程数
    了解这个策略,有助于我们根据实际的容量规划需求,为线程池设置合适的初始化参数。也可通过一些手段来改变这些默认工作行为,比如:

  • 声明线程池后立即调用prestartAllCoreThreads,启动所有核心线程
    图片

  • 传true给allowCoreThreadTimeOut,让线程池在空闲时同样回收核心线程
    图片

弹性伸缩的实现

线程池是先用Q存放来不及处理的任务,满后再扩容线程池。当Q设置很大时(那个 工具类),最大线程数这个参数就没啥意义了,因为队列很难满或到满时可能已OOM,更没机会去扩容线程池了。
是否能让线程池优先开启更多线程,而把Q当成后续方案?比如我们的任务执行很慢,需要10s,若线程池可优先扩容到5个最大线程,那么这些任务最终都可以完成,而不会因为线程池扩容过晚导致慢任务来不及处理。

难题在于:

  • 线程池在工作队列满时,会扩容线程池
    重写队列的offer,人为制造该队列满的条件

  • 改变了队列机制,达到最大线程后势必要触发拒绝策略
    实现一个自定义拒绝策略,这时再把任务真正插入队列

Tomcat就实现了类似的“弹性”线程池。

务必确认清楚线程池本身是不是复用的。

某线上服务,运维监控偶尔报警线程数过多,超过2000,收到告警后查看监控,发现瞬时线程数比较多但过一会儿又会降下来,线程数抖动厉害,但应用访问量变化不大。

于是,在线程数较高时抓取线程栈,发现内存中有1000多个自定义线程池。线程池应该是复用的,有5个以内线程池都基本正常,但上千个线程池肯定不正常!

但代码里也没看到声明了线程池,于是就搜索execute关键字,定位到原来业务代码调用了一个类库:
图片
该类库竟然每次都创建一个新的线程池。
图片
newCachedThreadPool会在需要时创建必要多的线程,业务代码的一次业务操作会向线程池提交多个慢任务,这样执行一次业务操作就会开启多个线程。如果业务操作并发量较大的话,的确有可能一下子开启几千个线程。

那为何监控中看到线程数量会下降,而不OOM?

newCachedThreadPool的核心线程数是0,而keepAliveTime是60s,所以60s后所有线程都可回收。

那这如何修复呢?

使用static字段存放线程池引用。
图片

线程池的意义在于复用,就意味着程序应该始终使用一个线程池吗?

不是的。要根据任务优先级指定线程池的核心参数,包括线程数、回收策略和任务队列。

业务代码使用线程池异步处理一些内存中的数据,但监控发现处理得很慢,整个处理过程都是内存中的计算不涉及I/O操作,也需要数s处理时间,CPU占用也不高。
最终排查发现业务代码使用的线程池,还被一个后台文件批处理任务用了。
图片
这文件批处理程序,在程序启动后通过一个线程开启死循环逻辑,不断向线程池提交任务,任务的逻辑是向一个文件中写入大量的数据。可以想象,这个线程池中的2个线程任务相当重。
线程池的2个线程始终处活跃状态,队列也基本满。因为开启了CallerRunsPolicy拒绝处理策略,所以当线程满队列满,任务会在提交任务的线程或调用execute方法的线程执行,所以不能认为提交到线程池的任务就一定会被异步处理。
若使用CallerRunsPolicy,就有可能异步任务变同步执行。业务代码复用这样的线程池来做内存计算就麻烦了。

  • 向线程池提交一个简单任务
    图片

  • 简单压测TPS为85,性能差
    图片

问题没这么简单。原来执行I/O任务的线程池使用CallerRunsPolicy,所以直接使用该线程池进行异步计算,当线程池饱和的时候,计算任务会在执行Web请求的Tomcat线程执行,这时就会进一步影响到其他同步处理的线程,甚至造成整个应用程序崩溃。

如何修正?

使用独立线程池处理这种“计算型任务”。
模拟代码执行的是休眠操作,并不属于CPU绑定的操作,更类似I/O绑定的操作,若线程池线程数设置太小会限制吞吐能力:
图片

  • 使用单独的线程池改造代码后再来测试一下性能,TPS提高到1683
    图片

所以盲目复用线程池的问题在于,别人定义的线程池属性不一定适合你的任务!

最后再提一个 Java 8的parallel stream

可方便并行处理集合中的元素,共享同一ForkJoinPool,默认并行度是CPU核数-1。对于CPU绑定的任务,使用这样的配置较合适,但若集合操作涉及同步I/O操作(比如数据库操作、外部服务调用),建议自定义一个ForkJoinPool(或普通线程池)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值