openjdk安装
Project Loom是Hotspot Group赞助的项目之一,旨在向JAVA世界提供高吞吐量和轻量级的并发模型。 在撰写本文时,Loom项目仍在积极开发中,其API可能会更改。
为什么要织机?
每个新项目可能会出现的第一个问题是为什么?为什么我们需要学习新的东西,它对我们有帮助? (如果确实如此)
因此,要专门针对Loom回答这个问题,我们首先需要了解JAVA中现有线程系统如何工作的基础知识。
JVM内部产生的每个线程在OS内核空间中都有一个一对一的对应线程,并具有自己的堆栈,寄存器,程序计数器和状态。 每个线程的最大部分可能是堆栈,堆栈大小以兆字节为单位,通常在1MB到2MB之间。因此,这些类型的线程在启动和运行时方面都很昂贵。 不可能在一台机器上产生1万个线程并期望它能正常工作。
有人可能会问为什么我们甚至需要那么多线程? 鉴于CPU只有几个超线程。 例如,CPU Internal Core i9总共有16个线程。嗯,CPU并不是您的应用程序使用的唯一资源,任何没有I / O的软件都只会导致全球变暖!一旦线程需要I / O,操作系统便会尝试为其分配所需的资源,并同时调度另一个需要CPU的线程。因此,我们在应用程序中拥有的线程越多,我们可以并行利用这些资源的越多。
一个非常典型的示例是Web服务器。 每台服务器能够在每个时间点处理数千个打开的连接,但是同时处理那么多连接要么需要数千个线程,要么需要异步非阻塞代码(我可能会在接下来的几周内撰写另一篇文章,以解释更多有关异步代码),就像前面提到的,成千上万个OS线程既不是您也不是OS会满意的!
织机如何提供帮助?
作为Project Loom的一部分,引入了一种称为Fiber的新型线程。 光纤也称为虚拟线程,绿色线程或用户线程,因为这些名称暗示完全由VM处理,并且OS甚至都不知道此类线程存在。 这意味着并非每个VM线程都需要在OS级别上具有一个相应的线程! 虚拟线程可能被I / O阻塞或等待从另一个线程获取信号,但是,与此同时,其他虚拟线程也可以利用基础线程!
上图说明了虚拟线程和OS线程之间的关系。 虚拟线程可以简单地被I / O阻塞,在这种情况下,基础线程将被另一个虚拟线程使用。
这些虚拟线程的内存占用量将以千字节为单位,而不是兆字节。 如果需要,可以在生成它们之后扩展它们的堆栈,这样JVM不需要为它们分配大量内存。
因此,既然我们有一种非常轻巧的方式来实现并发,我们就可以重新考虑存在于Java经典线程中的最佳实践。
如今,在Java中实现并发最常用的结构是ExecutorService的不同实现。 它们具有非常方便的API,并且相对易于使用。 执行程序服务具有一个内部线程池,用于根据开发人员定义的特征来控制可以产生多少个线程。 该线程池主要用于限制应用程序创建的OS线程的数量,因为如上所述,它们是昂贵的资源,我们应尽可能地重用它们。 但是现在可以生成轻量级虚拟线程了,我们可以重新考虑使用ExecutorServices的方式。
结构化并发
结构化并发是一种编程范例,是一种编写易于阅读和维护的并发程序的结构化方法。 如果代码对并发任务有明确的入口和出口点,则其主要思想与结构化编程非常相似,与启动可能比当前作用域持续时间更长的并发任务相比,对代码的推理要容易得多!
为了更清楚地了解结构化并发代码的外观,请考虑以下伪代码:
void notifyUser(User user) {
try (var scope = new ConcurrencyScope()) {
scope.submit( () -> notifyByEmail(user));
scope.submit( () -> notifyBySMS(user));
}
LOGGER.info( "User has been notified successfully" );
}
notifyUser方法应该通过电子邮件和SMS通知用户,并且一旦成功完成此方法将记录一条消息。 使用结构化并发,可以保证在两种通知方法都完成后立即写入日志。 换句话说,如果其中所有已启动的并发作业都完成了,则try范围将完成!
注意:为了使示例保持简单,我们假设notifyByEmail和notifyBySMS在上面的示例中,在内部处理所有可能的极端情况,并始终使其通过。
使用JAVA进行结构化并发
在本节中,我将通过一个非常简单的示例说明如何在JAVA中编写结构化并发应用程序,以及Fibers如何帮助扩展应用程序。
我们要解决的问题
想象一下,所有I / O绑定有1万个任务,而每个任务恰好需要100毫秒才能完成。 我们被要求编写一个有效的代码来完成这些工作。
我们使用下面定义的Job类来模仿我们的工作。
public class Job {
public void doIt() {
try {
Thread.sleep(100l);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
第一次尝试
在第一次尝试中,我们使用缓存线程池和OS线程来编写它。
public class ThreadBasedJobRunner implements JobRunner {
@Override
public long run(List<Job> jobs) {
var start = System.nanoTime();
var executor = Executors.newCachedThreadPool();
for (Job job : jobs) {
executor.submit(job::doIt);
}
executor.shutdown();
try {
executor.awaitTermination( 1 , TimeUnit.DAYS);
} catch (InterruptedException e) {
e.printStackTrace();
Thread.currentThread().interrupt();
}
var end = System.nanoTime();
long timeSpentInMS = Util.nanoToMS(end - start);
return timeSpentInMS;
}
}
在此尝试中,我们没有应用Loom项目中的任何内容。 只是一个缓存的线程池,以确保将使用空闲线程,而不是创建新线程。
让我们看看使用此实现可以运行10,000个作业所需的时间。 我使用下面的代码来查找运行速度最快的10个代码。 为简单起见,未使用任何微基准测试工具。
public class ThreadSleep {
public static void main(String[] args) throws InterruptedException {
List<Long> timeSpents = new ArrayList<>( 100 );
var jobs = IntStream.range( 0 , 10000 ).mapToObj(n -> new Job()).collect(toList());
for ( int c = 0 ; c <= 100 ; c++) {
var jobRunner = new var jobRunner = ThreadBasedJobRunner();
var timeSpent = jobRunner.run(jobs);
timeSpents.add(timeSpent);
}
Collections.sort(timeSpents);
System.out.println( "Top 10 executions took:" );
timeSpents.stream().limit( 10 )
.forEach(timeSpent ->
System.out.println( "%s ms" .formatted(timeSpent))
);
}
}
我的机器上的结果是:
执行的前10名:694毫秒695毫秒696毫秒696毫秒696毫秒697毫秒699毫秒700毫秒700毫秒700毫秒
到目前为止,我们有一个代码,在最好的情况下,大约需要700毫秒才能在我的计算机上运行10,000个作业。 让我们这次使用Loom功能实现JobRunner。
第二次尝试(使用光纤)
在使用Fibers或Virtual Threads的实现中,我还将以结构化方式对并发进行编码。
public class FiberBasedJobRunner implements JobRunner {
@Override
public long run(List<Job> jobs) {
var start = System.nanoTime();
var factory = Thread.builder().virtual().factory();
try (var executor = Executors.newUnboundedExecutor(factory)) {
for (Job job : jobs) {
executor.submit(job::doIt);
}
}
var end = System.nanoTime();
long timeSpentInMS = Util.nanoToMS(end - start);
return timeSpentInMS;
}
}
也许关于此实现的第一个值得注意的事情是它的简洁性,如果将其与ThreadBasedJobRunner进行比较,您会发现该代码的行数更少! 主要原因是ExecutorService接口中的新更改现在扩展了Autocloseable ,因此,我们可以在try-with-resources范围中使用它。 所有提交的作业完成后,将执行try块之后的代码。
这正是我们用来在JAVA中编写结构化并发代码的主要结构。
上面代码中的另一个新事物是我们构建线程工厂的新方法。 Thread类有一个称为builder的新静态方法,可用于创建Thread或ThreadFactory 。该行代码正在创建一个创建虚拟线程的线程工厂。
var factory = Thread.builder().virtual().factory();
现在,让我们看看使用此实现可以运行10,000个作业所需的时间。
执行的前10名:121毫秒122毫秒122毫秒123毫秒124毫秒124毫秒124毫秒125毫秒125毫秒125毫秒
鉴于Project Loom仍在积极开发中,并且仍有提高速度的空间,但结果确实很棒。不论是全部还是部分,许多应用都能以最小的努力受益于Fibers! 唯一需要更改的是线程池的线程工厂,仅此而已!
具体来说,在此示例中,应用程序的运行速度提高了约6倍,但是,速度并不是我们在这里获得的唯一结果!
尽管我不想写有关使用Fibers大大减少了的应用程序的内存占用的信息,但是我强烈建议您在这里浏览本文的代码,并比较使用的内存量和每个实现占用的OS线程数! 您可以在此处下载Loom的官方早期试用版。
在接下来的文章中,我将详细介绍Loom引入的其他API项目,以及我们如何将其应用于现实生活中的用例。
请不要犹豫,通过评论与我分享您的反馈意见
翻译自: https://www.javacodegeeks.com/2020/02/openjdk-loom-and-structured-concurrency.html
openjdk安装