1、现代计算机理论模型与工作方式
现代计算机理论模型是基于冯-诺依曼计算机模型为基础的。
计算机在运行时,先从内存中取出第一条指令,通过控制器的译码,按照指令的要求,从存储器中取出数据进行指定的运算和逻辑操作等,然后再按照地址将结果送到内存中存储。接下来再取出第二条指令,在控制器的指挥下完成响应操作。以此重复,直至所有的指令都执行完毕。
程序和指令一样存储,按照程序编排顺序,一步步的取出指令,自动地完成指令规定的操作是计算机最基本的工作模型。这一原理最初是由美籍匈牙利数学家冯.诺依曼于1945年提出来的,故称为冯.诺依曼计算机模型。
1.1、计算机五大核心组成0
1.1.1、控制器(Control):
是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访问等
1.1.2、运算器(Datapath):
运算器的功能是对数据进行各种算术运算和逻辑运算,即对数据进行加工处理。
1.1.3、存储器(Memory):
存储器的功能是存储程序、数据和各种信号、命令等信息,并在需要时提供这些信息。
1.1.4、输入(Input system):
输入设备是计算机的重要组成部分,输入设备与输出设备合你为外部设备,简称外设,输入设备的作用是将程序、原始数据、文字、字符、控制命令或现场采集的数据等信息输入到计算机。常见的输入设备有键盘、鼠标器、光电输入机、磁带机、磁盘机、光盘机等。
1.1.5、输出(Output system):
输出设备与输入设备同样是计算机的重要组成部分,它把外算机的中间结果或最后结果、机内的各种数据符号及文字或各种控制信号等信息输出出来。微机常用的输出设备有显示终端CRT、打印机、激光印字机、绘图仪及磁带、光盘机等。
1.2、冯-诺依曼计算机结构模型图
1.3、现代计算机硬件结构原理图
1.3.1、CPU内部结构划分
- 控制单元
- 运算单元
- 存储单元
1.3.2、控制单元
控制单元是整个CPU的指挥控制中心,由指令寄存器IR(Instruction Register)、指令译码器ID(Instruction Decoder)和 操作控制器OC(Operation Controller) 等组成,对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从存储器中取出各条指令,放在指令寄存器IR中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制器OC,按确定的时序,向相应的部件发出微操作控制信号。操作控制器OC中主要包括:节拍脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑。
1.3.3、运算单元
运算单元是运算器的核心。可以执行算术运算(包括加减乘数等基本运算及其附加运算)和逻辑运算(包括移位、逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的,所以它是执行部件。
1.3.4、存储单元
存储单元包括 CPU 片内缓存Cache和寄存器组,是 CPU 中暂时存放数据的地方,里面保存着那些等待处理的数据,或已经处理过的数据,CPU 访问寄存器所用的时间要比访问内存的时间短。 寄存器是CPU内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间的数据传送非常快。采用寄存器,可以减少 CPU 访问内存的次数,从而提高了 CPU 的工作速度。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应的数据;而通用寄存器用途广泛并可由程序员规定其用途。
1.4、计算机硬件多CPU架构:
1.4.1、多CPU
1.4.2、CPU多核
1.4.3、CPU寄存器
1.4.4、CPU缓存
- 一级Cache(L1 Cache)
- 二级Cache(L2 Cache)
- 三级Cache(L3 Cache)
1.4.5、内存
1.5、CPU读取存储器数据过程
- CPU要取寄存器XX的值,只需要一步:直接读取。
- CPU要取L1 cache的某个值,需要1-3步(或者更多):把cache行锁住,把某个数据拿来,解锁,如果没锁住就慢了。
- CPU要取L2 cache的某个值,先要到L1 cache里取,L1当中不存在,在L2里,L2开始加锁,加锁以后,把L2里的数据复制到L1,再执行读L1的过程,上面的3步,再解锁。
- CPU取L3 cache的也是一样,只不过先由L3复制到L2,从L2复制到L1,从L1到CPU。
- CPU取内存则最复杂:通知内存控制器占用总线带宽,通知内存加锁,发起内存读请求,等待回应,回应数据保存到L3(如果没有就到L2),再从L3/2到L1,再从L1到CPU,之后解除总线锁定。
2、多线程环境下存在的问题
2.1、缓存一致性问题
2.2、指令重排序问题
3、什么是线程
3.1、线程的实现可以分为两类:
- 用户级线程(User-Level Thread)
- 内核线线程(Kernel-Level Thread)
3.2、用户空间划分
- 用户空间
- 内核空间
3.2.1、用户线程
3.2.2、内核线程:
3.2.3、Java线程与系统内核线程关系
4、Java线程
4.1、Java创建线程的方式
- new java.lang.Thread().start()
- 使用JNI将一个native thread attach到JVM中
4.1.1、new java.lang.Thread().start()创建线程过程
针对 new java.lang.Thread().start()这种方式,只有调用start()方法的时候,才会真正的在JVM中去创建线程,主要的生命周期步骤有:
- 创建对应的JavaThread的instance
- 创建对应的OSThread的instance
- 创建实际的底层操作系统的native thread
- 准备相应的JVM状态,比如ThreadLocal存储空间分配等
- 底层的native thread开始运行,调用java.lang.Thread生成的Object的run()方法
- 当java.lang.Thread生成的Object的run()方法执行完毕返回后,或者抛出异常终止后,终止native thread
- 释放JVM相关的thread的资源,清除对应的JavaThread和OSThread
4.1.2、JNI
针对JNI将一个native thread attach到JVM中,主要的步骤有:
- 通过JNI call AttachCurrentThread申请连接到执行的JVM实例
- JVM创建相应的JavaThread和OSThread对象
- 创建相应的java.lang.Thread的对象
- 一旦java.lang.Thread的Object创建之后,JNI就可以调用Java代码了
- 当通过JNI call DetachCurrentThread之后,JNI就从JVM实例中断开连接
- JVM清除相应的JavaThread, OSThread, java.lang.Thread对象
4.2、Java线程的生命周期:
5、为什么用到并发?并发会产生什么问题?
在现代多核的CPU的背景下,催生了并发编程的趋势,并发编程的本质其实就是利用多线程技术,通过并发编程的形式可以将多核CPU的计算能力发挥到极致,性能得到提升。除此之外,面对复杂业务模型,并行程序会比串行程序更适应业务需求,而并发编程更能吻合这种业务拆分 。
即使是单核处理器也支持多线程执行代码,CPU通过给每个线程分配CPU时间片来实现这个机制。时间片是CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停地切换线程执行,让我们感觉多个线程是同时执行的,时间片一般是几十毫秒(ms)。
并发不等于并行:并发指的是多个任务交替进行,而并行则是指真正意义上的“同时进行”。实际上,如果系统内只有一个CPU,而使用多线程时,那么真实系统环境下不能并行,只能通过切换时间片的方式交替进行,而成为并发执行任务。真正的并行也只能出现在拥有多个CPU的系统中。
5.1、并发的优点:
- 充分利用多核CPU的计算能力;
- 方便进行业务拆分,提升应用性能;
5.2、并发产生的问题:
- 高并发场景下,导致频繁的上下文切换
- 临界区线程安全问题,容易出现死锁的,产生死锁就会造成系统功能不可用
- 其它
5.3、线程上下文切换过程:
CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这个任务的状态。所以任务从保存到再加载的过程就是一次上下文切换。