JVM学习之:HotSpot虚拟机对象探秘

一、对象的创建

对象的创建过程:

虚拟机遇到一条new指令时,首先将先去检查这个指令的参数能否在常量池中定位到一个类的符号引用,并且检查这个符号引用代表的类是否已经被加载、解析和初始化过。如果没有,那必须先执行相应的类加载过程。接着虚拟机将为新生对象分配内存。对象所需的内存大小在类加载的完成后即可完全确定,为对象分配空间的任务就是把一块确定大小的内存从Java中划分出来。

  • 指针碰撞

    假设Java堆中的内存时绝对规整的,所有用过的内存都放在一遍,空闲的内存放在一遍,中间放着一个指针作为分界线,当你需要为一个对象分配内存空间的时候,只需要把这个指针往空闲的区域挪一点点即可。

    Java堆中的内存时绝对规整的——这个条件是很苛刻的,一开始运行程序的时候我们可以规整(按顺序)为数据分配内存,但是在程序的运行过程中,有一些数据被删除,释放出原来的空间,这样子内存空间就变得不规整了。

  • 空闲列表

    如果Java堆中的内存是不规整的,即已使用过的内存和空闲的内存相互交错,那么我们就需要一个表来记录哪些区域是存有数据的,哪些区域是空闲可用的。当需要给新数据分配空间的时,就查询这个空闲列表,找到一块足够大的空间划分给对象实例,并更新列表上的记录。

    具体选择哪种分配方式由Java堆是否规整决定,而Java堆是否规整又由相应的垃圾收集器是否带有压缩整理功能决定。因此,在使用Serial、ParNew等待Compact过程的收集器时,系统采用的分配算法时指针碰撞,而使用CMS这种基于Mark-Sweep算法的收集器时,通常采用空闲列表。

线程安全问题:

对象创建在虚拟机中时非常频繁的行为,即使是仅仅修改一个指针所指向的位置,在并发的情况下也不是线程安全的,可能出现正在给对象A分配内存,指针还没来得及修改,对象B又同时使用了原来的指针来分配内存的情况。

解决方案有两个:

  • 对分配内存空间的动作进行同步处理——实际上虚拟机采用CAS配上失败重试的方式保证更新操作的原子性;(同步:发送一个请求,等待返回,然后再发送下一个请求
    异步:发送一个请求,不等待返回,随时可以再发送下一个请求同步处理:假设有两个数据相同的数据源。若一个数据源的数据经过添加、修改、删除等操作发生了改变,那么为了使两个数据源的数据保持一致,我们要让一个数据源改变后的数据反映到另一个上,就必须进行一个让两个数据源的数据保持一致的操作,也就是同步处理。)

  • 把内存分配的动作按照线程划分在不同的空间之中进行,即每个线程在Java堆中预先分配一小块内存,称为本地线程分配缓存。哪个线程要分配内存,就在哪个线程的TLAB上分配,只有TLAB用完并分配新的TLAB时,才需要同步锁定。虚拟机是否使用TLAB,可以通过-XX:+/-UserTLAB参数来设定。

    现在我们的内存分配完成了,虚拟机需要将分配到的内存空间都初始化为零值(不包括对象头——对象头包含了对象很多的基本信息),如果使用TLAB,这一工作过程也可以提前至TLAB分配时进行。——作用:这一步操作保证了对象的实例字段在Java代码中可以不赋初始值就直接使用,程序能访问到这些字段的数据类型所对应的零值。接着,虚拟机会对对象进行必要的设置,例如这个对象是哪个类的实例、如何才能找到类的元数据信息、对象的哈希码等信息。

    在这些工作完成后,从虚拟机的角度看,一个新的对象那个已经产生了,但从Java程序的视角来看,对象创建才刚刚开始——方法还没执行,所有的字段都还是零值。一般来说,执行new指令之后会接着执行方法,把对象按照程序的意愿进行初始化,这样一个真正可用的对象才算完全生产出来了。流程图如下:

在这里插入图片描述

二、对象的内存布局

对象在内存中存储的区域布局可以分为三块区域:对象头(Header)、实例数据(Instance Data)和对其填充(Padding)。

对象头包含的信息

  • 第一部分用于存储对象自身的运行时数据,如哈希码、GC分代年龄、锁状态标志、线程持有的锁、偏向线程的ID、偏向时间戳等。考虑到虚拟机的空间效率,Mark Word被设计成一个非固定的数据结构以便在极小的空间中存储尽量多的信息,它会根据对象的状态复用自己的存储空间。
  • 另一部分是类型指针,即对象指向它的类元数据的指针,虚拟机通过这个指针来确定这个对象是哪个类的实例。并不是所有的虚拟机实现都必须在对象数据上保留类型指针。换句话说,查找对象的元数据信息并不一定要经过对象本身。(如果对象是一个Java数组,那在对象头信息中还必须要有一块用于记录数组长度的数据,因为虚拟机可以通过普通java对象的元数据信息确定java对象的大小,但是从数组的元数据中却无法确定数组的大小)。

实例数据:

对象真正存储的有效信息,也是在程序代码中所定义的各种类型的字段内容,无论是从父类继承下来的,还是在子类中定义的,都需要记录起来。存储顺序会受两个因素影响

  • 虚拟机分配策略参数HotSpot虚拟机的分配策略——相同宽度的字段总是被分配到一起。
  • 和字段在代码中定义顺序的影响——在满足前一个条件的情况下,在父类中定义的变量会出现在子类之前,如果CompactFields的参数值为true(默认为true),那么子类中较窄的变量也可能会插入到父类变量的空隙中。

对齐填充:

并不是必然存在的,也没有特别的含义,仅仅是起着占位符的作用。方便读取。

三、对象的访问定位

建立对象是为了使用对象,我们的Java程序需要通过栈上的reference数据来操作堆上的具体对象。目前主流的访问方式有两种:使用句柄和直接访问。

句柄访问:

java堆中会划分出一块内存来作为句柄池。reference中存储就是对象的句柄地址,而句柄中包含了对象实例数据与类型数据各自的具体地址信息。示意图如下

在这里插入图片描述

好处:reference中存储的是稳定的句柄地址,在对象被移动时只会改变句柄中的实例数据指针,而reference本身不用改变

直接指针访问:

java堆对象的布局中必须考虑如何设置访问类型数据的相关信息,而reference中存储的直接就是对象地址。

好处:速度更快,它节省了一次指针定位的时间开销,由于对象的访问在java中非常频繁,因此这类开销积少成多后也是一项非常可观的执行成本。HotSpot使用的就是这种访问方式。示例图如下

在这里插入图片描述

对象类型数据和对象实例数据

对象类型数据就是被虚拟机加载的类信息(即Class信息)。定义了一个类的元数据、它包含的成员等。

【6层】一字型框架办公楼(含建筑结构图、计算书) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
1、资源项目源码均已通过严格测试验证,保证能够正常运行;、 2项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值