类加载过程(通俗易懂)

类的加载过程

  1. 加载:loadclass 加载磁盘上的文件到内存中
  2. 验证:检查文件格式是否正确,元数据验证(语法是否符合Java规范),确定语法含义,保证容器不会产生危害,符号引用验证。
  3. 准备:给静态变量分配内存,赋予默认值
  4. 解析:将二进制数据符号引用替换成直接引用,指向方法区的指针(也就是说和方法区进行使用指针交互)
  5. 初始化:给静态变量赋值(也就是你之前代码里写的int a= 10 ,在这步才把10赋给a)
  6. 使用:就是被调用
  7. 卸载: 就是使用后被回收

类的加载时机(也就是什么时候出发类被加载)

  1. 访问类的实例(new 对象)
  2. 访问类,使用静态变量,对类里的静态变量赋值
  3. 调用类的静态方法
  4. 反射
  5. 初始化类的子类,那么就会先调父类静态->子类静态->父类构造->子类构造
  6. jvm启动标明的启动类,文件名和类名相同

类的加载器(三种加载器)

  1. 根加载器:jdk自带的 jre目录下的lib
  2. 扩展加载:jre/lib下的ext的
  3. 系统加载器:系统变量也就是classpath里的

类加载的双亲委派机制

自下往上检查类是否已经装载,自上往下尝试类加载(自上往下尝试时如果三种加载器都找不到就会报ClassNoFoundException)

**我这里的最上级是根加载器

**还有一类自定义加载器应该是要重写ClassLoader 中的findClass()

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个使用PyTorch实现GPT模型的标准demo,并附有逐行注解和通俗易懂的说明: ```python import torch import torch.nn as nn import torch.optim as optim from transformers import GPT2Tokenizer, GPT2LMHeadModel # 定义GPT模型 class GPT(nn.Module): def __init__(self): super(GPT, self).__init__() self.tokenizer = GPT2Tokenizer.from_pretrained('gpt2') self.model = GPT2LMHeadModel.from_pretrained('gpt2') def forward(self, x): input_ids = self.tokenizer.encode(x, return_tensors='pt') output = self.model.generate(input_ids) decoded_output = self.tokenizer.decode(output[0]) return decoded_output # 初始化GPT模型和优化器 model = GPT() optimizer = optim.Adam(model.parameters(), lr=0.01) # 定义训练数据和目标数据 train_data = "I love NLP" target = "NLP" # 训练模型 num_epochs = 10 for epoch in range(num_epochs): optimizer.zero_grad() output = model(train_data) loss = nn.CrossEntropyLoss()(output, target) loss.backward() optimizer.step() # 生成文本 generated_text = model("I enjoy") print(generated_text) ``` 模型解释和原理技术说明: 1. GPT(Generative Pre-trained Transformer)是一种基于Transformer的语言模型,用于生成文本。 2. 在上述代码中,首先导入了PyTorch库中的`nn.Module`、`nn.CrossEntropyLoss`、`optim.Adam`模块,以及`GPT2Tokenizer`和`GPT2LMHeadModel`模型。 3. 定义了一个GPT模型,继承自`nn.Module`,其中包含了GPT模型的分词器(`GPT2Tokenizer`)和预训练模型(`GPT2LMHeadModel`)。 4. 模型中的`forward`方法定义了模型的前向传播过程,其中使用了分词器对输入进行编码,然后调用预训练模型生成文本。 5. 创建了GPT模型实例和优化器,并从预训练模型中加载了预训练的权重。 6. 定义了训练数据和目标数据,训练数据为一个句子,目标数据为对应的目标文本。 7. 训练模型的循环中,使用优化器进行梯度清零、模型的前向传播、计算损失函数、反向传播和参数更新。 8. 通过调用模型的前向传播方法,传入一个文本作为输入,生成对应的文本。 9. 打印生成的文本。 通过以上代码和解释,一个NLP新手可以了解到: - GPT是一种基于Transformer的语言模型,用于生成文本。 - 在使用PyTorch实现GPT模型时,需要定义一个继承自`nn.Module`的自定义模型。 - 模型中使用`GPT2Tokenizer`对输入进行编码,使用`GPT2LMHeadModel`生成文本。 - 训练模型时,可以从预训练模型中加载预训练的权重。 - 训练完成后,可以通过调用模型的前向传播方法,传入一个文本作为输入,生成对应的文本。 - 通过打印生成的文本,可以查看生成文本的结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值