ChatGLM的模型架构

ChatGLM的部署微调等,很多资料,不再赘述。

P-tuning V2

以P-Turing V2为例,介绍ChatGLM的网络结构。P-tuning V2方法训练时冻结模型的全部参数,只激活prefix_encoder的参数。

1、prefix encoder

初始化pre_len,代表prompt的最大长度
1)模型的输入为[0, 1, 2, …, pre_len-1],复制, 维度为[B, pre_L]
2) 经prefix_encoder层,输出维度 [B, pre_L, 2*layer_num*E]。layer_num和下面GLMBlock的数量一致。prefix_encoder是embedding层和MLP的组合。
3) 变换维度,令P=维度为[B, pre_L, 2*E]的张量

2、主模型

1)模型输入:[B, L]
2)经embedding层,输出embed:= [B, L, E],E为embedding的维度
3)经过多层GLMBlock层,输出维度[B, L, E]
GLMBlock是一个类Transformer的层,做改变的地方在Attention层。

在第i层,embed经若干变换,可以得到Q、K、V三个张量,维度如下 ( Q , V ) K : [ B , L , h e a d , E / h e a d ] (Q,V)K: [B, L, head, E/head] (Q,V)K:[B,L,head,E/head]
对每个K和V,添加prefix_encoder层的张量P ( V ) K = K + P : [ B , L + p r e _ L , h e a d , E / h e a d ] (V)K=K+P:[B, L+pre\_L, head, E/head] (V)K=K+P:[B,L+pre_L,head,E/head] 后面就是softmax函数那一套,输出张量hidden维度[B, L, E]
令embed=hidden,开启下一轮

4)最后一层的hidden,经layer_norm层,输出 [B, L, E],后面做损失。

在这里插入图片描述

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
chatglm模型保存是将已经训练好的chatglm模型保存到硬盘上,以便在以后的使用中加载模型并进行预测。模型保存对于使用者来说是非常重要的,它可以避免重复训练模型,节省时间和计算资源。 chatglm模型的保存可以通过多种方式实现。一种常用的方法是使用Python的pickle库,它可以将对象序列化为字节流并保存在文件中。在保存chatglm模型时,可以将其包装成一个对象,然后使用pickle将这个对象保存到文件中。需要注意的是,保存的文件应该选择一个合适的地方,以便在以后的使用中能够方便地找到。 另一种常见的保存模型的方法是使用机器学习框架提供的保存函数。例如,在使用TensorFlow框架时,可以使用tf.train.Saver类来保存chatglm模型,该类提供了保存和加载模型的功能。保存后的模型将包含模型架构和训练好的参数,以便在加载模型时可以直接使用。 无论使用哪种方法保存chatglm模型,都应该记住及时更新保存的模型。因为模型在训练过程中会发生变化,重新训练后得到的模型可能性能更好。因此,定期保存模型是一个好的习惯,以确保使用最新的模型。 总之,chatglm模型的保存是将已经训练好的模型保存到硬盘上,以便在以后的使用中加载模型并进行预测。这个过程可以使用Python的pickle库或者机器学习框架的保存函数来实现。及时更新保存的模型可以确保使用最新的模型

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值