ChatGLM模型解析:构建智能对话的新框架

ChatGLM的部署微调等,很多资料,不再赘述。

P-tuning V2

以P-Turing V2为例,介绍ChatGLM的网络结构。P-tuning V2方法训练时冻结模型的全部参数,只激活prefix_encoder的参数。

1、prefix encoder

初始化pre_len,代表prompt的最大长度

1)模型的输入为[0, 1, 2, …, pre_len-1],复制, 维度为[B, pre_L]

  1. 经prefix_encoder层,输出维度
    [B, pre_L, 2*layer_num*E]
    。layer_num和下面GLMBlock的数量一致。prefix_encoder是embedding层和MLP的组合。

  2. 变换维度,令
    P
    =维度为[B, pre_L, 2*E]的张量

2、主模型

1)模型输入:[B, L]

2)经embedding层,输出embed:= [B, L, E],E为embedding的维度

3)经过多层GLMBlock层,输出维度[B, L, E]

GLMBlock是一个类Transformer的层,做改变的地方在Attention层。

在第i层,embed经若干变换,可以得到Q、K、V三个张量,维度如下

(

Q

,

V

)

K

:

[

B

,

L

,

h

e

a

d

,

E

/

h

e

a

d

]

(Q,V)K: [B, L, head, E/head]

(

Q

,

V

)

K

:

[

B

,

L

,

h

e

a

d

,

E

/

h

e

a

d

]

对每个K和V,添加prefix_encoder层的张量P

(

V

)

K

=

K

P

:

[

B

,

L

p

r

e

_

L

,

h

e

a

d

,

E

/

h

e

a

d

]

(V)K=K+P:[B, L+pre\_L, head, E/head]

(

V

)

K

=

K

P

:

[

B

,

L

p

re

_

L

,

h

e

a

d

,

E

/

h

e

a

d

]

后面就是softmax函数那一套,输出张量hidden维度[B, L, E]

令embed=hidden,开启下一轮

4)最后一层的hidden,经layer_norm层,输出 [B, L, E],后面做损失。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值