贪心学院transformer模型讲解记录

本文介绍了Transformer模型的关键组件,包括FFN层与Z1、Z2层的区别,QKV查询-键-值机制,以及解码部分的Masked Multi-Head Attention。此外,还讨论了ResNet思想在模型中的应用,layer normalization与BN的差异,以及Position Encoding的作用和计算方式。
摘要由CSDN通过智能技术生成

1.FFN层和z1和z2层是不同的,FFN层是隔开的,权重不共享的,而Z1和Z2不是隔开的

2.Q,K,V是借鉴了搜索的思维在里面,Q是query的意思,<K,V>是<key,value>的意思,Q值就是word应该映射一会进行搜索的值,K是搜索的目标,V是目标值,类似K是文档的主题,V是文档的向量,Q是搜索文档的文本。这样就能训练得到word与word之间的关系,不同的W就表示搜索的维度不一样

3.借鉴ResNet思想,embedding层可以越过normalize处理结果,防止梯度消失,因为添加上面可以直接反馈到最下面一层

4.decode部分,可以看出翻译的时候,翻译结果的attention是依次输入的使用masked Multi-Head Attention进行attention,而等后面的Multi-Head的时候才进行接入encode的结果,接入过程是q是使用encode的记过跟Wq进行计算得到的,而k和v都是使用Mu

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值