TransformerPPT使用链接

讲解transformer源码的(基于pytorch)
Transformer源代码解释之PyTorch篇,decoder部分分析看懂了
https://zhuanlan.zhihu.com/p/375221936
理论+代码:
https://spaces.ac.cn/archives/4765/comment-page-1
关于bert三个embedding层(Token Embeddings、Segment Embeddings、Position Embeddings)
https://www.cnblogs.com/d0main/p/10447853.html
transformer参数量分析
https://zhuanlan.zhihu.com/p/107891957

transformer源代码分析 看懂了
https://zhuanlan.zhihu.com/p/375221936

图片分析transformer
https
在这里插入图片描述

transformer降解及疑惑
疑惑一:Transformer的Decoder的输入输出都是什么?
疑惑二:Shifted Right到底是什么?
上面两个疑惑的总结
疑惑三:Transformer里decoder为什么还需要seq mask?
https://blog.csdn.net/qq_44766883/article/details/112008655

外文网站
https://jalammar.github.io/illustrated-transformer/

transformer分析
https://zhuanlan.zhihu.com/p/311156298
在这里插入图片描述
代码分享
https://zhuanlan.zhihu.com/p/411311520

讲解
http
在这里插入图片描述

手工框架图
https://blog.csdn.net/weixin_40118989/article/details/121520223
在这里插入图片描述
如何理解Transformer论文中的positional encoding,和三角函数有什么关系?
https://www.zhihu.com/question/347678607

Attention中的Q、K、V是什么?
https://blog.csdn.net/weixin_44371912/article/details/116278561
李宏毅老师视频
系统讲解模型
https://zhuanlan.zhihu.com/p/44731789
self-attention中的QKV机制
http
知乎问题
内积运算
添加链接描述
知乎提问

Multi-Head Attention
https://zhuanlan.zhihu.com/p/266448080

在这里插入图片描述
六种位置编码的代码实现及性能实验
https://zhuanlan.zhihu.com/p/415020704
深入理解transformer源码
https://blog.csdn.net/zhaojc1995/article/details/109276945
一文看懂 Attention(本质原理 +3 大优点 +5 大类型)
http
在这里插入图片描述

Informer输入embedding
https://www.cnblogs.com/biganabc/p/15136073.html
BERT Bidirectional Encoder Representation from Transformers
Multi-head Attention
详解没看完
知乎提问
大佬讲解。系列文章
在这里插入图片描述
feed forward layer理解
https://www.cnblogs.com/peixu/p/16842247.html
框架详解
decoder
https://blog.csdn.net/xiufan1/article/details/122571920
图解Transformer 参考外文网站
https://zhuanlan.zhihu.com/p/427311331

Masked Self-Attention的原理
https://zhuanlan.zhihu.com/p/419748171
在测试或者预测时,Transformer里decoder为什么还需要seq mask?
https://www.zhihu.com/question/369075515/answer/1619930190
深入理解transformer源码
https://blog.csdn.net/zhaojc1995/article/details/109276945
https://blog.csdn.net/qq_15821487/article/details/119757894
inear和softmax层
https://blog.csdn.net/weixin_40005743/article/details/85460869
https://www.jianshu.com/p/6268df2fd00d
讲解

李沐老师讲解
维度变换
https://blog.csdn.net/hyzhyzhyz12345/article/details/104119375
https://www.cnblogs.com/yh-blog/p/15115253.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值