主要就是Transformer的位置编码我没懂,所以看了很多资料,但是现在还是有些问题的。
在这里记录一下我看过的资料。
对Transformer中的Positional Encoding一点解释和理解
Transformer Architecture: The Positional Encoding 这个很详细
这个是代码
如何理解Transformer论文中的positional encoding,和三角函数有什么关系? 假设我们自己解决这个问题,思路如何
【NLP】Transformer模型原理详解
【论文笔记】从Transformer到DETR
Transformer学习记录
最新推荐文章于 2024-07-10 17:02:08 发布