- 博客(1)
- 收藏
- 关注
转载 CS224N(2.21)Transformers and Self-Attention For Generative Models
转载自:https://bitjoy.net/2020/03/04/cs224n%ef%bc%882-21%ef%bc%89transformers-and-self-attention-for-generative-models/ 今天介绍大名鼎鼎的Transformer,它于2017年出自谷歌的论文《Attention Is All You Need》(https://arxiv.org/pdf/1706.03762.pdf),用Attention实现机器翻译模型,并取得了新的SOTA性能。 传统的
2021-04-08 17:32:56 179
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人