Attention Is All You Need——Transformer模型总结
进入我的博客阅读体验更好哦!博客文章链接:Attention Is All You Need——Transformer模型总结 (lxq.icu)
Transformer(“变形金刚”),被誉为是深度学习继MLP、CNN、RNN后的第四大模型。正如标题所说,Transformer最重要的是使用了Attention即注意力机制,而不要使用循环和卷积。Transformer其论文的出发领域是NLP(自然语言处理),在机器翻译的任务上取得了很好的成果,在之后拓展到了深度学习的几乎所有领域。
就机器翻译任务来说,R
原创
2022-03-05 20:34:14 ·
484 阅读 ·
0 评论