- 博客(2)
- 收藏
- 关注
原创 当机器翻译偶遇Transformer
Transformer是一种用于解决机器翻译任务的Seq2Seq模型,最早在《Attention is all you need》论文中提出。Transformer模型由编码器和解码器块组成,每个块都包含一定数量的层。编码器通过一系列的多头注意力和前馈网络层处理输入序列。编码器的输出被称为记忆,它与目标张量一起被传递给解码器。编码器和解码器使用教师强制(teacher forcing)技术进行端到端训练。
2024-06-25 16:11:47
844
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人