- 博客(1)
- 收藏
- 关注
原创 #Datawhale AI 夏令营 task3笔记
ansformer的主要组件包括编码器(Encoder)、解码器(Decoder)和注意力层。其核心是利用多头自注意力机制(Multi-Head Self-Attention),使每个位置的表示不仅依赖于当前位置,还能够直接获取其他位置的表示。自从提出以来,Transformer模型在机器翻译、文本生成等自然语言处理任务中均取得了突破性进展,成为NLP领域新的主流模型。
2024-07-19 10:05:54 584 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人