- 博客(2)
- 收藏
- 关注
原创 datawhale AI夏令营NLPtask3笔记
Transformer 在原论文中第一次提出就是将其应用到领域,它的出现使得机器翻译的性能和效率迈向了一个新的阶段。它摒弃了循环结构,并完全通过。在在这个过程当中没有任何的循环单元参与计算。这种的编码过程使得模型的运行变得十分高效。当前几乎。Transformer的主要组件包括。其核心是利用,使每个位置的表示不仅依赖于当前位置,还能够直接获取其他位置的表示。自从提出以来,Transformer模型在机器翻译、文本生成等自然语言处理任务中均取得了突破性进展,成为NLP领域新的主流模型。
2024-07-20 00:01:45 579
原创 【datawhale AI夏令营】 NLP赛事入门 task2笔记
机器翻译任务的预处理是确保模型能够有效学习源语言到目标语言映射的关键步骤。预处理阶段通常包括多个步骤,旨在清理、标准化和转换数据,使之适合模型训练。
2024-07-17 15:49:05 918
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人