- 博客(2)
- 收藏
- 关注
原创 Datawhale AI 夏令营 Task02:从baseline代码详解入门深度学习
在基于循环神经网络的翻译模型中,解码器只比编码器多了输出层,用于输出每个目标语言位置的单词生成概率,而在基于自注意力机制的翻译模型中,除了输出层,解码器还比编码器多一个编码解码注意力子层,用于帮助模型更好地利用源语言信息。(构成单词的基本组成部分,一个词素可以是一个完整的单词,也可以是单词的一部分,但每一个词素都至少携带一部分语义或语法信息),这是NLP中最基本的步骤之一。体现的是一种“达”的思想。不过“雅”在机器翻译评价中还不是一个常用的标准,而且机器翻译还没有达到“雅”的水平,是未来所追求的目标。
2024-07-15 23:57:27
999
1
原创 Datawhale AI 夏令营 Task01
6、打开代码文件,一键运行代码!(大概需要15分钟)(如果时间过长,检查Step3是不是误开了CPU)复制下面的命令,粘贴在终端处并回车运行。复制下面的命令,粘贴在终端处并回车运行。选择方式二(注意是GPU环境),启动。8、运行结束后记得关闭实例。
2024-07-14 22:33:02
324
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人