- 博客(3)
- 收藏
- 关注
原创 基于Transformer实现机器翻译
导入所有的日文和它们的英文对应词后,删除数据集中的最后一条数据,因为它是缺失值。在 trainen 和 trainja 中的句子数量是 5,973,071 条,然而,为了学习目的,通常建议对数据进行抽样,并确保一切都按预期工作,然后再一次性使用所有数据,以节省时间。我们还可以使用不同的平行数据集来跟进本文,只需确保我们可以将数据处理为上述所示的两个字符串列表,其中包含日语和英语句子。创建翻译新句子的函数,包括获取日语句子、分词、转换为张量、推理,然后将结果解码回一个句子,但这次是用英语。
2024-06-26 21:05:32
541
原创 机器翻译(动手学深度学习第一版)
它是预测序列与标签序列匹配词数为𝑛𝑛的子序列的数量与预测序列中词数为𝑛𝑛的子序列的数量之比。举个例子,假设标签序列为𝐴𝐴、𝐵𝐵、𝐶𝐶、𝐷𝐷、𝐸𝐸、𝐹𝐹,预测序列为𝐴𝐴、𝐵𝐵、𝐵𝐵、𝐶𝐶、𝐷𝐷,那么𝑝1=4/5,𝑝2=3/4,𝑝3=1/3,𝑝4=0𝑝1=4/5,𝑝2=3/4,𝑝3=1/3,𝑝4=0。在下面的例子中,编码器的时间步数为10,批量大小为4,编码器和解码器的隐藏单元个数均为8。其中的输出指的是最后一层的隐藏层在各个时间步的隐藏状态,并不涉及输出层计算。法语词的索引和英语词的索引相互独立。
2024-06-26 15:50:55
870
原创 多层感知器的姓氏分类
多层感知器(MLP)被认为是最基本的神经网络构建模块之一。感知器将数据向量作为输入,计算出一个输出值。在MLP中,许多感知器被分组,以便单个层的输出是一个新的向量,而不是单个输出值。在PyTorch中这只需设置线性层中的输出特性的数量即可完成。MLP的另一个方面是,它将多个层与每个层之间的非线性结合在一起。最简单的MLP,如上图所示,由三个表示阶段和两个线性层组成。第一阶段是输入向量。这是给定给模型的向量。给定输入向量,第一个线性层计算一个隐藏向量——表示的第二阶段。
2024-06-26 15:20:19
297
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人