- 博客(3)
- 收藏
- 关注
原创 自然语言处理实验自留:实验14.基于transformer实现机器翻译
使用 Jupyter Notebook、PyTorch、Torchtext 和 SentencePiece 的教程首先,让我们确保我们的系统中安装了以下软件包,如果您发现缺少某些软件包,请务必安装它们。
2024-06-30 03:58:43 788
原创 自然语言处理实验自留:实验13.机器翻译
它是预测序列与标签序列匹配词数为𝑛𝑛的子序列的数量与预测序列中词数为𝑛𝑛的子序列的数量之比。举个例子,假设标签序列为𝐴𝐴、𝐵𝐵、𝐶𝐶、𝐷𝐷、𝐸𝐸、𝐹𝐹,预测序列为𝐴𝐴、𝐵𝐵、𝐵𝐵、𝐶𝐶、𝐷𝐷,那么𝑝1=4/5,𝑝2=3/4,𝑝3=1/3,𝑝4=0𝑝1=4/5,𝑝2=3/4,𝑝3=1/3,𝑝4=0。在下面的例子中,编码器的时间步数为10,批量大小为4,编码器和解码器的隐藏单元个数均为8。其中的输出指的是最后一层的隐藏层在各个时间步的隐藏状态,并不涉及输出层计算。其中𝑘𝑘是我们希望匹配的子序列的最大词数。
2024-06-30 03:09:49 772
原创 自然语言处理实验自留:实验4.自然语言处理前馈网络
在实验3中,我们通过观察感知器来介绍神经网络的基础,感知器是现存最简单的神经网络。感知器的一个历史性的缺点是它不能学习数据中存在的一些非常重要的模式。例如,查看图4-1中绘制的数据点。这相当于非此即彼(XOR)的情况,在这种情况下,决策边界不能是一条直线(也称为线性可分)。在这个例子中,感知器失败了。图4-1 XOR数据集中的两个类绘制为圆形和星形。请注意,没有任何一行可以分隔这两个类。在这一实验中,我们将探索传统上称为前馈网络的神经网络模型,以及两种前馈神经网络:多层感知器和卷积神经网络。
2024-06-30 02:54:48 837 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人