- 博客(2)
- 收藏
- 关注
原创 自然语言处理实验
设门控循环单元的隐藏层个数为2,隐藏单元个数为16。在这里,我将BATCH_SIZE设置为16,以防止“ CUDA内存不足”,但这取决于各种因素,如您的计算机内存容量、数据大小等,因此您可以根据需要随意更改批处理大小(注意:来自PyTorch的教程使用 Multi30k German-English dataset将批处理大小设置为128)在下面的例子中,编码器的时间步数为10,批量大小为4,编码器和解码器的隐藏单元个数均为8。其中的输出指的是最后一层的隐藏层在各个时间步的隐藏状态,并不涉及输出层计算。
2024-06-25 21:11:26 850
原创 自然语言处理实验
我们通过观察感知器来介绍神经网络的基础,感知器是现存最简单的神经网络。感知器的一个历史性的缺点是它不能学习数据中存在的一些非常重要的模式。例如,查看下图中绘制的数据点。这相当于非此即彼(XOR)的情况,在这种情况下,决策边界不能是一条直线(也称为线性可分)。在这个例子中,感知器失败了。在这一实验中,我们将探索传统上称为前馈网络的神经网络模型,以及两种前馈神经网络:多层感知器和卷积神经网络。多层感知器是简单感知器在结构上的拓展,将多个感知器分组在一个单层,并将多个层叠加在一起。
2024-06-25 20:02:52 708
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人