- 博客(3)
- 收藏
- 关注
原创 实验14.基于Transformer实现机器翻译(日译中)
我们定义了模型参数,初始化了模型,并实现了训练和评估的函数。通过准备数据、构建模型、训练和评估的过程,我们成功地训练了一个翻译模型。在本教程中,我们将使用Transformer模型,这是一种基于自注意力机制的深度神经网络模型,可以有效地处理序列到序列的翻译任务。我们首先定义模型的一些超参数,包括源语言和目标语言的词汇表大小、嵌入大小、多头注意力的头数、前馈网络隐藏层的大小和批处理大小。在准备完必要的类和函数后,我们就可以开始训练我们的模型了。我们定义了训练和评估函数,并使用它们来训练模型。
2024-06-29 16:00:06 1303
原创 实验13:机器翻译
1. 编码器-解码器架构编码器-解码器架构是一种常用于序列到序列(sequence-to-sequence)任务的神经网络架构。在这个架构中,一个编码器将输入序列编码成一个固定长度的向量,而一个解码器则根据这个向量生成输出序列。
2024-06-29 15:12:52 1430
原创 自然语言处理前馈网络学习总结
感知器是一种单层神经网络,它能够根据输入特征的线性组合来执行二分类任务。它的设计灵感来源于生物神经元的工作机制。每个输入都与一个权重相联系,代表该输入对输出决策的重要性。感知器的输出是通过将这些加权输入求和,并通过一个激活函数(通常是阶跃函数)来决定的。
2024-06-29 13:42:00 757
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人