- 博客(3)
- 收藏
- 关注
原创 基于Transformer实现机器翻译(日译中)
机器翻译是一项重要的自然语言处理任务,而Transformer模型是一种广泛应用于机器翻译任务的强大模型。它在2017年被提出,通过引入自注意力机制(self-attention)来解决了传统循环神经网络在长距离依赖建模上的限制。在本文中,我们将学习如何使用Transformer模型进行机器翻译。以下是一个使用Jupiter 笔记本、 PyTorch、 Torchtext 和 SentencePiece 的教程。
2024-06-29 11:44:17
1950
原创 基于注意力的机器翻译
机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。
2024-06-29 10:37:47
1625
原创 自然语言处理前馈网络
在实验3中,我们通过观察感知器来介绍神经网络的基础,感知器是现存最简单的神经网络。感知器的一个历史性的缺点是它不能学习数据中存在的一些非常重要的模式。例如,查看图4-1中绘制的数据点。这相当于非此即彼(XOR)的情况,在这种情况下,决策边界不能是一条直线(也称为线性可分)。在这个例子中,感知器失败了。在这一实验中,我们将探索传统上称为前馈网络的神经网络模型,以及两种前馈神经网络:多层感知器和卷积神经网络。
2024-06-29 10:34:53
1544
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人