- 博客(3)
- 收藏
- 关注
原创 基于Transformer实现机器翻译(日译中)
Transformer是一种基于注意力机制的深度学习模型,最初由Google在2017年提出。主要用于机器翻译任务,但也被广泛应用于其他自然语言处理(NLP)领域,如文本摘要、语言理解、文本生成等。本次实验展示了基于Transformer的模型在日译中机器翻译任务上展现出的有效性和潜力。我们充满信心,通过持续的优化和改进,这一模型将在实际应用中取得更为令人满意的效果。
2024-06-27 08:29:40 1025
原创 自然语言处理-机器翻译
机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。
2024-06-26 10:38:31 1026
原创 自然语言处理(NLP)——前馈网络
我们将研究传统上被称为前馈网络的神经网络模型,包括两种前馈神经网络:多层感知器和卷积神经网络。多层感知器通过在单层内组合多个感知器并将多个层堆叠在一起来扩展我们在实验3中研究的简单感知器的结构。稍后我们将介绍多层感知器,并在“示例:带有多层感知器的姓氏分类”中展示它们在多类分类中的应用。
2024-06-26 09:41:58 820
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人