自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 基于Transformer实现机器翻译(日译中)

Transformer是一种基于注意力机制的深度学习模型,最初由Google在2017年提出。主要用于机器翻译任务,但也被广泛应用于其他自然语言处理(NLP)领域,如文本摘要、语言理解、文本生成等。本次实验展示了基于Transformer的模型在日译中机器翻译任务上展现出的有效性和潜力。我们充满信心,通过持续的优化和改进,这一模型将在实际应用中取得更为令人满意的效果。

2024-06-27 08:29:40 1025

原创 自然语言处理-机器翻译

机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。

2024-06-26 10:38:31 1026

原创 自然语言处理(NLP)——前馈网络

我们将研究传统上被称为前馈网络的神经网络模型,包括两种前馈神经网络:多层感知器和卷积神经网络。多层感知器通过在单层内组合多个感知器并将多个层堆叠在一起来扩展我们在实验3中研究的简单感知器的结构。稍后我们将介绍多层感知器,并在“示例:带有多层感知器的姓氏分类”中展示它们在多类分类中的应用。

2024-06-26 09:41:58 820

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除