自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 日语到中文的机器翻译模型构建方法

PyTorch 提供了灵活的方式来定义各种深度学习模型,包括 Transformer 和其组件(如线性层、嵌入层、注意力机制等)。

2024-06-23 10:54:02 1044 1

原创 对机器翻译过程的简单解释

比如,当模型需要识别图像中的狗时,它可以通过注意力机制自动聚焦在图像中的狗的部分,忽略其他不相关的区域。注意力机制实际上是一种分配加权的操作,它允许模型根据当前任务的需要,动态调整不同输入特征的重要性。基于规则的机器翻译(Rule-Based Machine Translation, RBMT)是一种早期的机器翻译方法,它依赖于语言学专家编写的一系列规则和词典来进行翻译。在机器翻译任务中,注意力机制可以让模型在生成每个输出词时,根据输入句子的不同部分动态调整关注的权重,以便更好地翻译整个句子。

2024-06-23 09:25:29 846

原创 前馈神经网络在多层分类中的应用

本实验主要探讨神经网络模型,尤其是多层感知器(MLP)和卷积神经网络(CNN)的应用。实验通过分析简单感知器和MLP的性能差异,以及详细介绍卷积神经网络的机制,展示了这些模型在处理复杂模式识别任务中的能力(以姓氏分类为例)多层感知机(MLP,Multi-Layer Perceptron)是一种前馈神经网络。前馈意味着数据从输入层流向输出层,中间没有反馈循环。MLP由多个层次组成,包括一个输入层、一个或多个隐藏层和一个输出层。每一层由若干个神经元(或称节点)组成。继承自nn.Module。__init__

2024-06-09 16:34:57 1273 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除