自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 基于MLP和CNN的姓氏分类

MLP,即多层感知器(Multilayer Perceptron),是一种前馈型的人工神经网络(Artificial Neural Network, ANN),是神经网络中最基本也是最重要的模型之一。MLP特别适合处理非线性问题,通过增加网络的深度(即隐藏层的数量)来增强模型的学习能力和表达复杂特征的能力。MLP的核心特征在于使用了全连接层(fully connected layers)。在全连接层中,每一层的每个神经元都与前一层的所有神经元相连,形成一个密集的权重矩阵。

2024-06-29 19:08:57 655

原创 基于Transformer的机器翻译——中文日语

Google Brain翻译团队通过发表里程碑式的论文《Attention is All You Need》,彻底颠覆了以往对于序列到序列(Sequence-to-Sequence, Seq2Seq)模型架构的传统认知。这篇论文不仅仅介绍了一个新的模型,而是提出了一种革命性的设计理念,那就是Transformer——一种完全基于注意力机制构建的深度学习架构。Transformer围绕着自注意力(Self-Attention)机制这一核心构建起整个模型框架。

2024-06-29 14:06:08 925

原创 基于注意力机制的机器翻译——法语英语

注意力机制在机器翻译中扮演着关键角色,它允许解码器在生成目标语言句子时灵活地聚焦源语言句子的不同部分,依据其相关性动态加权,而非均匀考虑所有信息,更精确地捕捉语境和长距离依赖。

2024-06-29 11:28:16 724

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除