自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 基于Transformer实现机器翻译(日译中)

在本项目中,我们采用了序列到序列(Seq2Seq)模型,并结合了注意力机制来实现日语到中文的翻译。我们的机器翻译模型在大多数情况下能够准确地翻译输入文本,但在一些复杂句子的翻译上仍有改进空间。增加训练数据:更多的训练数据可以帮助模型更好地学习源语言和目标语言之间的映射关系,从而提高翻译质量。特别是对于一些复杂的句子结构和长句,更多的数据能够提供更多的上下文信息,帮助模型更好地理解和翻译。优化模型结构:可以尝试使用更先进的模型结构,如Transformer模型。

2024-06-29 14:21:55 1346

原创 基于注意力的机器翻译

在本次项目中,我们实现了一个基于深度学习的机器翻译模型,采用了典型的序列到序列(Sequence-to-Sequence,简称Seq2Seq)架构,并结合了注意力机制。我们的机器翻译模型在大多数情况下能够准确地翻译输入文本,但在一些复杂句子的翻译上仍有改进空间。增加训练数据:更多的训练数据可以帮助模型更好地学习源语言和目标语言之间的映射关系,从而提高翻译质量。优化模型结构:可以尝试使用更先进的模型结构,如Transformer模型。

2024-06-29 14:16:55 1850

原创 使用前馈神经网络进行姓氏分类

在本次实验中,我们介绍了如何使用多层感知器(MLP)和卷积神经网络(CNN)对姓氏进行分类。通过数据预处理、模型构建、训练和评估,我们比较了两种模型在分类任务中的性能。结果表明,CNN模型在处理序列数据时表现更为优异,而MLP模型在数据量较少的情况下也具有良好的表现。

2024-06-29 14:10:29 1303

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除