自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 基于pytorch的Transformer日译中模型

Transformer是一种用于自然语言处理(NLP)的深度学习模型架构,它在2017年由Vaswani等人提出,并在论文《Attention Is All You Need》中首次介绍。Transformer架构在处理序列数据时展示了强大的能力,并且已经成为许多NLP任务的基础,如机器翻译、文本生成和问答系统等。

2024-06-29 22:22:40 602

原创 NLP基于循环神经网络的机器翻译

自然语言处理(NLP)是人工智能领域的一个重要分支,其主要关注于计算机理解和生成人类语言。机器翻译(Machine Translation,MT)是NLP的一个重要应用,它旨在将一种自然语言翻译成另一种自然语言。随着大数据时代的到来,机器翻译技术的发展得到了重要推动。在过去的几十年里,机器翻译技术经历了多种不同的阶段。初期的机器翻译技术主要基于统计学,如基于词袋模型(Bag of Words)的翻译方法。

2024-06-29 20:09:00 782

原创 NLP—基于MLP和CNN实现姓氏分类

多层感知机MLP(Multilayer Perceptron),也是人工神经网络(ANN,Artificial Neural Network),是一种全连接(全连接:MLP由多个神经元按照层次结构组成,每个神经元都与上一层的所有神经元相连)的前馈神经网络模型输入层(Input Layer):接受输入数据,通常是一维向量,每个输入节点对应一个特征。隐藏层(Hidden Layers):一层或多层的神经元,每个神经元连接到上一层的所有神经元,并通过权重进行加权求和。隐藏层中的每个神经元都应用一个非线性激活函数

2024-06-29 16:37:00 930 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除