- 博客(3)
- 收藏
- 关注
原创 基于pytorch的Transformer日译中模型
Transformer是一种用于自然语言处理(NLP)的深度学习模型架构,它在2017年由Vaswani等人提出,并在论文《Attention Is All You Need》中首次介绍。Transformer架构在处理序列数据时展示了强大的能力,并且已经成为许多NLP任务的基础,如机器翻译、文本生成和问答系统等。
2024-06-29 22:22:40
602
原创 NLP基于循环神经网络的机器翻译
自然语言处理(NLP)是人工智能领域的一个重要分支,其主要关注于计算机理解和生成人类语言。机器翻译(Machine Translation,MT)是NLP的一个重要应用,它旨在将一种自然语言翻译成另一种自然语言。随着大数据时代的到来,机器翻译技术的发展得到了重要推动。在过去的几十年里,机器翻译技术经历了多种不同的阶段。初期的机器翻译技术主要基于统计学,如基于词袋模型(Bag of Words)的翻译方法。
2024-06-29 20:09:00
782
原创 NLP—基于MLP和CNN实现姓氏分类
多层感知机MLP(Multilayer Perceptron),也是人工神经网络(ANN,Artificial Neural Network),是一种全连接(全连接:MLP由多个神经元按照层次结构组成,每个神经元都与上一层的所有神经元相连)的前馈神经网络模型输入层(Input Layer):接受输入数据,通常是一维向量,每个输入节点对应一个特征。隐藏层(Hidden Layers):一层或多层的神经元,每个神经元连接到上一层的所有神经元,并通过权重进行加权求和。隐藏层中的每个神经元都应用一个非线性激活函数
2024-06-29 16:37:00
930
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人