- 博客(3)
- 收藏
- 关注
原创 基于Transformer&PyTorch的日汉机器翻译模型
在自然语言处理领域,机器翻译一直是一个重要的研究方向。本实验旨在利用Transformer模型及其PyTorch实现,建立一个日语到汉语的机器翻译模型。Transformer模型由于其能够处理长距离依赖和并行计算的能力,已经成为机器翻译任务的主流模型之一。本实验成功实现了在GPU环境下训练基于Transformer和PyTorch的日汉机器翻译模型,并利用训练好的模型取得了良好的翻译效果。
2024-06-29 18:33:19
676
原创 机器翻译:编码器—解码器和注意力机制的应用
注意力机制其实是源自于人对于外部信息的处理能力。由于人每一时刻接受的信息都是无比的庞大且复杂,远远超过人脑的处理能力,因此人在处理信息的时候,会将注意力放在需要关注的信息上,对于其他无关的外部信息进行过滤,这种处理方式被称为注意力机制。我用通俗的大白话解释一下:注意力呢,对于我们人来说可以理解为“关注度”,对于没有感情的机器来说其实就是赋予多少权重(比如0-1之间的小数),越重要的地方或者越相关的地方就赋予越高的权重。
2024-06-29 15:26:56
698
原创 使用前馈神经网络——MLP和CNN 实现姓氏分类
多层感知机(MLP,Multilayer Perceptron)也叫人工神经网络(ANN,Artificial Neural Network),除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构,如下图:如上图所示:MLP包含三个层次,输入层—>隐藏层—>输出层神经元:包含一个带有权重和偏置的线性变换,以及一个激活函数(通常,输入层不使用激活函数,隐藏层和输出层使用激活函数)用来引入非线性,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以利用到更多的非线性模型中。
2024-06-29 00:00:00
1193
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人