【论文收集】几种经典神经网络及其模型

本文介绍了多种深度学习模型,包括前馈神经网络、卷积神经网络(如LeNet-5、AlexNet、VGGNet、GoogleNet等)、循环神经网络(如RNN、LSTM、GRU)、深度信念网络、生成对抗网络和脉冲神经网络。这些模型在图像识别、自然语言处理等领域发挥了重要作用,并不断推动着人工智能的发展。
摘要由CSDN通过智能技术生成

1、前馈神经网络(Feed Forward Neural Network,FFNN)

多层感知器(Multilayer Perceptron,MLP)

感知器(又叫感知机)是最简单的前馈网络,它主要用于模式分类,也可用在基于模式分类的学习控制和多模态控制中。感知器网络可分为单层感知器网络和多层感知器网络。

反向传播神经网络(Back Propagation Neural Network,BP神经网络)

BP网络是指连接权调整采用了反向传播(Back Propagation)学习算法的前馈网络。与感知器不同之处在于,BP网络的神经元变换函数采用了S形函数(Sigmoid函数),因此输出量是0~1之间的连续量,可实现从输入到输出的任意的非线性映射。

径向基函数网络(Radial Basis Function Network,RBF网络)

RBF网络是指隐含层神经元由RBF神经元组成的前馈网络。RBF神经元是指神经元的变换函数为RBF(Radial Basis Function,径向基函数)的神经元。典型的RBF网络由三层组成:一个输入层,一个或多个由RBF神经元组成的RBF层(隐含层),一个由线性神经元组成的输出层。

极限学习机(Extreme Learning Machine, ELM)

  • 提出时间:2004

2、卷积神经网络(Convolutional Neural Networks, CNN)

LeNet-5

AlexNet

ZFNet

VGGNet

GoogleNet Inception

ResNet

DenseNet

SENet

3、循环神经网络(Recurrent Neural Network, RNN)

我们通常所说的RNN实际上有两种:

  • 一种是Recurrent Neural Networks,即循环神经网络,
  • 一种是Recursive Neural Networks,即递归神经网络。

循环神经网络是首先被提出的,它是一种时间上进行线性递归的神经网络,也就是我们通常所说的RNN。

递归神经网络(recursive neural network)被视为循环神经网络(recurrent neural network)的推广,这是一种在结构上进行递归的神经网络,常用于自然语言处理中的序列学习,它的输入数据本质不一定是时序的,但结构却往往更加复杂,我们这里只说循环神经网络。

双向RNN(Bidirectional recurrent neural networks)

  • 提出时间:1997

深度双向RNN(Deep Bidirectional recurrent neural networks)

长短期记忆网络(Long Short-Term Memory networks, LSTM)

门控循环单元网络(Gated Recurrent Unit networks, GRU)

  • 提出时间:2014
  • 论文:《Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation》
  • 论文地址:https://arxiv.org/pdf/1406.1078.pdf

4、深度信念网络(Deep Belief Networks,DBN)

5、生成对抗网络(Generative Adversarial Networks,GAN)

6、脉冲神经网络(Spiking Neural Network,SNN)

  • 提出时间:1997
  • 论文:《Networks of Spiking Neurons: The Third Generation of Neural Network Models》

霍普菲尔德神经网络(Hopfield Neural Network,HNN)

玻尔兹曼机(Boltzmann Machine,BM)

受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)

自动编码器(Auto Encoder,AE)

稀疏自编码器(Sparse Auto Encoder,SAE)

变分自编码器(Variational Auto Encoder,VAE)

去噪自编码器(Denosing Auto Encoder,DAE)

神经图灵机(Neural Turing Machine,NTM)

回声状态网络(Echo State Network,ESN)

  • 提出时间:2001
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值