经典神经网络

LeNet(1998)

可以看作是第一个卷积网络的实例。使用步长为1,大小为5x5的卷积核

主要用于数字识别领域。

AlexNet(2012)

第一个在ImageNet的分类比赛中获得成功的大型卷积神经网络(第一个基于深度学习的网络架构)。从此卷积神经网络开始了大规模的研究和应用。

基础架构是卷积层——池化层——归一化层——卷积层——池化层——全连接层。

层数变多,卷积层达到了5层。

VGG(2014)

VGG16、VGG19

使用小卷积核(3x3):可以得到比较小的参数量,然后可以利用堆栈保存更多参数。可以尝试更深的网络和更多的卷积核。7x7—>3个3x3:一样有效的感知视野,但是网络更深,可以有更多的非线性操作,更少的参数。

大多数内存使用在前面的卷积层,大量的参数在后面的全连接层。

GoogleNet(2014)

22层。没有全连接层,参数比AlexNet少。

Inception结构,可以进行高效的计算。对进入相同层的相同输入并行应用不同的滤波操作,进行不同的卷积:1x1,3x3,5x5,还有3x3的池化,这样可在得到不同的输出,然后把所有滤波器的输出在深度上结合起来传入下一层。

计算复杂性问题—>增加1x1的卷积(瓶颈层)(卷积层之前,池化层之后):保持空间维度一致,但减小深度,对特征图做了一次线性组合。不使用其它类型的降维:1x1的卷积可以直接通过网络的训练学习如何对特征进行组合。

ResNet(2015)

152层。残差结构。

ResNet采用skip connect结构,使用了残差输出的结果为 h ( x ) = f ( x ) + x h(x)=f(x)+x h(x)=f(x)+x,每一个梯度就加上了一个恒等项1, ∂ h ( x ) ∂ x = ∂ ( f ( x ) + x ) ∂ x = ∂ f ( x ) ∂ x + 1 \frac{\partial h(x)}{\partial x}=\frac{\partial (f(x)+x)}{\partial x}=\frac {\partial f(x)}{\partial x}+1 xh(x)=x(f(x)+x)=xf(x)+1。此时就算原来的梯度很小,这时候误差仍然能够有效的反向传播,这就是核心思想。ResNet还打破了网络的对称性,提升了网络的表征能力。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值