AlexNet网络具体介绍

1、AlexNet 网络的创新点

AlexNet是发表在《ImageNet Classification with Deep Convolutional Neural Networks》使用了LSVRC-2010竞赛中的数据集并取它的子集,对1000个不同的类进行分类,并取得了历史性的提高。

1.1、使用了ReLU作为激活函数

在这里插入图片描述
相比sigmoid,tanh,ReLu有一下优点:

  • 1 计算开销少,论文中提到非饱和非线性变换(Relu)比饱和非线性变换(Sigmoid、tanh)梯度计算的要更快,(饱和是激活函数有界,而非饱和是指无界)
  • 2 训练收敛速度快,Relu会让一部分神经元的输出为0,这样就照成了网络的稀疏性,减少了参数。

激活函数要使用非线性变换,而Relu是一个线性的分段函数,似乎有问题。可以指出,对于每一个样本ReLU做的是不同线性变换,而对整个样本集而言着可以理解为非线性的。

简单来说,不同训练样本中的同样的特征,在经过神经网络学习时,流经的神经元是不一样的(激活函数值为0的神经元不会被激活)。这样,最终的输出实际上是输入样本的非线性变换。

1.2 LRN(局部相应归一化)

  1. 可以方便后面数据的处理
  2. 可以加快程序的收敛
  3. 保证输出数据中数值小的值不被吞食
    公式:
    b x , y i = a x , y i / ( k + α ∑ j = m a x ( 0 , i − n / 2 ) m i n ( N − 1 , i + n / 2 ) ( a x , y j ) 2 ) β b_{x
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值