AlexNet改进之处

        来源于李沫的课,做一个笔记。

        AlexNet赢得了2012年ImageNet竞赛。

        本质上是一个更深更大的LeNet,与LeNet在架构上上没有太多本质的区别。

        主要改进是:加入了丢弃法。它的激活函数从LeNet的sigmoid变成了ReLu。LeNet主要用的是平均池化,AlexNet用的最大池化。丢弃法是做模型的控制,因为模型更大了所以会用丢弃法做正则。Relu与sigmoid相比梯度更大,Relu在零点处的一阶导更加好,能支持更好的模型。最大池化取得是最大值,使得输出更大,梯度也就更大,训练更加容易。

        AlexNet不仅仅是更大更深,带来了计算机视觉方法论的改变。

从过去人工抽取特征改变成为制造一个端到端的学习。从原始的数据到最后的分类直接通过深度神经网络一路过去。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值