AlexNet网络

AlexNet 中包含了比较新的技术点,首次在CNN中成功应用了 ReLu 、Dropout和LRN等Trick。

1.成功使用了Relu作为CNN的激活函数,并验证其效果在较深的网络中超过了Sigmoid成功解决了Simoid在网络较深时的梯度弥散问题。

2.训练时使用了Dropout随机忽略一部分神经元,以避免模型过拟合。

3.在CNN中使用了重叠的最大池化,AlexNet全部使用最大池化,避免平均池化的模糊效果。并且AlexNet中提出让步长比池化核的尺寸小,这样池化层的输出之间会有重叠核覆盖,提升了特征的丰富性。

4.提出了LRN层。对局部神经元的活动创建竞争机制,使其中相应比较大的值变得比较大,并抑制其他反馈较小的神经元,增加了模型的泛化能力。

5.GPU加强运算

6.数据增强使用数据增强后大大减轻了过拟合,提升了泛化能力。

转载于:https://www.cnblogs.com/Davirain/p/8916805.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值