AlexNet 学习

四个创新点:

一)ReLU

    在梯度下降中,不饱和非线性比饱和非线性快很多。

二)在双GPU上训练

    双显卡并行计算,只和各自相关显卡的上一层有关联,加快速度。

三)LRN

     ReLU不需要归一化防止过饱和,不过仍然发现以下公式帮助归一化。

    

    (x,y)位置,i kernal,k, n, a,b 是超参数(无特定含义的字的参数)。

四)重叠池化

    错误率下降0.4%和0.3%(top-1 和 top-5)

 

避免过拟合的方法:

一)数据变化(镜面、平移、PCA变换等)

二)dropout

 

整体结构:

八个学习层,包含五个卷积层和三个全连接层。

\\

 

 

转载于:https://my.oschina.net/kathy00/blog/682768

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值