AlexNet要点总结

1、背景

两个重要条件:

1、LabelMe,ImageNet等标注软件和数据集的出现

2、硬件计算能力的提升(使用GPU作为计算硬件)

2、成果

 

top-1:表示预测类和标签一致(预测正确)并且概率最高的情况

top-5:表示真实标签在预测的概率排名前5的中。(预测正确的类别概率排名前5)

1CNN : 表示训练一次AlexNet取得验证集错误率40.7%(top-1)

5CNN : 表示训练五次AlexNet取得验证集平均错误率38.1%(top-1)

CNN*是在最后一个池化层之后,额外添加第6个卷积层并使用ImageNet2011(秋)进行预训练然后用ILSVRC-2012微调的准确率

7CNNs* 两个网络进行预训练微调,与5CNNs取均值的准确率

LSVRC-2012上top-5错误率分别为15.3%,取得冠军

3、总结

1、使用relu激活函数,dropout层(至今效果很好)

relu优点:①可以使网络训练更快 《--- 求导方便

②增加网络的非线性 《---relu为非线性函数

③防止梯度消失 《----非饱和性函数导数不会很大也不会过小

④使网络更具有稀疏性(泛化性)《----负方向可以使一些神经元输出为0

dropout:作用:随机将一定比例的神经元置为0,使输出不依赖某几个特定的神经元

2、softmax和cross entropy

softmax作用:将神经元的输出的1000维向量(1000分类)变为按概率分布,概率分布有一下特点:

①向量所有值相加和为1

②负数变为正数

③所有值都在[0,1]之间

cross entropy(交叉熵): 常见为交叉熵损失函数,cross entropy 是用来衡量两个概率分布之间的距离的;主要用于计算loss给反向传播提供模型好坏的衡量标准。特点:①值越小,两个概率越接近

3、重叠池化,现在算力充足一般不会使用

4、多卡训练,演变成现在的分布式训练

5、数据增强,提供模型泛化能力

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

瑾怀轩

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值