神经网络——超参数的重要性,对数随机取值,调试模型的方法, BN归一化,softmax激活器

本文探讨了神经网络中超参数的重要性,提出了对数随机取值法以更合理地选择学习率等参数。此外,介绍了调试模型的策略,如根据计算资源采取熊猫或鱼子酱方式。还讲解了BN归一化的作用,以及softmax激活器在多分类问题中的应用。
摘要由CSDN通过智能技术生成

超参数的重要性:

第一级:学习率
第二级:mmentum=0.9,mini-batch,隐藏单元结点的数量
第三级:学习率衰减,adam的值β

对数随机取值

随机但是非均匀取值:
想象一下对于学习率,取值范围是(0.0001,1)之间
如果是随机均匀取值,会有90%的权重落入01.-1之间,10%落入0.0001-0.1之间,是不是不合理呢?

正确的方法采用对数轴取值,对于(a,b)范围,利用A=loga,B=logb,得到值域(A.B),之后在(A,B)上均匀取值,取得值c进行10^c操作即合理的值。
例如(0.0001,1)取对数后得到(-4,0)之后随机均匀取值,即得到合理分布.25%落入0.0001-0.001

而特别的对于指数平均的β(0.9,0.999),正确的取值的方法是
对1-β取对数轴均匀取值(0.001,0.1)【转化为上述AB的问题】,取得后再减。

调试模型的方法:

熊猫方式(panda):当计算能力不足时,只能训练一个模型。
则根据魔心的Loss,accuracy曲线实时进行调整,比如第一天降低学习率,第二天增加β等等
鱼子酱方式(caviar):计算能力充足,尝试不同的超参数

BN归一化

对于简单的神经网络或者logistic回归。
对参数进行 (x-均值)/标准差是有效的【归一化,标准化,使得值收缩到某一范围 】此时转化为均值为0,方差

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值