tensorflow 超参数影响

tensorflow 超参数影响

学习率

说明:学习率决定了参数每次更新的幅度,如果太大会造成优化速度太慢,如果太小会造成不收敛,参数在一定范围内不断摇摆

学习率灵活设置方法
指数衰减法。先使用一个较大的学习率快速得到比较优的解,再随着迭代的继续逐步减少学习率,使得模型更加稳定

// 实现格式
decayed_learning_rate=learning_rate*decay_rate^(global_step/decay_steps)

学习调整说明
若loss值在一个范围波动,则应降低学习率或使用自适应学习率
若loss值一直衰减,则应提高学习率

神经网络优化算法
梯度下降算法主要用于优化单个参数的取值,反向传播算法给出一个方式将所有参数上使用梯度下降算法
1.梯度下降算法
缺点:
①不能保证被优化的函数达到全局最优解,只有当损失函数为凸函数时,梯度下降算法才能保证全局最优解
②计算时间太长
2.随机梯度下降算法
针对梯度下降算法,为了加速训练过程,故可使用随机梯度下降算法
△ 实际运用时,常用上述两种方式的折中,计算batch的损失函数

batch值

大batch会使训练加快,但是也需更多的内存计算空间,遇到内存不足或者TensorFlow错误,可减小batch大小。
小batch会使误差计算有更多的噪声,并且运算慢,且此噪声通常有助于防止训练过程陷入局部最优。

隐藏层

在一定范围内,隐藏层越多训练结果越好。超出范围会出现过拟合,可通过正则化或减少隐藏层数来解决

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值