反向传播之梯度下降法

反向传播训练方法是以减小 loss 值为优化目标,有梯度下降、momentum 优化器、adam 优化器等优化方法。 

本文介绍梯度下降法。

梯度下降法:
使用随机梯度下降算法,使参数沿着梯度的反方向,即总损失减小的方向移动,实现参数更新。

使用tensorflow的函数可以表示为:

train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss) 

其中 learning_rate 表示学习率,学习率决定每次参数更新的幅度,优化器中都需要一个叫做学习率的参数,使用时,如果学习率选择过大会出现震荡不收敛的情况,如果学习率选择过小,会出现收敛速度慢的情况。我们可以选个比较小的值填入,比如 0.01、0.001。

loss表示损失函数,损失函数是指计算得到的预测值 y 与已知答案 y_的差距。 

用图像表示为:

参数的更新公式是:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值