神经网络优化 -- 学习率

**学习率 learning_rate:表示了每次参数更新的幅度大小。**学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。
在训练过程中,参数的更新向着损失函数梯度下降的方向。
参数的更新公式为:
在这里插入图片描述
假设损失函数为
在这里插入图片描述
梯度是损失函数loss的导数为2w+2。如参数初值为5,学习率为0.2,则参数和损失函数更新如下:
1次 参数w:5 5 - 0.2 * ( 2 * 5 +2 ) = 2.6
2次 参数w: 2.6 2.6 - 0.2 * (2 * 2.6 + 2) = 1.16
3次 参数w:1.16 1.16 - 0.2 * (2 * 2.6 + 2) = 0.296
4次 参数w:0.296
该损失函数的图像为:
在这里插入图片描述
由图可知,损失函数loss的最小值会在(-1,0)处得到,此时损失函数的导数为0,得到最终参数w = -1。代码如下:

#coding:utf-8
#设损失函数 loss=(w+1)^2,令w初值是常数5。反向传播就是求最优w,即求最小loss对应的w值
import tensorflow as tf
#定义待优化参数w初值为5
w = tf.Variable(tf.constant(5,dtype=tf.float32))
#定义损失函数loss
loss = tf.square(w + 1)
#定义反向传播方法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
#生成会话,训练40轮
with tf.Session() as sess:
	init_op = tf.global_variables_initializer()
	sess.run(init_op)
	for i in range(40):
		sess.run(train_step)
		w_val = sess.run(w)
		loss_val = sess.run(loss)
		print "After %s steps: w is %f,  loss is %f." % (i, w_val,loss_val)

运行结果如下
在这里插入图片描述
由结果可知,随着损失函数值的减小,w无限趋近于-1,模型计算推测出最优参数w = -1。

学习率的设置
学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。
例如:
1)对于上例的损失函数,则将上述代码中学习率修改为1,其余内容不变。实验结果如下:
在这里插入图片描述
由运算结果可知,损失函数loss值并没有收敛,而是在5到-7之间波动。
2)对于上例的损失函数。则将上述代码中学习率修改为0.0001,其余内容不变。实验结果如下:
在这里插入图片描述
由运行结果可知,损失函数loss值缓慢下降,w值也在小幅度变化,收敛缓慢。

指数衰减学习率:学习率随着训练轮数变化而动态更新
学习率计算公式如下:
在这里插入图片描述
用Tensorflow的函数表示为:
global_step = tf.Variable(0,trainable=False)
learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,LEARNING_RATE_STEP,LEARNING_RATE_DECAY,staircase=True/False)
其中,LEARNING_RATE_BASE为学习率初始值,LEARNING_RATE_DECAY为学习率衰减率,global_step记录了当前训练轮数,为不可训练型参数。学习率learning_rate更新频率为输入数据集总样本除以每次喂入样本数。若staircase设置为True时,表示global_step/learning rate step取整数,学习率阶梯型衰减;若staircase设置为false时,学习率会是一条平滑下降的曲线。
例如:
在本例中,模型训练过程不设定固定的学习率,使用指数衰减学习率进行训练。其中,学习率初值设置为0.1,学习率衰减率设置为0.99,BATCH_SIZE设置为1。

代码如下:

#coding:utf-8
#设损失函数 loss=(w+1)^2,令w初值是常数10。反向传播就是求最优w,即求最小loss对应的w值。
#使用指数衰减的学习率,在迭代初期得到较高的下降速度,可以在较小的训练轮数下取得更有收敛度
import tensorflow as tf

LEARNING_RATE_BASE = 0.1 #最初学习率
LEARNING_RATE_DECAY = 0.99 #学习率衰减率
LEARNING_RATE_STEP = 1 #喂入多少轮BATCH_SIZE后,更新一次学习率,一般设为:总样本数/BATCH_SIZE
#运行了几轮BATCH_SIZE的计数器,初值给0,设为不被训练
global_step = tf.Variable(0,trainable=Flase)
#定义指数下降学习率
learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,LEARNING_RATE_STEP,LEARNING_RATE_DECAY,staircase=True)
#定义待优化参数,初值给10
w = tf.Variable(tf.constant(5,dtype=tf.float32))
#定义损失函数loss
loss = tf.square(w+1)
#定义反向传播方法
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)

#生成会话,训练40轮
wit tf.Session() as sess:
	init_op = tf.global_variable_initialzier()
	sess.run(init_op)
	for i in range(40):
		sess.run(train_step)
		learning_rate_val = sess.run(learning_rate)
		global_step_val = sess.run(global_step)
		w_val = sess.run(w)
		loss_val = sess.run(loss)
		print "After %s steps: global_step is %f, w is %f,learning rate is %f, loss is %f" % (i,global_step_val,w_val,learning_rate_val,loss_val)

运行结果如下:
在这里插入图片描述

  • 4
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值