优化之——滑动平均模型

滑动平均模型可以使模型在测试数据上更加健壮。仅用于测试数据。
shadow_variable = decay*shadow_variable+(1-decay)*variable
decay为衰减率, variable为待更新的变量。

decay=min(decay_base,(1+global_step)/(10+global_step))

decay越大模型越稳定,一般设置为0.999,,通过设置global_step,动态的设置decay的大小,使模型前期更新更快

variable_averages = tf.train.ExponentialMovingAverage(
      MOVING_AVERAGE_DECAY, global_step)
variables_averages_op = variable_averages.apply(tf.trainable_variables())

tf.trainable_variables()为图上集合中未指定trainable=False的参数。 
with tf.control_dependencies[variables_averages_op]):
    train_op = tf.no_op(name='train')
sess.run(train_op)对影子变量进行更新。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
解释: 1. self.epsilon = 0.1 if e_greedy_increment is not None else self.epsilon_max: 这行代码是用来设置epsilon的值。epsilon是用于控制在强化学习中探索和利用之间的平衡。如果e_greedy_increment不为None,即存在增量值,那么epsilon的初始值为0.1;否则,epsilon的初始值为self.epsilon_max。 2. self.lr_decay_rate = 0.95和self.lr_decay_step = 10000: 这两行代码是用于定义学习率的衰减速率和衰减步数。学习率衰减是为了让模型在训练过程中逐渐降低学习率,以便更好地收敛到最优解。在这里,学习率以指数衰减的方式进行更新,每经过10000个步骤,学习率会以0.95的衰减速率进行衰减。 3. self.lr = tf.train.exponential_decay(self.learning_rate, self.global_step, self.lr_decay_step, self.lr_decay_rate, staircase=True): 这行代码定义了学习率的指数衰减方式。tf.train.exponential_decay函数用于计算学习率的衰减值。其中,learning_rate是初始学习率,global_step是当前训练步数,lr_decay_step是衰减步数,lr_decay_rate是衰减速率,staircase=True表示学习率以阶梯函数的形式进行衰减。 4. self.l_r = self.learning_rate: 这行代码将初始学习率赋值给l_r,可能用于后续的学习率更新。 5. self.gama = 3、self.tau = 0.5和self.r_base = [0]: 这三行代码定义了一些参数。gama是拉格朗日乘子,用于某些优化问题中的约束条件;tau是计算reward滑动平均的参数,用于平滑reward的变化;r_base是一个包含单个元素0的列表,可能用于存储reward的基准值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值