强化学习奖励设计及debug

奖励应该分为正奖励和负奖励,依靠正负奖励的平衡来调节机器人的探索和稳定,正奖励过多则策略偏向于存活以获得更多奖励,会削弱可能导致失败的探索;负奖励过多则会导致训练过早终止,机器人自杀以防止继续扣分。最好的情况一般是正奖励为负奖励的两倍左右。

正奖励一般是命令式,比如使其对方向和速度命令的跟踪。使用exp函数进行包络,

形如:c_{1}e^{-c_{2}x^{2}}

其中c1和c2是两个常数,决定了这个函数的最大值(c1)和最小值(c2),x是所求奖励对应的观察值,平方也可以用绝对值、一范数和二范数代替,保证它为正即可。c1和c2的选取需要保证奖励函数对观察值的变化敏感,当观察值发生变化时,奖励函数需要能感受到明显的变化。

负奖励也称作惩罚,一般是限制式,比如对抬腿高度、关节位置、关节速度的限制。形如-|x|

代码生成debug报告,将需要最终观察的变量放入Excel表格中,并存储在eperiments-"name"-debug中,可以打开表格进行数据分析。

如果某项奖励远远没有达到它能达到的最大值,可能是由于c1值太小,容易被忽视。同理,如果某些奖励比其他正常奖励小很多,说明它们的绝对值太小,有它没它差不多,需要增大。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值