TPAMI 2024 | 具有放松保守性的高效离线强化学习

173 篇文章 11 订阅 ¥29.90 ¥99.00

Efficient Offline Reinforcement Learning With Relaxed Conservatism

题目:具有放松保守性的高效离线强化学习

作者:Longyang Huang; Botao Dong; Weidong Zhang


摘要

离线强化学习(RL)旨在从不与环境交互的静态离线数据集中学习最优策略。然而,现有离线RL方法的理论理解需要进一步研究,其中学习到的Q函数和策略的保守性是一个主要问题。在本文中,我们提出了一个简单高效的放松保守性(ORL-RC)框架,通过学习在已学习策略下接近真实Q函数的Q函数来解决这一问题。分析了离线RL方法中学习到的Q函数和策略的保守性。分析结果支持保守性能导致策略性能下降的观点。我们建立了所提出的ORL-RC的收敛性结果,以及有和没有采样误差的学习到的Q函数的界限,分别表明通过执行保守的策略改进可以减少学习到的Q函数和真实Q函数之间的差距。提出了ORL-RC的实际实现,并且在D4RL基准测试上的实验结果表明,ORL-RC展现出卓越的性能,显著优于现有的最先进离线RL方法。

关键词

    • 0
      点赞
    • 0
      收藏
      觉得还不错? 一键收藏
    • 打赏
      打赏
    • 0
      评论
    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包

    打赏作者

    小白学视觉

    您的赞赏是我们坚持下去的动力~

    ¥1 ¥2 ¥4 ¥6 ¥10 ¥20
    扫码支付:¥1
    获取中
    扫码支付

    您的余额不足,请更换扫码支付或充值

    打赏作者

    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值