Reinforcement Learning 强化学习/增强学习

这篇博客深入探讨了强化学习的基本概念,包括环境状态、动作、智能体、策略函数和奖励。政策函数是学习的重点,它决定了智能体在特定环境下的行为。奖励的设置对强化学习的性能至关重要,通过调整奖励可以引导智能体学习更优的策略。博客还介绍了强化学习的两个随机性来源:动作随机性和状态转移的随机性。此外,解释了强化学习的整体流程和两种主要方法:基于策略的学习与价值学习。状态价值函数和动作价值函数Qπ是评估策略和状态的关键,其中Q*表示最优动作价值函数。
摘要由CSDN通过智能技术生成

初步介绍基本概念

环境state、动作action、智能体agent、策略函数policy、奖励reward。

例如“超级马里奥”的游戏中,state是当前所处环境的状态;智能体agent是马里奥;动作action有[向左、向上、向右]三种;策略函数如下,就是在当前环境下马里奥做出各个动作的概率。

policy函数是强化学习的学习内容

举个例子,如果想利用强化学习使机器自主操纵马里奥,当输入这张图片到policy函数π,agent(马里奥)会做出三种动作中的一种,例如policy函数算出“向左概率0.2,向右概率0.1,向上跳概率为0.7”,policy函数自动操作它做一个随机抽样,以0.2的概率向左走,0.1的概率向右走,0.2的概率向上跳,强化学习就是学这个policy函数。只要有了这个policy函数,就可以让它自动操作马里奥打游戏了。

reward影响强化学习的性能

定义reward 的值 R,以指导policy概

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LRJ-jonas

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值