机器学习笔记——强化学习

强化学习(RL)是一种在不断尝试中寻找最大化回报的机器学习方法,与监督学习(SL)和无监督学习(UL)不同。RL在没有监督者的情况下,依赖奖励信号进行学习,反馈延迟且受时间影响。RL中的关键挑战是平衡探索(exploration)与开发(exploitation)。政策(policy)定义了智能体在特定环境下的行为,奖励信号(reward signal)指导学习,值函数(value function)评估长期收益,环境模型描绘了智能体与环境的交互过程。
摘要由CSDN通过智能技术生成

1.什么是强化学习?

现在的机器学习算法中,大多都是学习怎么做。而强化学习则是在不断尝试的过程中,寻找在特定情境下选择哪种行为可以获得最大回报(Reward)。

 

.2.强化学习(RL)和监督学习(SL),无监督学习(UL)的关系

(1)监督学习就是给一个训练集(训练集含有标签)进行学习,得出一个“函数”,能够对下一次新的输入准确预测其输出。而这种学习方式在交互式学习环境中不太适用,举个例子:在一场很大的台风中,不同位置,不同方向的风力不同,而驾驶员也不能单凭某个位置处某个方向的风力值进行粗略的飞行判断而就草率行事,这个判断将会影响飞机上乘客的安危以及下一秒飞机所处的情境,所以这可以说是一个交互式的学习环境,驾驶员需要不断的尝试并学习飞机在不同情境下的状态以便更好的做出下一步判断。在这里,驾驶员就相当于强化学习,不断尝试,不断学习,获取该情境下的最大回报。这时利用RL就非常合适,因为RL不是利用正确的行为来指导,而是利用已有的训练信息来对行为进行评价。 

(2)因为RL利用的并不是采取正确行动的experience,从这一点来看和无监督的学习确实有点像,但是还是不

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值