强化学习要求agent去探索环境,然后对状态进行evaluate,在每一个状态下agent可以选择多种action,每次选择的依据可以是贪婪或者softmax等,但是得到的reward是无法表明当前的选择是正确的还是错误的,得到的只是一个score,监督学习的labels可以给agent简洁明了的correct or wrong,并且在agent 在对环境充分的探索前即在每一种状态下选择的每个action的次数不够多时,无法充分求expect,并且在action之间也无法进行对比择优。但是当监督学习的label信息有噪声干扰或者是利用一些active learning 获得到的labels的时候,强化学习的agent与环境直接交互获取到的信息是更加可靠。
强化学习和监督学习的一些区别
最新推荐文章于 2024-01-25 13:08:45 发布
本文比较了强化学习和监督学习的差异。强化学习中,agent通过探索环境并根据状态选择行动,得到的奖励仅作为分数,而监督学习则提供明确的正确/错误标签。在未充分探索和行动次数不足的情况下,强化学习难以评估期望效果,但在面对有噪声的标签信息或主动学习获取的标签时,强化学习的交互反馈更可靠。
摘要由CSDN通过智能技术生成