强化学习的trial-error模式要求agent去探索环境,然后对状态进行evaluate,在每一个状态下agent可以选择多种action,每次选择的依据可以是贪婪或者softmax等,但是得到的reward是无法表明当前的选择是正确的还是错误的,得到的只是一个score,监督学习的labels可以给agent简洁明了的correct or wrong,并且在agent 在对环境充分的探索前即在每一种状态下选择的每个action的次数不够多时,无法充分求expect,并且在action之间也无法进行对比择优。但是当监督学习的label信息有噪声干扰或者是利用一些active learning 获得到的labels的时候,强化学习的agent与环境直接交互获取到的信息是更加可靠。
RL笔记_强化学习与监督学习的一些区别
最新推荐文章于 2024-08-25 22:51:38 发布