点击观看大咖分享
强化学习的模型
强化学习能够实现很多的任务,这些任务目标往往可以归纳化为最大化长期奖励、最小化长期惩罚。比如在写论文,写完论文过审了,得到最佳论文凭证的奖学金,获得很高的引用,这些都算正强化。如果论文被拒了或是查重被查出问题了,毕不了业,这些都是负强化。强化学习目标就是要趋利避害。
JackMichael在1975年证明了正强化和负强化的等效性。也就是说,正强化和负强化是等价的。所以我们讨论最大化长期奖励,还是最小化长惩罚并没有本质区别,这是同一个问题。
强化学习最著名的模型就是智能体环境接口。该接口决策和学习的部分与其他部分分离,决策和学习的部分归为智能体,其他的部分都归为环境。举刚才写论文的例子,在写论文的例子中,我学习怎么写论文,或是决定要怎么写,这些都是属于智能体部分,但是我并不是智能体,也有很多部分是属于环境的。比如我今天生病了,就不写论文了,那我的健康状况是属于环境。智能体环境接口的核心思想在于把主观可以控制的部分和客观不能改变的部分分开,分开以后,只需要通过三个要素,在这两部分之间进行交互,这三个要素是动作、观测和奖励。刚刚说奖励可以是惩罚,奖励和惩罚是等价的。但是动作和观测不一定是数值的。观测可以是看到了帅气的小哥哥或是漂亮的小