concept
三个主要概念:状态State,行动action,奖励reward
两种强化学习的方法
1. Policy-Based(policy-gradient):
直接预测在某个环境下应该采取的action
适用范围: 更通用,action种类非常多或者又连续取值的action的环境
2. value-Based(Q-learning)
预测某个环境下所有action的期望值(Q 值), 选取Q值最高的action 执行策略。
适用范围: 只有少量离散取值的action的环境
Q-learning
一次action 更新一次Q表
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/ff39e6ee65f629413f37b6d7839d3df6.png)
算法更新
算完全部action后,走最好的action
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/6eb5930904236811022c93a4df55cc79.png)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/c612b56a3b3230c3f493a6b4881bf30e.png)