Q-learning尝试

参考了Q-learning理解、实现以及动态分配应用(一)_洋葱专栏-有灵魂的程序员-CSDN博客_q-learning简单来说Q-learning需要Q表和R表,利用R表来保存reward,在应用Q-learning时,利用np.matrix得到矩阵类型的数据方便处理,然后利用公式更新Q表。Q-learning需要知道每一步的奖惩。

import random
import numpy as np
def get_qlearning(generation):
    R = np.matrix([[-1, 0, 100],
                    [0, -1, 100],
                    [100, -1, 0]])
    Q = np.zeros((3, 3))
    Q = np.matrix(Q)
    l_rate = 0.8
    action = []
    for i in range(generation):
        state = random.randint(0, 2)
        for j in range(2):
            nextstate = R[state, j]
            if nextstate >= 0:
                action.append(nextstate)
                Q[state, j] = R[state, j] + l_rate * (Q[j]).max()
    print(Q)

if __name__ == "__main__":
    get_qlearning(5)



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值