PARL 强化学习框架学习

本文介绍了作者通过百度的PARL深度强化学习课程入门强化学习的经历,学习了SARSA、Q-Learning、DQN、PG、DDPG等基础算法,并在AI Studio上实践运行模型,感受到PARL框架对新手的友好性。文章强调了强化学习中的核心概念:agent、model和algorithm,并给出了DQN的代码示例。
摘要由CSDN通过智能技术生成

最近参加了百度的的PARL深度强化学习课程,算是对强化学习有了一定了解,因为之前并没有学习过强化学习相关的知识,粗略入门,体验了PARL框架,确实对新手比较友好。

入门学习了比较基础的算法,如SARSA,Q-Learning,DQN,PG,DDPG。

能在AI studio上直接跑模型,直接感受模型的效果,对入门学习比较有帮助。

强化学习主要了解3个概念,agent,model,algorithm

下面是代码实例,以DQN为例

model


class Model(parl.Model):
    def __init__(self, act_dim):
        hid1_size = 128
        hid2_size = 128
        # 3层全连接网络
        self.fc1 = layers.fc(size=hid1_size, act='relu')
        self.fc2 = layers.fc(size=hid2_size, act='relu')
        self.fc3 = layers.fc(size=act_dim, act=None)

    def value(self, obs):
        # 定义网络
        # 输入state,输出所有action对应的Q,[Q(s,a1), Q(s,a2), Q(s,a3)...]
        h1 = self.fc1(obs)
        h2 = self.fc2(h1)
        Q = self.fc3(h2)
        return Q

algorithm

# from parl.algorithms import DQN # 也可以直接从parl库中导入DQN算法

class DQN(parl.Algorithm):
    def __init__(self, model, act_dim=None, gamma=None, lr=None):
        """ DQN algorithm
        
        Args:
            model (parl.Model): 定义Q函数的前向网络结构
            act_dim (int): action空间的维度,即有几个action
            gamm
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值