强化学习AC框架



import gym
import tensorflow as tf
import numpy as np
import random
from collections import deque

# Hyper Parameters
GAMMA = 0.95 # discount factor
LEARNING_RATE=0.01

class Actor():# PI
    def __init__(self, env, sess):
        # init some parameters
        self.time_step = 0
        self.state_dim = env.observation_space.shape[0]
        self.action_dim = env.action_space.n
        # 策略
        self.create_softmax_network()

        # Init session
        self.session = sess
        self.session.run(tf.global_variables_initializer())

    def create_softmax_network(self):
        # network weights
        W1 = self.weight_variable([self.state_dim, 20])
        b1 = self.bias_variable([20])
        W2 = self.weight_variable([20, self.action_dim])
        b2 = self.bias_variable([self.action_dim])
        # input layer
        self.state_input = tf.placeholder("float", [None, self.state_dim])
        self.tf_acts = tf.placeholder(tf.int32, [None,2], name="actions_num")
        self.td_error = tf.placeholder(tf.float32, None, "td_error")  # TD_error
        # hidden layers
        h_layer = tf.nn.relu(tf.matmul(self.state_input, W1) + b1)
        # softmax layer
        self.softmax_input = tf.matmul(h_layer, W2) + b2
        # softmax o
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,关于强化学习基本框架,我可以为您提供以下的介绍和解释。 1. 强化学习是什么? 简单来说,强化学习(Reinforcement Learning)是一种人工智能学习方式,它通过对环境的交互实现智能决策。与传统的监督学习不同,强化学习的模型是通过尝试不断优化状态与行为之间的关联,从而找到一个最优的行为策略。 2. 强化学习的基本元素 强化学习的基本元素包括环境、状态、动作、回报和策略。环境是指学习系统所处的场景和背景,状态是指当前状态的具体描述,动作是指智能体可以执行的行动,回报是指每个动作的优劣程度,策略是指选择最优动作的决策方法。 3. 强化学习的基本流程 强化学习的基本流程包括观察当前状态、选择动作、获得回报并更新策略,不断迭代,直到找到最优的策略。具体来说,智能体会根据当前状态选择相应的动作,执行后会得到一个奖赏,并根据奖赏区分动作的好坏。根据不同策略评估函数的不同,在执行完动作后,智能体会以某种方式计算出一个目标值。进一步,智能体会调整打分规则,继续执行动作,这个过程不断重复。 4. 强化学习的算法 强化学习有很多经典算法如:Q-learning,SARSA,Actor-Critic等等。它们基本上都是基于Bellman等价式的。Bellman等价式是强化学习中最基本的等式,用于描述奖励的计算方式,并被广泛应用于所有基于值的方法中。模型非参数化指的是模型需要使用经验数据来进行训练。在训练过程中,智能体会从经验中不断地学习,并尝试找到最优的策略。 以上就是关于强化学习基本框架的基本介绍和解释,如果您有其他问题欢迎随时提出。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值