TD3源码与算法解析

本文介绍了TD3算法的实现细节,包括选择动作、经验回放、噪声注入、双目标Q网络以及延迟策略更新。通过源码解析,展示了如何在训练过程中使用经验回放缓冲区,并详细阐述了目标网络的更新策略,以防止过度估计问题。
摘要由CSDN通过智能技术生成

        代码地址:https://github.com/sfujim/TD3

Class TD3:

        方法1:

                select action:

state = torch.FloatTensor(state.reshape(1, -1)).to(device) #转化成1行并且变成张量
		return self.actor(state).cpu().data.numpy().flatten()      #将张量拉平

将状态state传入actor神经网络,得到该状态下Q值最高的action。

        方法2:

                 train:

	def train(self, replay_buffer, batch_size=256):
		self.total_it += 1

		# Sample replay buffer 
		state, action, next_state, reward, not_done = replay_buffer.sample(batch_size)

		with torch.no_grad():
			# Select action according to policy and add clipped noise
			noise = (
				torch.randn_like(action) * self.policy_noise
			).clamp(-self.noise_clip, self.noise_clip)
			
			next_action = (
				self.actor_targe
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值