DDQN代码实现

DDQN代码实现

代码分析

  • DDQN的replay函数如下:
def replay(self):  
	for _ in range(10):  
		states, actions, rewards, next_states, done = self.buffer.sample()  
		# targets [batch_size, action_dim]  
		# Target represents the current fitting level # target = self.target_model(states).numpy() target = self.model(states).numpy()  
		# next_q_values [batch_size, action_diim]  
		next_target = self.target_model(next_states).numpy()  
		# next_q_value [batch_size, 1]  
		next_q_value = next_target[  
			range(args.batch_size), np.argmax(self.model(next_states), axis=1)  
		]  
		# next_q_value = tf.reduce_max(next_q_value, axis=1)  
		target[range(args.batch_size), actions] = rewards + (1 - done) * args.gamma * next_q_value  

		# use sgd to update the network weight  
		with tf.GradientTape() as tape:  
			q_pred = self.model(states)  
			loss = tf.losses.mean_squared_error(target, q_pred)  
		grads = tape.gradient(loss, self.model.trainable_weights)  
		self.model_optim.apply_gradients(zip(grads, self.model.trainable_weights))
  • DDQN的实现和DQN只有求next_q_value这一行代码不同。在DDQN中,是使用Q网络来选择最优动作,再使用target网络来计算下一时刻的Q值,而在DQN with Target中两步使用的都是target网络。
  • np.argmax(self.model(next_states), axis=1)语句的作用就是使用Q网络选择batch_size个state的最优动作,并返回一个长batch_size的一维数组,数组的每个值对应其中一个state的最有动作。

训练结果

1000次

请添加图片描述
请添加图片描述
请添加图片描述

DQN with Target代码实现

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值