nn_dynamics 学习笔记一

   这是一个神经网络与模型预测控制结合,应用在基于模型的强化学习算法。

 

    节点之间用文件通信。

如在main中:

            #save the rollouts for later MBMF usage
            pathname_savedMPCrollouts = save_dir + '/savedRollouts_avg'+ str(int(avg_rew)) +'.save'
            pathname2_savedMPCrollouts = save_dir + '/savedRollouts.save'
            f = open(pathname_savedMPCrollouts, 'wb')
            cPickle.dump(all_rollouts_to_save, f, protocol=cPickle.HIGHEST_PROTOCOL)
            f.close()
            f = open(pathname2_savedMPCrollouts, 'wb')
            cPickle.dump(all_rollouts_to_save, f, protocol=cPickle.HIGHEST_PROTOCOL)
            f.close()

            #save the starting states of these rollouts, in case want to visualize them later
            f = open(save_dir + '/savedRollouts_startingStates.save', 'wb')
            cPickle.dump(starting_states, f, protocol=cPickle.HIGHEST_PROTOCOL)
            f.close()

cPickle是用来快速读写并序列化文件的操作库,其中的dump函数需要指定两个参数,第一个是需要序列化的python对象名称,第二个是本地的文件,需要注意的是,在这里需要使用open函数打开一个文件,并指定“写”操作 ,load函数与之相对是读操作。

Saved MPC rollouts for later mbmf TRPO usage.(保存文件为下一个节点使用)

而就在下一个节点mbmf:

        f = open(save_dir + '/policy_tf_values.save', 'wb')
        cPickle.dump(values, f, protocol=cPickle.HIGHEST_PROTOCOL)
        f.close()

        f = open(save_dir + '/policy_tf_values.save', 'rb')
        values = cPickle.load(f)
        f.close()

       f = open(save_dir + '/policy_mlp.save', 'wb')
       cPickle.dump(policy, f, protocol=cPickle.HIGHEST_PROTOCOL)
       f.close()

            f = open('run_'+ str(run_num)+'/savedRollouts.save', 'rb')
            allData = cPickle.load(f)
            f.close()

 

 

  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值