javassm框架项目实例_万字长文:国内第一个基于TensorFlow2.0支持GUI非gym环境的强化学习框架General...

0a7e7b16bad86dd37eedfc9ca61c154c.png

前言

一直以来我都在思考如何将强化学习低门槛的引入到工业领域,现在我终于找到了实现这一目标的途径,那就是自己写一个强化学习应用编程框架。在研究了国外一个优秀的强化学框架(huskarl)之后,我决定基于该框架来写一个对国内开发者更友好的强化学习应用编程框架。本次分享的目的是对这个框架进行发布,框架取名general(将军),因为将军都是经过身经百战,在一次次的生死场景中训练成长出来的,广义上是一个强化学习的过程。项目地址:[点击查看](zhaoyingjun/general)。接下来我准备用四个章节来阐述:general特性以及可视化演示、general项目结构和模块功能介绍、强化学习算法在general中的实现、使用general实现自己的强化学习应用。

1.general特性以及可视化演示

1.1general特性

general项目原计划至少实现四个方面的特性:支持可视化操作、集成主流强化学习算法、支持非gym环境交互、提供工业应用项目案例集,在1.0版本中实现了前三个特性的支持,工业应用项目案例集需要随着项目的推广和实践来积累。

  • - 支持可视化操作

对于编程能力稍弱或者对于强化学习初学者来说,直接上手敲代码来实现强化学习是有困难的。如果能够通过界面配置就可以实现一个强化学习应用并能够直观的感受到其训练的过程,那么可以极大的提高初学者的兴趣和信心。因此,我用wxpython进行了Gui的开发,虽然界面做的比较丑但是基本上实现了想要达到的目的。在可视化模块,还有一些欠缺优化的部分,会在后面的迭代中持续进行更新,也欢迎wxpython的高手加入一起维护。可视化配置界面如图1,完全可视化配置后就可以搭建一个强化学习应用。

d09f24f6dbbe9e16ea477168b1df2779.png
  • - 集成主流强化学习算法

按照项目设计,在general中会集成主流的强化学习算法包括DQN、DDPG、PPO等,同时会关注强化学习的研究动态,及时将最新的强化学习算法进行集成。集成主流强化学习算法的目的降低强化学习算法应用的门槛,因此会对实现的过程和原理进行详细中文代码注释,以便让更多的人理解和掌握强化学习算法原理和实现过程。目前项目实现了DQN强化学习算法,具体的介绍会放在第三章节中。

- [x] DQN:代码实现和详细注释,原理图对照讲解。

- [ ] DDPG:待实现

- [ ] PPO:待实现

- [ ] ...

  • - 支持非gym环境交互

当前的强化学习在训练过程中主流的是使用gym模拟实际的真实的环境进行交互,但是在工业生产有太多的场景是没有办法或者需要付出很大的成本才能进行抽象和模拟的。因此,在本框架中加了与非gym环境交互的模块,能够通过http或者grpc与真实环境交互。当然这里说的与真实环境交互是受控的交互,就是通过数据控制和真实环境的措施来避免训练过程造成实际的损失和危害,阿里每年双十一的全链路线上压测就是这样的思路,通过数据流量控制保证测试数据不会影响正常的交易数据。如果你想要尝试通过http的方式来与非gym环境交互,那么可以通过可视化界面配置项目或者直接调用client接口就可以。非gym环境交互配置如下图:

5b999596872c9b301bb09d16bc448295.png
  • - 工业应用项目集

当前强化学习最缺的不是前沿的理论研究,而是在工业领域应用的实践。现在很多很先进的算法的应用往往都是在与游戏环境的交互,哪怕是将DQN应用到工业环境中都是非常有价值的。因此我在这里也向各位读者征集在工作中遇到的难题,你有应用场景和数据,我有算法框架和编程技术,那么我们就可以一起搞点事情出来。如果能够搞成了,算法和代码你免费拿走,案例留下就可以。

- [ ] 强化学习在燃气轮机自动调节优化中的应用:待应用实践

- [ ] 强化学习在量化交易中的应用:尽管实用价值不大,但是后面会实现一下,因为环境和数据都比较充足。

- [ ] ..

1.2general可视化配置演示

  • - gym交互环境配置演示

在本框架中集成了gym,因此可以直接通过可视化界面完成项目的配置。

8ad1872904f0c315caf5d45efbcb7ed0.gif

26c26865d0d8f443381addde5cda26b0.gif
  • - 非gym交互环境配置演示

在非gym交互环境下,我们采用http的方式与环境进行交互,因此需要先配置神经网络模型以及训练的超参数,然后配置环境交付url和环境的初始化状态。在本示例中,我使用gym的游戏后台写了一个模拟服务(urldemo.py),因此在使用前需要先启动该模拟服务。

配置神经网络和训练的超参

5750931e0ade8a75ec5fb317fa65d0ec.gif

启动demo服务

f1ccc6e1dc6e74cd22a70d590df52964.gif

将服务地址配置到项目中

0e5d2e81c8d297fc5c10817357de2bbb.gif

非gym环境交互训练过程

8e48487f4b92e83e57fa10762d766a61.gif

2.general项目结构和模块功能介绍

2.1general项目结构

- 项目工程结构

general项目工程架构采用我一直推荐的“文件与文件夹”结构,就是基础稳定的文件放入文件中,动态的需要调试的放在根目录下。在general文件中包含了项目的核心模块,这些模块包括core、memory、policy、trainer以及一个算法包。在项目的根目录下放了代理层的client(代理终端)、proxy(服务代理)、urldemo(模拟服务)以及展现层的gui(可视化展现)、dqn-catpole(命令行展现)

f5707b6da689485ba15579e26e16ea7f.png

- 项目功能结构

general从功能逻辑上分为四层,分别是核心层、算法层、代理层、展现层。核心层主要是实现框架中的ABC(抽象基类)的定义以及核心模块的实现,算法层主要是DQN、DDPG等算法智能体的实现、代理层主要是对外部非gym环境的交互代理,展现层包括基于wxpython的界面化交互和命令行的交互示例。具体详细的功能介绍,见下一章节。

998297bcee1e71711b053c18cd7b0f22.png

2.2general功能介绍

- 核心层

memory: memory是用来存储在强化学习训练过程的记录,以便能够通过记忆回放的方式训练Q网络,可以类比成人类的大脑记忆存储区域,里面包含了训练记录的存储、读取方法以及记忆回放策略(包括纯随机回放、有限随机回放、优先级回放)。

core: core是一个定义智能体的抽象基类文件,在文件中定义了一个智能体在实现过程中所必须具备的属性,比如模型文件保存、训练记录存储、做出行为指令预测等,这些抽象基类方法如果在实例化一个智能体过程中没有被实现则会宝未实现错误。

policy: policy是动作指令评估选择策略,对于深度神经网络模型会根据输入的环境状态预测出多个可执行动作,但是我们需要按照一定的选择策略算法对这些动作进行评价选择,最终输出动作指令。当前版本中实现的选择算法策略算法包括贪婪算法、随机贪婪算法、高斯随机贪婪算法。之所以会有不同算法是为了改进纯贪婪算法带来的局部最优解的困扰,通过随机贪婪算法、高斯随机贪婪算法能够在一定程度能够缓解或者解决贪婪算法带来的问题。

这里我们稍微展开讲解一下这三个贪婪算法的大概思路,首先传统的贪婪算法是只根据当前状态选择最有利的动作,这样会导致在解决后效问题的时候(即前面的状态会影响到后面的状态)就不能得到全局最优解。解决这个问题一个简单的办法就是加入完全随机数,这样的话就可以打断贪心算法在某个方向的持续探索,也就有了随机贪婪算法。随机贪婪算法然后能够解决得不到全局最优解的问题,但是完全随机数也引入了噪声,这对模型训练收敛会带来一定影响。为了减少纯随机对模型带来的噪声,使用高斯分布随机来替代完全随机,这样可以实现随机性与模型收敛的平衡。

trainer:trainer可以理解为训练模拟器,是一个有单进程或者多进程构成的“沙箱”。智能体与外界环境的交互、智能体的训练、智能体的记录存储等等这些过程都是在这个沙箱中。trainer可以构建包括单进程单实例、单进程多实例、多进程多实例的训练沙箱,单进程单实例和单进程多实例实现和训练过程相对比较简单,但是多进程多实例涉及到进程间通信、rewards同步、sates同步等过程非常的复杂。trainer的进程间通信和多实例训练同步的实现没有使用tensorflow的分布式多进程训练机制,而是采用消息队列基于python控制流来实现的。在后面的版本中会进行重构,采用tensorflow的架构和机制。

- 算法层

DQN:当前在1.0版本中只实现了DQN算法智能体,不过根据core对算法智能的定义每个算法智能体中包含的方法都是一样的。在DQN智能体中包含loss函数定义、神经网络模型编译、train训练方法、save模型文件存储、push记录存储、act执行指令预测和选择。DQN算法的具体详细实现过程我们会在下一章中进行详细的讲解。

- 代理层

client:client其实是可视化模块的后端服务,其主要作用是根据在gui可视化界面的超参配置构建一个训练实例并进行训练,将训练过程数据返回给可视化界面进行动态展示。在client中包括模型的定义、模型的训练、模型的保存、模型的测试等模块,实现从训练到测试的全过程。

proxy: proxy是一个服务代理模块,因为我们在对接非gym环境时需要通过http或者grpc的方式来进行,因此需要在服务代理模块中定义一些数据传输、数据处理的方法。目前在该模块中只实现了http的服务代理,后续版本中会增加grpc的代理。

urldemo:urldemo一个非gym环境模拟模块,也可以作为与非gym环境进行交互的客户端。在当前模块中,我们使用gym的cartpole游戏模拟作为外部环境的模拟,urldemo中实现了在环境本地端与环境的数据交互和调用,这也模拟在正常情况的场景。urldemo模块中包含对htrp传输数据的获取和序列化处理,对环境接口的交互和调用、对环境返回数据的json化处理以及返回。

- 展现层

gui: gui完全是基于wxpython编写的一个可视化模块,包含两个页面分别是gym环境配置页面和非gym环境配置页面,以实现对gym环境训练实例的配置和非gym环境训练实例的配置。在当前的模块中,受限于对wxpython的使用还不够娴熟,因此功能实现还不够丰富。在后续的版本中会对可视化页面进行改版以更加的符合工业应用使用体验和功能要求。比如后面会增加功能导航、训练模型实例的管理等功能,在页面的布局也会进行优化。

dqn-cartpole: dqn-cartpole是一个示例模块,展示如何使用general框架的api来完成自己所需的强化学习应用的编程。关于该模块的详细细节,在第四章节中进行了详细的讲解。

3.强化学习算法DQN在general中的实现

3.1DQN算法流程和步骤

关于DQN的算法流程和步骤,我在知乎上看到一个非常清晰形象的介绍和梳理[点击查看原文](rootxuan:强化学习--从DQN到PPO, 流程详解),我这里直接进行引用并加上自己的理解,以便能够浅显易懂的介绍DQN算法的实现流程和步骤。DQN的算法流程图如下图,整体上分为两个阶段。第一阶段,智能体循环的与环境交互,存储下所有的交互记录,直到达到memory存储的最大值。第二阶段,在memeory达到存储上限后,开始进行记忆回放,用存储的交互记录来训练model,并在训练到一定步数后更新target model。

6fb33d819faf656e2fb55f9e783034a6.png

- 第一阶段算法详细步骤:

1). 获取环境信息s输入到model网络中, 输出为actions的Q值。

2). 根据Q值的大小使用选择算法,选择相应的action输出,这里的选择算法就是policy模块的贪心算法、随机贪心算法、高斯随机贪心算法。

3). 将上一步获得的action输入到环境中,获得反馈r和环境的下一个状态s_。

4). 将上述步骤中获得s,a,r,s_组成一个元组作为一条交互记录存入memory中。

5). 将获得的s_继续输入到model网络中,循环进行上述步骤直至memory中的记录达到最大值。

- 第二阶段算法详细步骤:

1). 在memory中的记录达到最大值后,使用记忆回放算法按照batch_size的大小从memory中取出记录。这里的记忆回放算法是在memory模块实现的,包括随机回忆、有限随机回忆、按照优先级回忆。

2). 将上一步中获得数据中的s输入到model网络中得到actions的q值,将s_输入到target model中获得target actions的q值(q_next)。

3). 将上一步获得数据q与取出记录中的a进行一次gather计算(gather类似与sql中的left join)得到q_action,将上一步获得q_next与取出记录中的r进行相加计算得到q_target。

4).上一步获得的q_action与q_target输入到MSE算法中,获得loss。

5). 将上一步获得的loss进行反向传播,按照梯度下降更新model网络。

6). 在完成一定步数的训练之后,将model的网络权重与target model网络进行同步更新。

3.2DQN算法代码实现

在上一个小节中,我们详细的描述了DQN的算法流程和训练步骤,接下来我们一起看一下在general框架是如何通过代码实现以上步骤的

- 第一阶段过程的代码是在trainer中实现的,代码和详细注释如下:

#训练步数在最大步数范围内开始循环训练
        for step in range(max_steps):
            #根据智能体的数量和是否进行图形可视化,进行环境可视化,这里只适用于gym环境
            for i in range(instances):
                if visualize:envs[i].render()
                #将预测得到的action从Tensor转换为数值
                action = tf.keras.backend.eval(self.agent.act(states[i], i))
                #将预测得到的action输入给环境,获得环境反馈的下一个状态、reward、和是否结束的标记
                next_state,reward,done, _=envs[i].step(action=action)
                #将环境返回的数据、action作为一条记录保存到记忆存储器中
                self.agent.push(Transition(states[i],action,reward,None if done else next_state),i)

- 第二阶段的代码是在算法模块中的DQN中实现的,代码和详细注释如下:(注意在实现中加入是否使用DoubleDQN网络架构的步骤,为了防止过信息量过大,这里我们就先不涉及DoubleDQN网络架构的讲解)

    def train(self,step):

        """
         train方法是实现了对智能体神经网络的训练过程
        """
        #首先判断记忆存储器中的记录是否存在,如果存在则继续进行训练。
        if len(self.memory)==0:
            return
        #判断target网络是否需要更新,如果达到更新条件则进行更新。
        if self.target_update>=1 and step % self.target_update==0:

            self.target_model.set_weights(self.model.get_weights())
       #如果target_update小于1,则直接将target_update作为系数,组合target_model和model的参数进行更新。
        elif self.target_update<1:

            mw=np.array(self.model.get_weights())

            tmw=np.array(self.target_model.get_weights())

            self.target_model.set_weights(self.target_update*mw+(1-self.target_update)*tmw)

        #将batch_size取最小范围,以保证在记忆存储器的记录数量不小于batch_size
        batch_size=min(len(self.memory),self.batch_size)
        #从记忆存储器中按照记忆回放算法批量的取数据,大小是batch_size
        state_batch,action_batch,reward_batches,end_state_batch,not_done_mask=self.memory.get(batch_size)
        #使用全零数组初始化target_qvals
        target_qvals=np.zeros(batch_size)
        #取出非终止状态的下一个状态
        non_final_last_next_states=[es for es in end_state_batch if es is not None]

        if len(non_final_last_next_states)>0:
           #如果设置的是double_dqn,则进行如下的过程计算selected_target_q_vals
            if self.enable_double_dqn:
               #首先使用q_eval网络将non_final_last_next_states中的状态作为输入,进而预测q_values
                q_values=self.model.predict_on_batch(np.array(non_final_last_next_states))
               #使用argmax获得q_values最大值对应的actions。
                actions=tf.cast(tf.argmax(q_values,axis=1),tf.int32)
                #使用target网络将non_final_last_next_states中的状态作为输入,进而预测target_q_values
                target_q_values=self.target_model.predict_on_batch(np.array(non_final_last_next_states))
                 #接下来也是一个gather_nd的过程,现实组合一个特殊的数组,目的是找到在target_q_values中actions对应的值
                selected_target_q_vals=tf.gather_nd(target_q_values,tf.transpose(tf.stack([tf.range(len(target_q_values)),actions])))

            else:
                #如果不是使用double_dqn,则直接使用target网络将non_final_last_next_states中的状态作为输入,进而预测target_q_values,并取最大值。

                selected_target_q_vals=self.target_model.predict_on_batch(np.array(non_final_last_next_states)).max(1)

            #将end_state_batch为非None的数值取出
            non_final_mask=list(map(lambda s:s is not None,end_state_batch))
            #将selected_target_q_vals值更新到状态非None对应的target_qvals中
            target_qvals[non_final_mask]=selected_target_q_vals

        #下面是根据nsteps的配置,取将前n个状态的reward引入到target_qvals中
        for n in reversed(range(self.nsteps)):
            #取reward_batches中的前n个reward
            rewards=np.array([b[n] for b in reward_batches])
            #将target_qvals与not_done_mask中前n个值组成的数组乘机得到target_qvals
            target_qvals*=np.array([t[n] for t in not_done_mask])
            #将前面两步计算得到的rewards和target_qvals与一个系数的乘积相加得到最终的target_qvals
            target_qvals=rewards+(self.gamma*target_qvals)
        #将action_batch、target_qvals组合成lossdata,计算loss
        loss_data=[action_batch,target_qvals]

        #如果是使用优先级记忆回放策略loss_data还需要加上记忆存储器的最后记录的indexs
        if isinstance(self.memory, memory.PrioritizedExperienceReplay):

            loss_data.append(self.memory.last_traces_idxs())
        #将数据灌入模型,进行训练。
        self.model.train_on_batch(np.array(state_batch),tf.transpose(tf.stack(loss_data)))

4.使用general实现自己的强化学习应用

4.1需要实现的功能模块

在本示例中,使用DQN网络和gym的托扁担游戏来作为示例,同时我们还会将gym的托扁担游戏来作为真实环境来演示如何通过http的方式与真实环境交互。我们需要实现以下的功能模块以搭建一个从训练和测试基本完整的强化学习应用:

- 检验模型文件夹model_dir是否存在。

- 托扁担(CartPole)游戏环境搭建。

- 深度神经网络模型构建。

- rewards反馈图形化展示。

- 训练函数,如果是多次训练,则每次的新的训练是在之前训练成果的基础进行训练。

- 模型测试函数,测试检验模型的训练效果。

4.2代码实现详细过程

- 第一步需要导入各种依赖

import tensorflow as tf
import matplotlib
matplotlib.use("macOSX")#在使用macOSX系统时需要该行
import matplotlib.pyplot as plt
import gym
import general as gr
import os

- 第二步初始化gym环境

#初始化gym环境,使用CartPole-v0环境,就是托扁担游戏
create_env = lambda: gym.make('CartPole-v0').unwrapped
dummy_env = create_env()

- 第三步检验模型文件夹是否存在,如果不存在自动创建

if not os.path.exists("model_dir"):
      os.makedirs("model_dir")

- 第四步构建网络模型

我们使用TensorFlow2.0中的高阶API Sequential来构建神经网络模型,Sequential既以数组的方式来搭建网络模型也可以使用add方法搭建网络模型。下面代码示例是以数组的方式来搭建神经网络模型。

def create_model():
      # 我们搭建的神经网络模型一共三层,每层16个神经元,使用relu作为激活函数。
   model = tf.keras.Sequential([
         tf.keras.layers.Dense(16, activation='relu', input_shape=dummy_env.observation_space.shape),
         tf.keras.layers.Dense(16, activation='relu'),
         tf.keras.layers.Dense(16, activation='relu'),
      ])
   return model

- 第五步我们使用matplotlib来实现对反馈reward的图形化展示

#定义反馈画图函数,这是为了能够图形化展示训练过程中rewards的变化走势,rewards是用来反馈对智能体的行为的评价。
def plot_rewards(episode_rewards, episode_steps, done=False):
     #初始化一块画布
      plt.clf()
      #设置XY坐标轴名称
      plt.xlabel('Step')
      plt.ylabel('Reward')
      #将反馈数据和训练步数全部画在画布中
      for ed, steps in zip(episode_rewards, episode_steps):
         plt.plot(steps, ed)
      plt.show() if done else plt.pause(0.001)

- 第六步我们定义一个训练函数来循环的训练模型

def train():
   #初始化神经网络模型
   model=create_model()
   #将定义好的网络作为参数传入general框架的API中,构成一个完成DQN 智能体,用于接下来的强化学习训练。
   agent = gr.DQN(model, actions=dummy_env.action_space.n, nsteps=2)
   cpkt=tf.io.gfile.listdir("model_dir")
   if cpkt:
      agent.model.load_weights("model_dir/dqn.h5")
   #将智能体和gym环境放入训练器中开始训练深度神经网络模型
   tra = gr.Trainer(dummy_env, agent)
   tra.train(max_steps=3000, visualize=True, plot=plot_rewards)
   agent.save(filename='model_dir/dqn.h5',overwrite=True,save_format='h5')

- 第七步我们定义一个测试函数来检验模型训练的效果

def test():
   #初始化神经网络模型
    model=create_model()
    #将定义好的网络作为参数传入general框架的API中,构建一个含有DQN神经网络的智能体。
    agent = gr.DQN(model, actions=dummy_env.action_space.n, nsteps=2)
    #将之前训练的模型参数导入的新初始化的神经网络中
    agent.model.load_weights("model_dir/dqn.h5")
    #将智能体和gym环境放入训练器中开始测试模型的效果
    tra = gr.Trainer(create_env, agent)
    tra.test(max_steps=1000)

- 第八步我们定义一个主函数并设置一些交互选项,可以实现训练模式与测试模式的切换。

if __name__ == '__main__':
print("请准确输入train或者test")
#获取键盘输入
   mode=input()
#如果是训练模式,则调用训练函数
   if mode=="train":
      train()
 #如果是测试模式,则调用测试函数
   elif mode=="test":
      test()
   else:
      print("请重新执行程序并准确输入train或者test")

4.3最终效果展示

本示例的代码也会包含在gerneral项目中,可以直接下载下来进行调试。

- 示例的启动如下图

4fc42cc575b7b1744096fc9e10555704.png

- 模型训练过程如下图,随着训练的进行智能体越来越能够保持木杆的垂直状态。

a1be4443832bbe8d2246ab41df6fdc2d.gif

- 模型的训练效果如下图,可以看到智能体可以很好的将木杆保持垂直状态。

ba806dfdf4e01304720ddad35652c9d0.gif

5 结语

如前言中所说,写这篇chat的是作为general强化学习应用编程框架的发布,general是我会一直维护和升级迭代的一个项目,也是我致力实现强化学习在工业中应用的一个平台。当前的版本还比较的基础,很多设计的功能和特性还没有来得及实现,如果你发现了一个bug或者希望加入到贡献者中一起维护该项目,我是非常欢迎的。同时,如果你在工作中有需要使用强化学习来解决问题的场景,还是那句话:你有场景需求和数据,我有框架和技术,我们为什么不一起搞点事情。最后,如果你看到这篇文章且对于强化学习感兴趣,那么请关注该项目[github地址](zhaoyingjun/general),并顺手给个star哈。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值