AI玩跳一跳的终极奥义:首个端到端神经网络,看AI在玩游戏时注意什么

1 前言

微信跳一跳自发布以来,迅速成为了人们茶余饭后的休闲利器,同时也演变成了各路程序员的竞技场。程序员们争先开发出各种牛逼外挂,让计算机自己来玩跳一跳,把小游戏玩出了新的境界。

然而,在深度学习如此火热,AlphaZero已经征服各种棋类,Atari游戏已经被计算机吊打的情况下,目前出来的各种外挂版本,大多采用传统的方法来实现,比如使用传统计算机视觉的颜色,边缘检测等方法来寻找棋子的位置。传统做法,虽然已能够在游戏中取得较好分数,但是代码复杂,需要针对不同手机设置不同的参数,简单点说就是逼格不够,不够AI。

那么,到底能不能用纯深度神经网络来玩跳一跳呢?

答案当然是Yes。

在本文中,我们祭出微信跳一跳AI的终极奥义:仅使用一个端到端的神经网络,就能玩!

2 代码

Talk is easy, show me the code!

So, here is the code?:

songrotek/wechat_jump_end_to_end​github.com图标

这个git仅包含所需的运行代码,就两个文件一个ios,一个android。

使用方法非常简单:

(1)安装iOS或Android开发所需的软件及依赖,具体详见:

https://github.com/wangshub/wechat_jump_game/wiki/Android-%E5%92%8C-iOS-%E6%93%8D%E4%BD%9C%E6%AD%A5%E9%AA%A4​github.com图标

(2) 安装本代码所需的PyTorch深度学习框架:

pytorch.org​pytorch.org

(3) 手机连接好电脑,注意iphone需要在run_ios.py中更改一下WebDriverAgentRunner运行后得到的ip。打开微信跳一跳,然后在Terminal中输入:

python run_ios.py

或者

python run_android.py


接下来就是见证奇迹的时刻!


再看看代码,也就是100行!惊不惊喜!意不意外!

这到底是怎么实现的呢?

下面我们来解密实现方法!

3 端到端神经网络玩跳一跳是怎么实现的?

估计有很多朋友的第一反应是:难道是用深度增强学习(Deep Reinforcement Learning),也就是AlphaGo的方法?

老实说我一开始也是打算这么干的,但是具体分析一下发现并不是那么好做。首先是我们获取不了游戏内部数据,不方便获取Reward,即使我们要自己设定一个Reward,比如计算棋子离盒子正中心的位置,我们依然需要通过计算机视觉分析的方式实现,违背了我们纯端到端神经网络实现的初衷。其次是跳一跳这个小游戏,玩的速度很慢,基本上一步要一秒多。而使用深度增强学习最大的问题就是需要训练几十万步。这样看来,要用深度增强学习训练出一个能玩的网络,大概要训练到明年吧!

因此,我们不用深度增强学习,而改用模仿学习(Imitation Learning)!并且使用模仿学习中最简单的行为克隆(Behavior Cloning)方法。简单的说,就是收集很多好的游戏输入输出数据,然后使用监督学习训练。

本质上说,这种模仿学习的做法就是把人工编写的复杂程序存进一个神经网络中!

好了,确定了方法论。下面就可以开始具体实施了。

3.1 构造游戏数据库

从哪里搞到很多的游戏输入输出数据呢?别忘了,传统方法都已经可以玩到10000分以上了,我们完全可以用传统方法来收集数据。在这里,我基于下面的代码稍作修改收集数据:

BeiTown/wechat_jump_game​github.com图标

这个代码加了点小AI,训练了通过线性回归训练了一个简单的线性模型来估计跳跃距离和按压时间的关系,相对人工设定的参数会好一些。

一个用线性模型玩跳一跳的结果


有了这个,我们就可以将每一次跳跃的屏幕截图及按压时间记录下来:

其中图像先做一下预处理,居中裁成正方形,方便之后的训练,而按压数据则存在Json中,一个图片名称对应一个按压时间。图片名称很简单,直接使用的截图时间。

就这样,我们让微信跳一跳跳了n个小时,终于收集到了5000多个数据样本。

有了数据库,下面就是如何训练了。

3.2 构造端到端神经网络模型及训练

这里我构造了一个5层的卷积神经网络,每一层神经网络包含一个64 通道的3x3 卷积核的卷积层,一个BatchNorm,一个ReLU及一个2x2的Max-Pooling层。具体如下图所示:

由于输出的按压时间是一个单值,非常简单,我们使用Mean Square Error来作为模型的损失函数Loss。因此,我们的模型是一个简单的回归模型。我们使用构建的数据库进行训练。在训练之前,我们对图像数据进行预处理,将其压缩成224x224的RGB图像,然后再输入到神经网络。我们采用Adam作为优化器,学习率设定为0.001,训练200个episode,一个episode随机遍历整个数据集一遍。

具体的训练代码见:

https://github.com/songrotek/wechat_jump_end_to_end_train​github.com图标

4 神经网络在玩游戏的过程中思考了吗?

上面就是端到端神经网络的实现方法,看起来过于简单了。只玩到这不太符合我们的Geek精神。因此,我们不禁要问:神经网络在玩游戏的过程中思考了吗?是不是神经网络也思考了传统做法中我们人考虑的问题,比如确定棋子和盒子的位置。为了验证这一点,我们做的一个额外的实验,构建一个带有注意力(Attention)机制的神经网络进行训练。我们使用一个4层的U-Net来输出一个和图像输入维度一致的注意力蒙版(Attention Mask),然后将原有图像与注意力蒙版相乘(Element-wise Product)就得到带蒙版的图像,即仅考虑注意力区域的图像。然后将带蒙版图像输入到4层卷积全连接后输出按压时间。具体网络结构如下图所示:

注意力蒙版每一个维度的值我们限制为[0,1],越趋于1就表示越关注,反之亦然。基于这样的网络模型训练后,我们就可以来看看神经网络关注了什么。下面是一些对应的截图:

可以看出,神经网络一定程度上自动捕捉了棋子和盒子的位置信息,特别注意棋子上头的高亮,这非常符合人玩游戏的方式,也符合传统做法的方法。一定程度上说明整个端到端神经网络内部也会自动捕捉到这些重要的位置信息!

5 小结

微信跳一跳的终极奥义就介绍到这了!大家肯定会惊讶于深度学习的神奇之处。老实说只看运行的代码我也非常惊讶。但是再看看训练的方式似乎不过如此。这大概也是深度学习的魅力吧!

希望这个Work能给大家带来更多欢乐!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值