DeepMind新突破:雷神之锤3战场AI夺旗,团战胜率超过人类

黑栗子 发自 凹非寺
量子位 出品 | 公众号 QbitAI

640?wx_fmt=jpeg

OpenAI战队在5v5刀塔比赛上打败人类,才是几天前发生的事。

如今,DeepMind为了训练AI电竞的团魂,也已把触手伸向了雷神之锤3竞技场。

DM的强化学习智能体,不止要和AI队友一起攻打人类的阵地,也要和人类队友并肩作战。

640?wx_fmt=gif

至少,在夺旗 (Capture the Flag) 比赛中,AI的胜率比人类高。

而且,这里的比赛,比原版游戏还要复杂多变

拔下对方的大旗

DeepMind团队这次选择的雷神之锤3竞技场,是款3D第一人称多人游戏,也是培育AI团战技能的好地方。


其中的夺旗游戏,两队的目标都是拔掉对方的旗子,将己方旗子守在自己的大本营。

我是蓝方,就需要标记 (Tag) 扛着蓝旗往回跑的红方敌人,我方的旗子才能失而复得。

640?wx_fmt=gif

如果红方把蓝旗搬到了他们的阵地,就不好了。所以,队友之间要紧密配合才行。

规则其实很简单,但场景的变化很复杂。

不过,DeepMind团队还想让情况更复杂一些,给AI更有 (bian) 趣 (tai) 的锻炼。

640?wx_fmt=gif

于是,夺旗游戏的地图上,发生了一些可爱的改动。

各种地图,训练有素

每场比赛之间,地图都会发生变化。这个变化,是随着比赛的进行生成的。

640?wx_fmt=gif

这样一来,智能体要学会应付,许多没有见过的新地图

DeepMind的强化学习模型,有三个要点——

· 第一,既然是团战,当然要把几只智能体扔进竞技场一起训练。

它们要学习,怎样和队友亲密互动,打击敌人。

640?wx_fmt=jpeg

· 第二,每个智能体要学习,它自己的奖励信号,建立自己的小目标,比如拔掉对方的旗。

优化过程是双层 (Two-Tier) 的,可以优化智能体内部的奖励,让奖励信号更直接地指向胜利

· 第三,智能体在两种节奏里面运行,一种快,一种慢,这样可以增强它们运用记忆体、生成稳定的动作套路,的能力。

640?wx_fmt=png

神经网络的架构,称为FTW (For The Win) ,为了赢 (字母顺序不要颠倒) 。

这里,有快速慢速训练用的RNN,有一个共享存储模块,可以学习怎样把游戏中的某个,转换为相应的奖励

稳胜人类一筹

训练好的智能体,就做好了赢的准备。

面对地图大小的变化,队友数量的变化,以及敌方的变量,都表现出训练有素的样子。

640?wx_fmt=gif

这是户外地图,红蓝双方都是AI,斗争非常激烈。

室内地图,则是AI与人类选手组成的混合战队,与纯AI战队的斗争。

640?wx_fmt=gif

DeepMind这次一共动用了**40个人类加入战斗,与AI随机组队。看得出他们的比赛并不轻松。

最终的结果,人类胜率不及AI

640?wx_fmt=png

另外,不管强大的人类,还是普通的人类,Elo评分都没有FTW那么高。

AI为什么赢?

除了看到AI拔旗比人类厉害,团队还想知道,它们是凭什么赢。

于是,就研究了AI的行为模式,观察一下它们是怎么理解比赛的。

640?wx_fmt=png

各种颜色的点点,分别代表, 旗在阵地,队友扛走敌方大旗,自身处在敌方阵地等等。

不同战况之下,AI的反应明显不同。安全和危险,分得清清楚楚。

甚至有一些神经元,是专为某种特定境况而生的。

没有人教过AI,比赛规则是什么,但它们依然能够在训练中,产生战士的修养和自觉。

640?wx_fmt=gif

另外,团队还发现,AI的战斗力虽然是在非监督学习中炼成的,但它们也像人类一样,会跟着队友走,会在敌方阵地上玩耍,如此种种。

果然,即便再放养,AI的爸爸也还是人类吧。

640?wx_fmt=jpeg

加入社群

量子位AI社群18群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot8入群;


此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。


进群请加小助手微信号qbitbot8,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)

实习生招聘

量子位正在招募活动运营实习生,策划执行AI明星公司CEO、高管等参与的线上/线下活动,有机会与AI行业大牛直接交流。工作地点在北京中关村。简历欢迎投递到quxin@qbitai.com


具体细节,请在量子位公众号(QbitAI)对话界面,回复“实习生”三个字。

640?wx_fmt=jpeg

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态


以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功和无线接通。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速和上传速上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值