【游戏AI】高度拟人化AI设计的思考

第一章、顾虑

在竞技游戏中,玩家通常会觉得与AI对战缺乏挑战和乐趣,原因有以下几点:

AI的可预测性

AI通常依赖预设的算法和行为模式来操作,尤其是状态机,有限的状态机切换,其次行为树能稍微复杂点,但也是有迹可循。因此在长期游戏过程中,玩家会逐渐熟悉AI的行为模式并能够轻松预测它们的行动。与之相比,真人玩家的行为往往更加多变和不可预测,增加了游戏的挑战性和新鲜感。强化学习通常会用蒙特卡洛随机或时序差分,多样性会大大丰富,有一定的新鲜感,可满足新手级别体验,以假乱真,高手因为思维活跃和细节熟练太多还是较难模仿。

缺乏社交互动

竞技游戏中的很多乐趣来源于与其他真人玩家的互动,无论是团队合作、策略讨论,还是心理博弈。与AI对战时,玩家无法体验到这种社交互动的乐趣,导致游戏体验的单调。这种互动还是很难做,因为程序总归是模仿人类感情,容易被发现,即是大模型也解决不了。

成就感的缺乏

击败真人玩家通常带来更大的成就感,因为真人玩家可能会使用创造性或策略性的方法进行对抗。打败AI虽然可能也有一定的满足感,但因其往往较容易被击败,且随着时间推移,成就感会逐渐减弱。

技术限制

尽管现代AI技术在不断进步,但很多游戏中的AI仍然难以达到真人玩家的水平。AI在决策上可能显得过于机械,或者在高难度下表现出不公平的“作弊”行为(如精准锁定),这两者都会破坏游戏体验。

竞争性

竞技游戏中的竞争通常是人与人之间的对抗,胜负关系到技能、策略和反应能力的较量。当玩家知道对手是AI时,会觉得自己处于不同的竞争环境中,这可能降低对比赛结果的重视程度和投入感。

社区认同

在许多竞技游戏中,玩家之间存在一种社区认同感和荣誉感。打败真人玩家可以让你在社区中获得认可,而打败AI则无法获得同样的荣誉或满足感。

因此,当玩家发现对手是AI而非真人时,传统的行为树或状态机设计的AI往往让玩家会觉得游戏缺乏挑战和互动的乐趣,只有高度拟人的AI才能让玩家没有这种顾虑。

第二章、 高度拟人化AI行为设计

基础算法

self attention
vision transformer
MAPPO
LSTM
TD
都是强化学习需要的基础算法,不再赘述

设计出发点

以下为出发点,一些细节待我日后再补:

禁止出现行为
拟人行为基础条目
地图点位掌握
单人长线策略
团队配合策略

拟人化具体先验知识

在看不到敌人时,人类总是通过经验来预判,区别高手和新手就在这些方面,高手通过长期练习或者专家经验,快速预判敌人即将出现的点位,然后准心调整预瞄,之后射击反应就是比新人玩家快0.几秒,而这几百毫秒就是致胜关键。而AI暂时不具备这样的策略分析,或者说这种致胜策略对于ai奖励影响不明显,AI很难学到。

所以AI要模仿出来,展示出来预判敌人的感觉,例如:
左右预瞄
掩体小幅度peek
开镜预瞄射击+提前枪
集体静步突击
防守点、没有看见敌人时的扫点
中门对狙
开局的烟雾弹使用:中门、A门、B通封烟
rush 包抄

第三章、高度拟人化AI射击

通过replay或视频录像来反外挂的同事,对正常行为和异常行为,作弊行为非常敏感。
看见敌人后,转动准心,瞄准敌人某些部位,瞄准后开火。
这个简单的过程,AI的行为显得机械化,转向不平滑或转速过快不像人,转向轨迹不连贯,都是不像人的问题。

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值