【MMsys2020】《基于游戏特征的延迟补偿技术,减轻延迟对体验云游戏质量的影响》阅读笔记

《A Latency Compensation Technique Based on Game Characteristics to Mitigate the Influence of Delay on Cloud Gaming Quality of Experience》阅读笔记

一、背景及文章结构:

1. 文章背景

由于云游戏和在线游戏的差异,在线游戏的延迟补偿技术并不适用于云游戏。因此需要设计适用于云游戏的技术来缓解延迟。该文章首先总结了在线游戏现有的延迟补偿技术,然后利用影响用户延迟感知的一系列游戏特性,提出了一种适应游戏的延迟补偿技术。

2. 相关技术

1) 在线游戏的延迟补偿技术:

① 预测技术(predictive techniques):根据从服务器端接收到的最新信息估计游戏元素当前和下一时刻的状态。但预测技术通常会导致游戏的不一致性,因为其他玩家可能会改变他们的方向或速度。因此,当下一个包到达时,预测位置和实际位置将出现差异。

②延迟输入技术(delayed input techniques):本地命令将被足够延迟,直到命令传播到所有其他客户机并在这些技术中同时执行为止。

③时间补偿技术(time-offsetting techniques):在时间补偿方法中,可以回滚到游戏的前一个状态。例如远程延迟是多人在线射击游戏中广泛使用的时间补偿技术之一。在这种方法中,服务器检测命中是根据玩家在命中时刻的状态,而不是当前状态。

④ 难度调整方法(difficulty adjustment methods):该通常会改变游戏的设计。Sabet等人通过降低游戏的空间和时间精度要求来补偿延迟的影响。在经过难度调整后,玩家的体验质量和表现都显著提高。

3) 云游戏的延迟补偿技术

①云游戏的时间扭曲技术(time warp on cloud gaming):该方法是一种时间补偿技术。例如在射击游戏的一个镜头事件中,服务器将命中位置与目标过去的位置进行比较(通过保留以前状态的缓冲区/备份),以检测命中是否成功。虽然使用时间补偿可以提高游戏的质量,但云游戏中的时间补偿方法的效率低于传统的在线游戏。

②延迟输入技术(delayed input technique):在客户端的另一端添加了一些延迟,以平衡高端的延迟量。这种方法在在线游戏中工作正常,但将其应用于云游戏可能会降低另一个客户机中的体验质量。

③预测技术(Outatime):它试图根据玩家过去的行为和最近的行为趋势来估计用户的下一个反应。在具有可预测动作的游戏中,玩家通过提前执行动作来补偿CG中的延迟。结果表明,用户可以适应甚至是300毫秒的延迟,适应之后,用户可以更好地控制游戏的输入,获得更高的性能和体验质量。

二、文章提出的技术

1. 技术简介

该文章提出了一种基于游戏特性变化的延迟补偿技术。通过更改游戏的空间准确性(SA)、时间准确性(TA)、可预测性(PR)、所需动作数(NRA)和结果(CQ),来减少延迟带来的影响,提高用户的体验质量。通过降低游戏的特征空间准确性和时间准确性来提高游戏体验。

该文章利用这些特性,开发了四种不同的游戏,以研究每个特性对延迟的影响。

2. 五个特性

  • 时间准确性(TA)描述了玩家执行所需交互的可用时间间隔。时间间隔在很大程度上取决于游戏场景的机制和节奏。
  • 空间准确性(SA)是指成功完成交互所需的精度。通常,此特性强烈依赖于受控对象(例如,字符或光标)的大小和要与之交互的对象(例如,目标或平台)的大小。
  • 可预测性(PR)描述玩家是否能够估计游戏中即将发生的事件。例如,它与对象的位置或对象出现的时间相关。
  • 所需操作的次数(NRA)描述了用户与游戏互动的最少次数。这一特点往往与目标数目和游戏规则有关。
  • 结果(CQ)描述了行动的消极和积极结果。这意味着游戏对玩家在游戏中的失误的惩罚力度有多大。这样的后果可能是失去进步、积分和奖励。

三、实验评价

1. 游戏样本

  • Ant Smasher:一种射击游戏,玩家必须向红色目标射击,如果他们错过了目标,他们将输掉比赛。游戏砖块:射击和摧毁。
  • Shooting Range:一种射击游戏,玩家必须向每个目标射击三次。游戏砖块:射击和摧毁。
  • Dodge:一种游戏,障碍物从屏幕上的任意位置出现,玩家应通过Dodge避免与障碍物发生任何接触。游戏砖块:躲避和移动。
  • T-Rex:一种跳跃游戏,玩家必须从障碍物上跳下来。游戏砖块:躲避和移动。

2. 实验

每场比赛,受试者在延迟0和200毫秒的条件下玩游戏,每次游戏时间为60秒。在每一轮测试之后,受试者回答一系列问题。

3. 评估

通过交互质量进行评估,交互质量由输出质量(如视频和音频质量)、交互行为(如游戏状态信息交换)和输入质量(如玩家对系统的输入)组成。

在不采用自适应技术的情况下,输入质量的测评结果如下:

由于射击类游戏通常对延迟更为敏感,因此在参考条件下,射击类游戏(包括Ant Smasher和Shooting Range)的质量下降幅度最大。另外,另外两款游戏的质量也有很高的下降,它们也属于高度敏感类。

1) 使用空间精度进行自适应(SA)

SA特性取决于目标的大小,可以通过扩大目标和减小障碍物大小等不同的方式来改变。为了评估SA适应对体验质量的影响,三个游戏的变化如下。

  • Ant Smasher:目标大小乘以2.5
  • Shooting Range:目标的大小乘以2.5
  • Dodge:障碍物的大小除以2.5

参与者先在参考条件(0毫秒),有延迟补偿的情况下延迟200毫秒,无延迟补偿的情况下延迟200毫秒的条件下玩这三款游戏,输入质量的结果如图所示:

使用SA后,三个游戏的输入质量都显著提高。

a) 区域光标瞄准辅助

根据Fitts定律,射击游戏中的瞄准辅助分为两类,一类是改变距离,另一类是改变宽度。Fitts定律[17]指出,快速移动到目标区域所需的时间是到目标的距离与目标宽度之比的函数。因此,目标辅助方法基本上使用了SA和TA的相同原理,但它们只是针对射击游戏而设计的。然而,SA和TA的变化通常以一种透明的方式应用,用户在现有的目标辅助方法中无法观察到。例如,区域光标方法增加目标效果的区域,而不是视觉上放大目标。因此,玩家有同样的机会击中目标,但由于目标的视觉尺寸保持不变,因此适应效果不太明显。

为了将现有的目标辅助方法与SA进行比较,文章开发了区域光标目标辅助方法。它被认为是最有效的目标辅助方法之一。文章比较了区域光标方法和SA中的变化。

  • Ant Smasher:目标大小乘以2.5
  • Ant Smasher:目标的视觉尺寸保持不变,但效果区域乘以2.5
  • Shooting Range:目标的大小乘以2.5
  • Shooting Range:目标的视觉尺寸保持不变,但效果区域乘以2.5

上图是参考条件(0毫秒延迟)以及使用SA和区域光标瞄准辅助进行自适应前后的输入质量条形图。采用单因素方差分析对目标辅助适应、SA适应和适应前的输入质量进行比较。结果表明,适应性对输入质量有显著影响。

2) 使用时间精度(TA)的自适应

与SA类似,TA可以以不同的方式进行修改,例如降低目标速度、提高化身速度或通过操纵目标到光标的距离。为了改变所需的TA,游戏进行了如下调整。

  • Ant Smasher:目标速度除以2.5
  • Shooting Range:目标速度除以2.5
  • Dodge:目标速度除以1.7

下图说明了使用TA进行自适应前后的参考条件以及200ms延迟条件的输入质量。采用独立样本T检验,利用TA的变化比较适应前后的输入质量均值。结果表明,这三个游戏在适应这一特征后,输入质量都有显著提高。

3) 利用可预测性进行适应(PR)

PR可以以不同的方式改变,典型的是空间域或时间域,但在其他域也是可以的。以射击游戏为例,一些盟军和敌方目标出现在屏幕上,玩家必须区分它们并向敌方射击,如果玩家知道敌方目标何时何地出现并提供他们想要的反应,就可以提前做好准备。游戏进行了如下调整:

  • Ant Smasher:在标准版游戏中,目标的移动遵循余弦函数,在适应后,目标的移动遵循线性函数。
  • Dodge:在标准版游戏中,障碍物出现在屏幕上的任意位置,在适应之后,障碍物总是出现在屏幕的四个角落。
  • T-Rex:在标准版游戏中,障碍物出现在屏幕上的任意位置,在适应之后,它们总是出现在屏幕的右侧。

下图显示了关于PR的自适应结果。采用独立样本T检验,比较适应前后的输入质量均值。PR显著提高了三款游戏的输入质量。

4) 使用所需动作数的适应(NRA)

NRA描述玩家与游戏的交互次数。它也可以描述为每分钟所需的最小动作(APM)。用户通过对象与游戏交互。因此,NRA可以通过改变目标的数目或与对象交互的规则来修改。为了评估这一特点,游戏进行了如下调整:

  • Ant Smasher:适应后目标数量减少3倍。
  • Dodge:适应后目标数量减少2.5倍。
  • Shooting Range:在参考条件下,玩家必须正确射击三次才能消灭目标,适应后,只需一次射击就可以消灭目标。

下图说明了参考条件下以及使用NRA进行自适应前后的输入质量。利用该特征的变化对自适应前后的输入质量平均值进行独立样本T检验。Ant Smasher在适应前后的输入质量均值无显著性差异。然而,对于Dodge和Shooting Range,这一差异是显著的。

5) 利用结果进行适应(CQ)

CQ是指一个来惩罚玩家的失误的游戏机制。失误可能导致1)没有负面后果2)失分或耽误游戏进度,或3)输掉整个游戏,立即受到“游戏结束”这样的惩罚。针对这一特性,采用以下标准进行适应:

  • Ant Smasher:在参考条件下,丢失一个目标会直接导致游戏失败,而在改编版中,丢失一个目标只会降低游戏得分。
  • Dodge:在参考游戏中,任何与障碍物的接触都会导致游戏失败,而在改编版中,接触障碍物不会触发任何惩罚。
  • Shooting Range:正常情况下,失去一个目标会导致比赛失败,而适应后,失去一个目标时不会触发任何惩罚。

下图显示了参考条件下以及200ms延迟条件下使用CQ进行自适应前后的输入质量。在所有特征中,改变CQ对输入质量的影响最小。虽然改变CQ可以获得更高的目标性能,但它并没有显著提高Ant Smasher和Dodge的输入质量。在Shooting Range中,虽然这一差异是显著的,但仍然没有其他适应方法高。

4. 实验总结

该研究提出一种利用五个游戏特性,即空间准确性(SA)、时间准确性(TA)、可预测性(PR)、所需动作数(NRA)及结果(CQ)来减轻延迟对输入品质的影响的技术。SA、TA和PR都可以减轻三个游戏中的延迟影响。该研究扩展了游戏的类型,并证明减少所需的SA和TA可以显著减轻延迟对不同类型游戏的体验质量的影响。

此外,该文章还实现了一种称为区域光标的目标辅助方法,与其他目标辅助方法相比,该方法的性能最好。与SA和TA引入的视觉变化相比,使用目标辅助后可以实现更高的延迟缓解。

除SA、TA和PR外,还研究了两个主要关注游戏规则变化的特征:NRA和CQ。这两个特点不如其他三个有效。对于NRA,使用了两种不同的方法。其中一种方法减少了要求用户与游戏交互的目标数量,第二种方法改变了游戏规则,这再次导致用户与游戏交互的需求减少。

尽管NRA可以显著提高三款游戏中两款的输入质量,但其提高程度并没有其他三个性能高。我们认为用户在使用NRA进行适应时不能表现得很好,因为任务本身是困难的,和它需要重复的次数无关。例如,在Ant Smasher中,用户即使延迟命中一个目标也是非常具有挑战性的,甚至是不可能的。减少这些目标的数量并没有真正帮助用户。

在所有特征中,CQ的缓解作用最小。我们发现在游戏中取消惩罚会使游戏变得无聊,这可能会导致流量减少。玩家可能会觉得他们在游戏中的成就(分数)毫无意义,没有成就感。尽管完全关闭游戏惩罚不是个好主意,如果它能够以透明或不太明显的方式实现,以用户不注意的方式实现,则可能会产生不同的缓解效果。

虽然这项工作建议在有延迟的情况下改变游戏,但应始终考虑流的概念。当游戏太简单时,游戏就变得无聊了。当游戏太具挑战性时,用户会变得焦虑。延迟使游戏更具挑战性,适应应该平衡挑战的强度。当适应量较低时,就不会有缓解作用,类似于改变Ant Smasher中的NRA。如果适应量很高,就会让游戏变得无聊,类似于在Ant Smasher和Dodge中改变CQ时发生的情况。

另一个需要考虑的概念是当多人游戏时该技术的公平性。该技术是为云游戏中的单人游戏设计和评估的。不过,它也可以用于多人游戏。在多人游戏中使用这种技术,并结合匹配具有相同延迟的玩家,可能是一种公平的方法。在这种情况下,所有的玩家都需要同样的适应能力。

四、总结

本文首先确定了游戏延迟敏感性的游戏特性。随后研究了这五种游戏特性,并利用它们来缓解延迟对QoE的影响。使用了4个游戏,除了一个目标辅助方法,有5种特性被用于这些游戏。194名工作者进行了众包研究,以评估每一个特性。利用这些特性,当用户在200毫秒延迟的情况下玩游戏时,他们的QoE显著提高。在这些特性中,空间精度、时间精度和可预测性是最有效的并且可以在所有的游戏中最好地减轻延迟对体验质量的影响。目标辅助与空间准确性评分相似,但与其他任何游戏中的空间准确性适应相比都没有显著优势。减少用户与游戏的交互次数并没有像其他特性那样增加QoE。在所有特性中,结果的QoE增量最小。消除游戏的负面影响并没有增加QoE,因为一个没有评分系统的游戏对用户来说毫无意义。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值