在自遮挡下的单目图像3D姿态估计 Monocular Image 3D Human Pose Estimation under Self-Occlusion (ICCV 13)

Monocular Image 3D Human Pose Estimationunder Self-Occlusion (ICCV 13) 

在自遮挡下的单目图像3D姿态估计

摘要:文中提出在单张图片中3D姿态自动重建的方法。人体铰链关节、易产生错乱的身体部位的存在,杂乱的背景,都将导致人体姿态判断的歧义性,这都说明这不是一个简单的问题。为了减小歧义性,研究者研究了许多基于运动和阴影的方法,并对3D姿态进行重建。我们算法的关键思想就是增加运动和方向限制。前一个是在3D模型映射到输入图像时增加的限制,可以减掉那些与模拟人体不适宜的地方。后一个是通过创建合成视点加入限制,将输入视点复原成多方向的视点。应用这些限制后,3D模型映射到最初的和合成的视点,这样会进一步减少歧义性。最后,借用从相对于初始视点的合成的视点中没有歧义的部位,产生最后的3D姿态。在HumanEva-I数据库上,我们进行量化实验,在Image Parse (IP)数据库上非限制的图像上,我们进行定性分析。结果显示,提出的方法具有鲁棒性,并且能够精确的从单张图片中重建出3D姿态。

1.  介绍

       从单目图像中自动恢复人体的3D姿态是一项在机器视觉中非常具有挑战性的问题。因为铰链式人体的变形,自遮挡的存在,很大的自由度,相同的人在不同的环境限制下所表现的动作众多,因此从单张图片中估计人体的铰链结构具有很大的歧义性。这个问题的解决将有助于行人检测和跟踪、汽车安全、视频标注、人体行为识别和图像方面的应用。
       最近的从2D图像中恢复3D姿态的方法可以被归类为(1)基于数据驱动和(2)从运动中恢复结构的技术(SfM)。基于数据驱动的方法通过图像的观察值或者2D节点的位置映射出的3D节点,预测出3D姿态[1.5.6]。与此相反,从运动中恢复结构(SfM)的方法,通过估计摄像机的参数、骨骼长度和部位方向,从相同组(一类)[18][19]不同图片中所获得的2D节点中,提取3D节点。这里我们综合了这两种技术,来取优舍弊。
给一个输入图像,我们使用现有的2D人体部位检测子估计2D关节位置(比如,Yang 和Ramanam[20])。由于自遮挡存在的限制,我们增加了一个预测步骤处理自遮挡,改善初始输入,再进行3D姿态估计。接着,我们将3D模型映射到2D节点,获得了一个有较强歧义性的3D姿态。通过增加运动和几何限制,我们降低了歧义性。为了解决所有剩余的歧义性,我们使用Twin-GP回归方法[5],从最初的一个视点预测新的视点,然后将3D模型映射到最初的和合成的视点上,来估计部位的相对深度。最后为了解决部位方向的问题,我们借助在合成视点中非歧义性的部位校正在初始视点中有歧义性的部位。(这是总体方法)
       文章的主要贡献:
       在困难的人体姿态场景中的2D图片上,建立了一个3D姿态自动重建的框架;
       自遮挡的推理方法改善了初始化步骤,提高了2D姿态检测的精度,在公共数据库上已测试;
       提出了一个自动解决部位方向歧义性的方法,而不是像[18]中依赖用户的输入。

2. 背景

       有很多关于从2D图像中进行3D姿态重建的文章,我们的注意力集中在使用数据驱动或者从运动中恢复结构(SfM)的方法来进行3D姿态预测。
      数据驱动方法的关键部分是图像描述子的选择,输出的形状和推理方式。一般的步骤是:(1)从2D图像中提取特征 (2)使用预先定义的预测子估计3D姿态。预测子,包括基于稀疏回归、最近邻和特征描述(比如SIFT)子,已经在使用,可以实现从2D图像到3D姿态的自动重建。Agarwal等[1,3]使用轮廓信息作为图像描述子,伴随稀疏回归的相关性方法(?)将提取的轮廓映射到3D姿态,并将其应用到人体跟踪[2].Bo 等人[6]利用不同的鲁棒性的描述子(如多层SIFT特征描述子块),在贝叶斯框架中预测3D姿态。他们利用有条件的贝叶斯混合专家模型(?),直接从相应的图像观察值中映射出相应的3D节点位置。
       最近,Bo等[5]等人,提出了双高斯过程回归方法,从HOG和HMAX特征描述子中估计3D姿态。这些方法的一个局限是他们需要大量的训练数据塑造预测子,和表示不同人和不同视点下的外貌变化。典型的基于这些方法的实验只在实验室控制的数据上执行过。本文中,我们提出了在非控制的环境中,图像/帧中重建3D姿态。另外,利用图像描述子,例如[5]的方法,不能保证在经验上捕捉到空域信息。在我们的方法中,这些局限性被克服了,因为现实图片的部位定位是基于图结构PS[如 20],它明显的增加了形状的限制。而且,我们的方法正如之前的技术,同样只需要单张图片。然而,早期的方法的焦点从图像观察值映射到3D,减少了鲁棒性和普遍性。当有动态的背景,图像中出现易产生错乱或遮挡的部位时,其性能会受损失。想反,我们的方法可以从扰动的、变化的背景和非可控的身体部位中,精确重建出3D姿态。
     基于SfM的方法已非常流行。从一系列图像/帧中,利用因式分解(factorization method?)的方法,从相应的2D(结点?)估计出3D姿态,分解方法首先是在[17]中被介绍,用于恢复刚体结构的3D姿态。[8]在目标生成中,通过增加限制,提出了用于非刚体结构的因式分解方法。在Wei[19]有趣的工作中,是从铰链的目标中恢复的3D姿态,相同主题的多张图片上有不同的动作,通过在刚体和非刚体结构上增加限制来降低歧义性。在非线性优化的架构中,他们组合了刚体和非刚体的结构来估计摄像机参数和骨骼长度。Valmadre等[18]扩展了这种方法,使用了基本的因式分解方法和线性最小二乘法求得参数。之前的SfM的方法的一个普遍批评是他们需要多张图片。另外,对于找到易产生错乱和隐藏部位的方向问题的解决方法,他们需要用户的手动输入。我们提供了一个自动解码歧义性部位方向的解决方案。在实验中,我们的方法对性能产生了明显的积极影响。
       从2D图像中估计3D姿态已经被其他最近的工作调研过,如[4,9],他们增加了时间的连续性来减少歧义性,然而我们只从单张图片中估计3D姿态。在单张图片中的相应的点中估计3D姿态,已经在更早的文献[16]中调研过。最近,Simo-Serra等[15]利用一个相似的初始化步骤(从含噪的2D节点),然后利用了一个不同的推理方案。他们使用协方差矩阵适应(CMA,covariance matrix adaptation?)采样3D姿态空间,然而我们的方法增加了运动和方向限制。利用CMA有可能导致局部最小值而产生非精确的3D估计,然而在所有的测试场景中,我们的方法提供了精确的3D姿态。

3. 提出的方法


图1 处理流程概图 (从左:)首先输入一张图片,运用2D部位检测子和自遮挡推理进行处理。下一步通过初始的视点产生多个合成的视点。然后,使用SfM方法增加运动限制减少歧义性。最后,从合成视点映射到最初的视点输入增加方向限制,生成3D姿态


        正如图1展示的那样,我们提出的算法可以分成三个子阶段:1)初始化 2)预测合成视点3)估计3D姿态。我们采用了最好的Mixture of Parts检测子[20]来初始化我们的算法流程。尽管这些检测子在检测铰链身体部位时效率高效,但自遮挡存在时,他们依然会失败。在初始化步骤中,因此我们又增加了一个小的高效的方法来克服自遮挡问题(见3.1部分)。
       将3D模型映射到初始视点上,将会产生歧义性的姿态。我们明显的增加几何和运动模型来减少3D姿态的歧义性,消减不合适的拟人化部位。然而,只利用这些限制不足解决歧义性部位的问题,尤其是肢体方向的问题(朝向/远离摄像头)。因此,为了解决剩余的歧义性,我们需要更多的关于部位方向的线索。这里我们提出了一个新的推理方法,通过从训练数据中学习的姿态分布生成合成(增加的)视点,最后采用SfM的方法,在最初和合成的视点中的相应的节点中估计部位的相对深度。这可以解决剩余的歧义性姿态的问题,不仅可以用于实验室控制事例中(比如HumanEva数据库[13]),也可以用于困难的易产生错乱的情况,比如IP(image Parse)数据库中[12]。

3.1 初始化

考虑到初始化步骤的重要性,我们首先提出了一个新的方法处理自遮挡来提高最终的姿态估计的结果。
混合图模型结构(MoPS):Yang 和Ramanan[20]通过将身体部位表示为一种混合的图结构模型来进行姿态的估计,MoPS中,节点即在不同方向上的部位。下面是在[20]文献中符号形式,一个特定的姿态配置分数:


是从图像I的Pi位置中提取的HOG描述子,第一项求和表示的是图像的位置相相对之前定义的外观模板集的分数,第二项的求和是对相邻部位之间的弹簧关系的编码。推理通过最大化在位置p和类型t的分数继续进行(?)。
MoPS的自遮挡处理:在树结构模型中,孩子的本地得分将能够被其父母正确的遍历。然而当存在遮挡时(部分或者全部),树形结构转为图,分数有可能会被错误的父母遍历到,导致部位的丢失和不精确的检测,正如图2a展示的那样。


图2 使用[21]的部位检测子的样例结果(a)和自遮挡处理的结果(b)

      在[11]中,我们提出了一个基于自遮挡校正的回归方法。我们观察到遮挡处理比遮挡校正更加困难。本文中,我们在MoPS框架中进行遮挡检测,MoPS在树中编码了运动结构。它隐含假设非连接部位是独立的,这在自遮挡下不符合的[14]。为了能够保持独立的假设,我们可以使用置信传播,从它们的得分中我们估计出遮挡的部位。当部位i的检测不够精确甚至丢失,即被其他的部位遮挡时,像素p的得分会下降到负无穷。在自遮挡情况下,位置p的得分是:


为了找到遮挡的像素,我们进行下面情形的处理:对于每个部位i,选择k个最大分数像素;获取它的边界框表示候选部位结果;找到其他部位与部位i的最大覆盖率;如果它超过了阈值 ,如果在p位置的得分比重叠区域环绕的像素的得分小,那么部位i的处理就当作是在像素p的遮挡部位。因此,我们削弱了特性结构,这使得有可能自啊非连接的部位间建立弹簧,由于自遮挡的存在。因此局部得分是独立的。然后我们使用[20]中的剩余的信念传播推理过程,获得了更精确的检测,如图2b。在实验中,我们根据经验设置k=5, =0.15。表1显示了,由于自遮挡推理步骤的处理,相对于现有最佳结果的提升。详细的评价协议,参照[20].


表 1 在MoPS中处理自遮挡的影响:相比默认的MoPS上,有较小的但是连续的性能提升,这里使用[21]中正确关键点的概率(PCK)作为评价标准。

3.2 多视点合成

         为了生成精确的3D姿态,我们使用了Wei 和Chai[19]的方法,将3D模板映射到从前面步骤获得的2D结点矢量x上。[19]假设假定至少可获得5张2D图片,使用SfM方法估计摄像机参数。相反,我们只使用一张2D图片,这里假定摄像机的尺度参数是统一的。为了不同部位深度信息的歧义性,我们提出从最初的视点中估计多个合成的视点,这使得我们可以在每个骨骼的方向空间上增加新的限制,减少了3D姿态的歧义性。

3.2.1 提取3D训练数据

在我们的实验中,所有的数据是从CMU Motion Capture 数据库中收集的。每个视点的数据集是随机从每个视频序列中选择5帧。基于提取的每帧的3D结点,我们测量了人体头的角度,然后旋转3D姿态,在360度的极坐标上提取3D结点(?)。映射landmarks(?)到不同方向的2D平面,获得所有极坐标角度下的所有节点的2D点。


归一化骨架:在回归中,世界坐标的应用经常会获得失败的预测,由于不同尺度的人体骨架在进行不同动作时,和在转换过程中,都会产生很大的变化。为了实现在转换和尺度上,一定程度上不变,我们对每一个视点使用一个模板进行归一化。2D输入骨架是一颗树,Chip是根节点root,关节表示为结点,父结点与其孩子之间的边表示骨头。数学上,表示为 , 是一个含d个结点的骨架,归一化是这样进行的:首先,将Chip结点作为参考结点,将每个部位xi都转换为以Chip为起点(?)。第二步,将直角坐标系的结果转换为极坐标的形式。Xi= , 表示在父节点p和孩子结点c之间的骨头的绝对长度, 是骨头相对于水平方向的坐标。第三步,参考预先为每个视点定义的基础骨骼x0(?:),对每个估计骨头的长度进行尺度变换。归一化步骤的优势,和在尺度转换上变化的减弱,是为了适应高斯分布的输入数据。
3.2.2 多视点扩展
在所有的实例中使用归一化的步骤,将在每个视点产生N个样例。然后,在这部分中,我们将建立一个特定的模型从视点i到视点j进行回归。在我们的实验中,我们收集了CMU数据库中16个视点的数据(0-360度,间隔22.5度)。这里关键的思想是,通过回归的方法,从输入实例中产生新的骨架。对于这项任务,我们使用了级联形式的Twin-GPR。最后,我们使用建立的模型,从以下姿态上推测实质上的模型。
最近,在从图像观察值中进行3D姿态的结构预测中,Twin-GPR的使用已经代替了传统的回归方法,比如高斯过程回归和岭回归。Twin-GPR是一种多变量的回归方法,其编码了输入和输出之间的相互关系。使用[5]的方法,我们建立了一个回归模型,从输入视点中生成新的视点。
考虑到 ,是在n个实例中,从两个连续的视点i到j的归一化的实例,回归的目标是,在给定输入矢量 是,在观察到的 上预测观察不到的矢量 的分布,因此,一个测试矢量的预测高斯将会通过最小化输入[5]分布间的散度来进行测出(??):


输出的分布是:


其中 是对输入的矢量z估计的目标的姿态的归一化矢量,  和  视点I和视点j的训练姿态的均值矢量,且


是半正定协方差函数,编码了输入训练矢量I与测试矢量z之间的关系,训练目标矢量J和估计的目标矢量 之间的相关性,K是输入I或目标J的NxN的矩阵, ,每个 都是Nx1的矩阵,表示矢量z, 间和矩阵I,J间相关性(?)。现在的问题是,如何在没获得z~估计值的情况下,计算Eq.4 中分布。为了达到这个目的,我们使用了kullback-Leibler散度,在Eq.3, Eq.4 两个公式的分布中。然后,通过迭代过程,使用拟牛顿优化(?)最小化散度,使用岭回归子初始化z~,对每个输出矢量单独训练。
级联Twin-GPR:Dollar等[10]提出了一个有趣的回归方法,能够以级联的形式逐渐达到真值。在我们的框架中,我们从输入视点中恢复其他的多个视点。一种简单的方法是,学习从一个视点映射到所有的视点。然而,这样随着模型需要学习的数量很大,增加了系统的复杂性。受[10]的启发,我们将学习特定视点回归模型的问题作为一种级联的Twin-GPR问题。 看作是基于Twin-GPR的函数,从zi->zj的映射中,zi是输入姿态的的归一化矢量,zj是新的视点的矢量, 是zi的视点。Reg的输出成为下一次迭代的输入, 。在每一步中, 加入到视点中,使用特定姿态的模型进行回归。Algorithm 1,计算了N次,概述了从输入视点生成新的的视点的步骤。


3.2.3 原始视点估计
为了初始化级联回归过程(Alg.1),我们估计了初始视点的方向。知道了人体姿态的初始视点,将大大减少3D姿态重建的歧义性[4]. 采用高斯混合模型(GMM)推测初始视点[7].GMM使用最大概率贝叶斯框架。已经用来学习贝叶斯回归模型的数据,也用来训练GMM模型。现在,共16个视点(类)。我们将每类的成员分为了很多组合(根据经验,我们使用了50个进行实验)。根据输入初始视点,在推理中,初始视点的方向,由最大可能性的类决定。

3.3 估计3D姿态

3..3.1 传播歧义性3D姿态
为了估计3D姿态,我们首先使用初始视点的2D结点,然后提升到3D姿态。3D姿态的参数是一组n个3D结点的矢量 ,对应于2D的输入结点 .3D姿态的重建可以看作是线性系统的一个解,当多张图片可以获取到时。相反,我们只使用一张图片和一组2D结点。我们假定内部的摄像机参数A已知(需要参数,什么)。从已知的值A,ui,我们可以获得2nx3n的映射矩阵M,表示3D结点(在摄像机坐标系统中)与2D位置关系。我们对所有的结点表示为Mv=0。求解这个等式需要多个限制条件。通过[19]中的训练数据,我们可以学习到上下骨头角度的限制,运动限制通过此加入。产生的有歧义性的3D姿态,可以参照Fig1。
3.3.2 推断非歧义性的3D姿态
为了解决歧义性,获得一个精确性的3D姿态,我们进行以下两步。正如之前提到的,基于SfM的方法重建3D姿态,是经过估计摄像机的尺度,骨骼长度和深度,将3D模型映射到在不同图像中对应的2D的结点。只有一张图片暗示摄像机的尺度参数为1.首先,在合成视点的帮助下,我们删除不同部位的歧义性的深度。已知输入视点和合成视点相应的结点,我们目的是估计骨头的长度和不同部位的深度。回归的步骤是创建多个合成的视点,产生不同的骨头尺度。为了解决这个问题,只在一张图片展示我们的工作(在一个人体上展示),我们可以安全的约束这个问题,通过修正在所有视点中响应的骨头长度,让其与原始的输入图片一致。
第二,我们需要估计每个部分的相对深度。Valmadre 和Lucey[18]通过分解的方法计算每个部分的相对深度,在不同图片中二维相应点的弱透视映射开始,然后通过最小化构建错误获得需要的参数。受[18]的启发,我们使用相同的分解方法在初始视点的相应点上,几个合成视点推理每个部分的相对深度。
然而,在许多情况下,结点角度符号周围的歧义性依然存在。Valmadre的方法[18]没有解决许多包含有幻觉部位的姿态的歧义性,因此,用户需要手动的决定歧义性部位的方向(如,前后)。在我们提出的框架中,我们对这个问题开发了一个有效的解决方法。在图像的基本视点上使用投影映射。然后,我们确定了剩余的歧义性部位, ,其中依然可能是前后方向。我们重复在所有合成视点的前两步,我们将3D模型投影到每个合成视点,每个视点的3D模型的一些部位中,一些可能有歧义性,而另外的部位没有。我们在3D姿态上搜索了所有的非歧义性的部位,从合成视点上获得的,对应于歧义性的部位G。这是增加方向限制。然后,我们从输入图片的3D姿态中迭代的借用方向,直到所有的歧义性的部位移除。
在这步中,一些图片需要2、3个实例,然而其他的需要n个视点。这就是我们一次增加一个视点,直到所有的歧义性部位移除后停止。如果其中的某个部位有2个或更多的方向,这个部位依然有歧义性。恢复多视点后,使用SfM的一大优点是剪去了由回归过程引进的含噪声预测,提高了3D姿态的结果。

4. 实验

在不同的实验中,我们对我们提出的从单张图片中恢复3D姿态的方法性能进行了测量,使用了定性和定量的方法。

4.1数据

所有的训练数据,包括级联的Twin-GPR和GMM方法估计输入姿态的视点,都是从CMU Mocap数据库中获得。在所有可获得的运动序列中,在每个序列,我们随机的选取了5帧。共14229帧。每帧,我们通过旋转3D骨架提取16个视点。我们在不同数据库上对我们的数据库进行了测试:HumanEva-I用于量化测试,IP数据库用于定性测试。

4.2 在HamanEva数据库上的定量测试

我们的算法性能在HumanEva-I的walking 和jogging动作上进行了测试[13]。通过校验序列的测试,显示了我们的方法在恢复3D姿态的鲁棒性。回归模型的训练序列是从CMU中提取,显示了我们算法的泛化能力。
表2显示了数值计算结果和与现有方法的比较。我们紧跟[15],在相同的序列上进行我们的实验,估计我们的方法。中值预测和标准差的单位是mm.在我们的方法中,我们展示的像[4][9]中绝对误差。然而,在[5][15]中,使用的是相对误差。关于我们算法的定位,最接近的方法是Simo-Serra的[15],他其中两个方法使用含噪观察值初始化。在[4][9]中,增加了时间连续性限制移除歧义性,这其中需要多张图片。相反,我们的方法是从单张图片中估计3D姿态。除了[5],我们的方法好于其他所有的方法。[5]利用了应用背景减除法,做了一个强的假设,因此,不能够容易的处理变化的背景。相反,我们的方法,在含有不同扰动背景的图片上进行测试,不需要先验背景提取。而且,[5]的训练、验证和测试序列都是来自HumanEva-I.在我们的方法中,我们通过在CMU数据库上训练回归模型,并且在HumanEva-I上测试,显示其良好的泛化能力。


表2 HumanEva上算法比较,单位mm,括号外的值是与真值的评价结点误差。括号外的是标准差。[4][9]没有提供Jogging的测试。[5]进行了先验背景提取。
在初始化步骤中,我们提出了一种当自遮挡存在时,对部位重叠和缺失问题的一种解决方法,即打断非连接结点间的弹性(?)。然而,我们清楚的认识到,一定程度上这个问题还是存在的,我们需要寻找一种跟鲁棒性的技术减少歧义性的观察值。受[15]的启发,计算产生的形状和真值进行严格对齐(?),这进一步减少了重建的误差。在我们的实验中,平均的重建误差在大约200mm,平均分布错误是90mm.注意,大部分的误差产生与从初始化步骤中输出的2D结点的偏离。
关于计算时间,每张图片的3D姿态估计约1min,包括需要获得初始2D视点的时间。

4.3 定性估计

为了验证我们算法的鲁棒性,我们在大自由度,含严重自遮挡的幻觉图片上,进行了两个实验。由于这些图片的3D姿态的真值不可获得,这里展示了量化的视觉比较。
在第一个实验中,我们在视觉上比较了我们的方法和Valmadre[18]的方法。对于两种技术,初始化都是使用手动标注了2D结点。[18]使用了多个不同的图像恢复3D姿态。我们的方法只用了单张图片。而且,Valmadre的方法没有能够移除所有的歧义性,尤其是结点的角度符号。他需要用户定义这些方向(正/反)。在我们的方法中,通过不同合成视点中,共享非歧义部位的符号,在绝大部分情况下移除了这种歧义性。
Fig.3 b.c展示了在[18]的方法和我们算法的3D输出。特别的,这个比较的动机是,显示在从初始视点中恢复多个视点后,使用SfM的优势。在分解后,从回归预测的结果噪声过滤了,从而减少了最后结点的歧义性。


Fig.3(左图) 定性分析:(a)输入图像 (b)Valmadre[18] 的图像3D姿态恢复结果,使用了多张不同图片重建3D (C)提出的方法的结果,在单张图片中,使用2D结点的初始化。3D姿态归一化了,并且以起点为中心。

Fig.4(右图)最后的3D姿态估计的视觉比较(a)无 (b)含有自遮挡的处理。在(a)中,自遮挡导致错误的初始化,传播到最后3D姿态。(b)中,初始化是精确的,导致了精确的3D姿态估计。

在第二个实验中,(Fig.4),我们估计了提出的自遮挡处理的影响。实验是在IP数据库的图片上进行[12]。Fig.4a展示了使用混合图模型结构进行初始化的结果。Fig.4b显示了显示了相同图片的输出,但是有自遮挡处理机制。从视觉上可以看出,使用自遮挡处理的机制,提高了初始化的精度,阻止了误差传播到合成视点,再到最后的3D姿态。

5.结论

我们提出了从单张2D图片进行3D姿态重建算法。在初始化阶段,我们利用了一个著名的2D部位检测子产生2D结点。我们通过自遮挡处理,提出了一个新的方式改善了这个步骤的输出。为了增加更多的限制,我们通过从初始视点到多个视点进行回归的方法生成了合成的视点。通过在将3D姿态映射到初始的姿态上获得的3D歧义性的姿态上,增加运动和方向限制,减少了歧义性。实验显示,提出的算法很有前途。然而,含噪声的观察值还是影响者最终的3D姿态的精度。未来的工作将提供一个更鲁棒性的处理自遮挡的方法,并在更加原始的环境中测试。

(公式,不会粘贴,见谅,第一次翻译,翻译的不好....有许多地方不明白,望大家共同学习大笑




评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值