Foundation of Machine Learning 笔记第六部分——成长函数

前言

注意事项:

  1. 这个系列的文章虽然题为书本《Foundation of Machine Learning》的读书笔记,但实际我是直接对书本的部分内容进行了个人翻译,如果这个行为有不妥当的地方,敬请告知。
  2. 由于知识面限制,部分名词的翻译可能存在错误,部分难以翻译的名词保留英文原词。为了防止误导大家,在这里声明本文仅供参考。
  3. 本文基本翻译自《Foundation of Machine Learning》的 3.2 节。

正文

3.2 成长函数

这里我们将展示如何用成长函数 ( growth function ) 表示Rademacher complexity 的上限。

定义 3.3 成长函数

定义一个假设集 H H 的成长函数 ΠH:NN 为:

m, ΠH(m)=max{x1,,xm}X|{(h(x1),,h(xm)):hH}|.(3.19) (3.19) ∀ m ∈ N ,   Π H ( m ) = max { x 1 , … , x m } ⊆ X | { ( h ( x 1 ) , … , h ( x m ) ) : h ∈ H } | .
因此,(3.19) 表示了 m m 个样本点最多能被假设集 H 中的假设分成 ΠH(m) Π H ( m ) 种不同的情况。这提供了另一种量化假设集 H H 的丰富度的方法。但它不像 Rademacher complexity,这种方法不依赖于随机分布 D,它完全是组合数学上的 ( combinatorial )。

为了联系 Rademacher complexity 和成长函数,我们将使用 Massart 引理。为了证明 Massart 引理,我们要使用 Hoeffding 引理。

引理 D.1 Hoeffding 引理

X X 是一个期望 E[X]=0 且在区间 [a,b] [ a , b ] 中取值的随即变量。那么对于任意的 t>0 t > 0 ,下面的不等式成立:

E[etX]et2(ba)28.(D.2) (D.2) E [ e t X ] ≤ e t 2 ( b − a ) 2 8 .

证明 证明略,以后补充。

疑问 为什么这里要引入自然指数函数和一个变量 t 呢?我认为在 Hoeffding 引理的证明中,自然指数函数的作用是提供了一个凸函数,而凸函数的性质引出了一个能去掉数学期望运算符的 bound。而 t 的作用是提供了一个自由度去控制这个 bound,使得得到的不等式更加紧致 ( tight )。

定理 3.3 Massart 引理

Am A ⊆ R m 代表一个有限集,其中 r=maxxAx2 r = max x ∈ A ‖ x ‖ 2 ,那么下式成立 ( 我的补充 |A| | A | 指的是 A A 这个集合中的元素个数,实际上这种表达是集合的基—— cardinal,在这里,这个基的意思就是集合元素个数 ):

(3.20)Eσ[1msupxAi=1mσixi]r2log|A|m,
这里 σi σ i 是一系列在 {1,+1} { − 1 , + 1 } 上取值的独立的符合平均分布的随机变量, x1,,xm x 1 , … , x m 是向量 x x 中的元素。

证明 对于引理中不等式左侧项乘以任意 t>0 t > 0 ,然后求他的自然指数函数,得到 exp(tEσ[supxAmi=1σixi]) exp ⁡ ( t E σ ⁡ [ sup x ∈ A ∑ i = 1 m σ i x i ] ) ( 我的理解:为什么这么做?我认为自然指数函数和 t 的引进是为了使得不等式能够使用 Hoeffding 引理 )。使用 Jensen 不等式、重组式子、以及使用累加大于上确界这个事实,我们得到:

exp(tEσ[supxAi=1mσixi])=Eσ(exp[tsupxAi=1mσixi])E(supxAexp[ti=1mσixi])xAEσ(exp[tt=1mσixi]).(1)(2) (1) exp ⁡ ( t E σ ⁡ [ sup x ∈ A ∑ i = 1 m σ i x i ] ) ≤ E σ ⁡ ( exp ⁡ [ t sup x ∈ A ∑ i = 1 m σ i x i ] ) (2) = E ( sup x ∈ A exp ⁡ [ t ∑ i = 1 m σ i x i ] ) ≤ ∑ x ∈ A E σ ⁡ ( exp ⁡ [ t ∑ t = 1 m σ i x i ] ) .
接下来通过使用 σi σ i 的相互独立性,通过使用 Hoeffding 引理和 r r 的定义,可以写出:
(3)(4)exp(tEσ[supxAi=1mσixi])xAΠi=1mEσi(exp[tσixi])(σi)(5)xAΠi=1mexp[t2(2xi)28](Hoeffding)(6)=xAexp[t22i=1mxi2]xAexp[t2r22]=|A|et2R22.
对两边求对数并除以 t 得到:
Eσ[supxAi=1mσixi]log|A|t+tr22.(3.21) E σ ⁡ [ sup x ∈ A ∑ i = 1 m σ i x i ] ≤ log ⁡ | A | t + t r 2 2 . ( 3.21 )
如果我们选择使 t=2log|A|r t = 2 log ⁡ | A | r ,就能最小化这个上限,得到:
Eσ[supxAi=1mσixi]r2log|A|.(3.22) (3.22) E σ ⁡ [ sup x ∈ A ∑ i = 1 m σ i x i ] ≤ r 2 log ⁡ | A | .
两边同时除以 m m 得到引理。证毕。

使用这个结果,我们可以用成长函数表示 Rademacher complexity 的上限。

推论 3.1

G 是一族在 {1,+1} { − 1 , + 1 } 中取值的函数。那么有下式成立:

m(G)2logΠG(m)m.(3.23) (3.23) R m ( G ) ≤ 2 log ⁡ Π G ( m ) m .

证明 对于一个固定的样本集 S=(x1,,xm) S = ( x 1 , … , x m ) ,我们使用 G|S G | S 表示 G G 中所有的函数 g 在函数值向量 (g(x1),,g(xm)) ( g ( x 1 ) , … , g ( x m ) ) ⊤ 构成的集合。由于 gG g ∈ G ,且 g g {1,+1} 中取值,所以函数值向量的二范数是小于等于 m m 的 ( 我的补充:或者说一定等于 m m ? )。我们可以使用 Massart 引理:
m(G)=ES[Eσ[supuG|S1mi=1mσiui]]ES[m2log|G|S|m]. R m ( G ) = E S ⁡ [ E σ ⁡ [ sup u ∈ G | S 1 m ∑ i = 1 m σ i u i ] ] ≤ E S ⁡ [ m 2 log ⁡ | G | S | m ] .
通过定义,可以知道 |G|S| | G | S | 的上限——也就是 G|S G | S 这个集合的元素个数的上限——是被成长函数所限制的 ( 我的理解:即使函数集 G G 的函数数目是无穷大的,由于 G|S 是它作用在固定样本集 S S 上的结果,而 S 的样本个数是有限的, G G S 分成的不同情况的数目也是有限的,这个数目的上限正是成长函数的值)。因此,
m(G)ES[m2log|G|S|m]=2logΠG(m)m, R m ( G ) ≤ E S ⁡ [ m 2 log ⁡ | G | S | m ] = 2 log ⁡ Π G ( m ) m ,
证毕。

把定理 (3.2) 中的泛化上界 (3.17) 与推论 (3.1) 结合起来,我们马上能得到下面使用成长函数表示的泛化上界。

推论 3.2 成长函数泛化上界

使用 H H 表示一族在 {1,+1} 中取值的函。那么,对于所有 δ>0 δ > 0 ,下列不等式对于所有假设 hH h ∈ H 至少有 1δ 1 − δ 的概率成立:

R(h)R̂ (h)+2logΠH(m)m+log1δ2m.(3.24) (3.24) R ( h ) ≤ R ^ ( h ) + 2 log ⁡ Π H ( m ) m + log ⁡ 1 δ 2 m .
成长函数泛化上界也可以不使用 Rademacher complexity 上界求,如果这样,上界的形式为:
Pr[suphH|R(h)R̂ (h)|>ϵ]4ΠH(2m)exp(mϵ28),(3.25) (3.25) P r [ sup h ∈ H | R ( h ) − R ^ ( h ) | > ϵ ] ≤ 4 Π H ( 2 m ) exp ⁡ ( − m ϵ 2 8 ) ,

这种形式成为 VC 泛化界 ( VC generalization bound )。本书中没有给出这种形式的泛化界的证明,我会在最后根据查阅的资料补充这部分的证明。

根据成长函数的定义,要求出成长函数我们需要对所有 m1 m ≥ 1 求出 ΠH(m) Π H ( m ) ,因此成长函数的计算可能是很困难的。下一节将引入另一个基于单一标量的度量假设集 H H 的方法,而这个方法和成长函数有很深的联系。

补充:VC 泛化界的证明

为了证明 VC 泛化界,这里需要使用切比雪夫不等式 ( Chebyshev )。

切比雪夫不等式

对于 t>0 X X 为随机变量,有:

Pr[|XE[X]|t]VarXt2.
其中 Var V a r 表示方差。

证明 证明暂略,以后添加。

如果我们尝试去理解 (3.25),可以发现它实际表明了随着样本量增大,经验误差越来越接近泛化误差,换言之,也就是频率越来越接近概率。可以看到,研究泛化误差与经验误差之间的这种关系,能证明在样本量大到一定程度的时候,我们就能够通过样本集中的规律去预测未来的新样本的规律。

VC 泛化界证明的关键在于一个称为对称引理 ( symmetrization ) 的引理,这个引理的思想就是使用一个独立样本集的统计数据去代替泛化误差这一项。这么做的原因是显而易见的,它把泛化误差中无穷样本的问题变成了有限的样本的问题。但要注意的是,这里所谓的引入新的独立样本并不代表在实际算法中要抽取另一个样本集,这个新的样本集只是在数学证明上使用。所以,这个新的样本集一般被称为“虚拟集”或者“幽灵集”。我们使用 S=(x1,,xm) S ′ = ( x 1 ′ , … , x m ′ ) 表示这个“幽灵集”。

Symmetrization 引理

H H 为一个假设集,hH。对于任意的 t>0 t > 0 ,只要满足 mt22 m t 2 ≥ 2 ,就有:

PrS[suphH|R(h)R̂ S(h)|t]2PrS,S[suphH|R̂ S(h)R̂ S(h)|t/2]. P r S [ sup h ∈ H | R ( h ) − R ^ S ( h ) | ≥ t ] ≤ 2 P r S , S ′ [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ t / 2 ] .

证明 首先要注意的是,引理中的概率是与样本集相关的。

hm h m 为使得 R(h)R̂ S(h) R ( h ) − R ^ S ( h ) 最大的假设,那么有:

Pr[suphH|R(h)R̂ S(h)|t]= Pr[|R(hm)R̂ S(hm)|t] 111mt2Pr[|R̂ S(hm)R̂ S(hm)|t/2] 12Pr[|R̂ S(hm)R̂ S(hm)|t/2] 12Pr[suphH|R̂ S(h)R̂ S(h)|t/2].(1)(2)(3)(4) (1) P r [ sup h ∈ H | R ( h ) − R ^ S ( h ) | ≥ t ] =   P r [ | R ( h m ) − R ^ S ( h m ) | ≥ t ] (2) ≤   1 1 − 1 m t 2 P r [ | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ] (3) ≤   1 2 P r [ | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ] (4) ≤   1 2 P r [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ t / 2 ] .

首先,( 1 ) 由 hm h m 本身的定义得到。( 2 ) 的证明比较复杂,放在后面。由于有 mt22 m t 2 ≥ 2 ,( 3 ) 成立。由于当 |R̂ S(hm)R̂ S(hm)|t/2 | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 成立时, suphH|R̂ S(h)R̂ S(h)|t/2 sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ t / 2 必然成立,但是后者成立时前者未必成立,也就是说后者成立的概率较大,故 ( 4 ) 成立。

接下来的问题就变成 ( 2 ) 的证明了。我们把问题化成

(11mt2)Pr[|R(hm)R̂ S(hm)|t] Pr[|R̂ S(hm)R̂ S(hm)|t/2]. ( 1 − 1 m t 2 ) P r [ | R ( h m ) − R ^ S ( h m ) | ≥ t ] ≤   P r [ | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ] .
因为样本的抽取符合某一个分布 D D ,我们可以假设这个分布的概率密度函数为 f(S)。由于抽取样本的过程是独立的,通过定义,右式可化成:
====Pr[|R̂ S(hm)R̂ S(hm)|t/2]S,S1|R̂ S(hm)R̂ S(hm)|t/2f(S)f(S)d(S,S)Sf(S)dSS1|R̂ S(hm)R̂ S(hm)|t/2f(S)dSSf(S)dSS1|R(hm)R̂ S(hm)|t1|R(hm)R̂ S(hm)|<t/2f(S)dSS1|R(hm)R̂ S(hm)|tf(S)dSS1|R(hm)R̂ S(hm)|<t/2f(S)dSPr[|R(hm)R̂ S(hm)|t]Pr[|R(hm)R̂ S(hm)|<t/2].(7)(5)(8)(6)(7)(8) (7) P r [ | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ] (5) = ∫ S , S ′ 1 | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ⋅ f ( S ) ⋅ f ( S ′ ) d ( S , S ′ ) (8) = ∫ S f ( S ) d S ∫ S ′ 1 | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 ⋅ f ( S ′ ) d S ′ (6) ≥ ∫ S f ( S ) d S ∫ S ′ 1 | R ( h m ) − R ^ S ( h m ) | ≥ t ⋅ 1 | R ( h m ) − R ^ S ′ ( h m ) | < t / 2 ⋅ f ( S ′ ) d S ′ (7) = ∫ S 1 | R ( h m ) − R ^ S ( h m ) | ≥ t ⋅ f ( S ) d S ∫ S ′ 1 | R ( h m ) − R ^ S ′ ( h m ) | < t / 2 ⋅ f ( S ′ ) d S ′ (8) = P r [ | R ( h m ) − R ^ S ( h m ) | ≥ t ] ⋅ P r [ | R ( h m ) − R ^ S ′ ( h m ) | < t / 2 ] .
由概率分布函数的定义得知 ( 5 ) 成立,这里要注意的是这个不定积分是向量的不定积分,为了便于理解还可以继续展开,把 d(S,S) d ( S , S ′ ) 展开成 dx1,,dxm,dx1,,dxm d x 1 , … , d x m , d x 1 ′ , … , d x m ′ ,类似的运算在这个系列博客的第五部分 < 1 >中有展示。由于只要事件 |R(hm)R̂ S(hm)|t | R ( h m ) − R ^ S ( h m ) | ≥ t 和事件 |R(hm)R̂ S(hm)|<t/2 | R ( h m ) − R ^ S ′ ( h m ) | < t / 2 成立,使用绝对值不等式,马上得到 |R̂ S(hm)R̂ S(hm)|t/2 | R ^ S ′ ( h m ) − R ^ S ( h m ) | ≥ t / 2 成立,因此 ( 6 ) 成立。由于在 ( 6 ) 中已经把 S S ′ S S 的耦合解开了,( 7 ) 直接把他们分开,此时两个不定积分可以独立计算,根据概率分布函数的定义 ( 8 ) 成立。

已知 R(hm)=E[R^S(hm)] ( 相类似的推导在这个系列博客的第五部分 < 1 > 中有体现 ),且 t>0 t > 0 ,则有:

===Pr[|R(hm)R̂ S(hm)|<t/2]Pr[|R(hm)R̂ S(hm)|t/2]4VarR̂ S(hm)t24Var[1mmi=11hm(xi)yi]t24Var[mi=11hm(xi)yi]m2t24Var[1hm(x)y]mt21mt2.(9)(10)(9)(11)(12)(10)(11) (9) P r [ | R ( h m ) − R ^ S ′ ( h m ) | < t / 2 ] (10) ≤ P r [ | R ( h m ) − R ^ S ′ ( h m ) | ≥ t / 2 ] (9) ≤ 4 V a r R ^ S ′ ( h m ) t 2 (11) = 4 V a r [ 1 m ∑ i = 1 m 1 h m ( x i ′ ) ≠ y i ′ ] t 2 (12) = 4 V a r [ ∑ i = 1 m 1 h m ( x i ′ ) ≠ y i ′ ] m 2 t 2 (10) = 4 V a r [ 1 h m ( x ′ ) ≠ y ′ ] m t 2 (11) ≤ 1 m t 2 .
其中,由于符合切比雪夫不等式的要求,( 9 ) 成立。( 10 ) 中的 x x ′ y y ′ 分别是从分布 D D 中取一次样得到的一个样本和它的标签,由于样本集 S 中每个样本都是独立采样的,且它们的分布都相同,所以他们的方差都相同且可以直接拆分出来,因此 ( 10 ) 成立。由方差的定义,我们可以知道当随机变量的值只为 0 0 或者 1 时,它的方差必然小于等于 14 1 4 ( 关键在于这个时候有 Pr[x=1]=E[x] P r [ x = 1 ] = E [ x ] ),故 ( 11 ) 成立。把这个结果代回去,证毕。

VC 泛化界的证明

由于对称引理,我们可以把 VC 泛化界写成:

Pr[suphH|R(h)R̂ (h)|>ϵ]2PrS,S[suphH|R̂ S(h)R̂ S(h)|ϵ/2]. P r [ sup h ∈ H | R ( h ) − R ^ ( h ) | > ϵ ] ≤ 2 P r S , S ′ [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 ] .
把上式右侧看成先从样本空间中采一个 2m 2 m 个样本的样本集 D ,然后随机从这个 2m 2 m 中样本中选择 m m 个样本作为样本集 S,剩下的样本构成样本集 S S ′ ,然后假设在这两个样本集中的经验误差的差距大于 ϵ/2 ϵ / 2 的概,从而有:
==2Pr[suphH|R̂ S(h)R̂ S(h)|ϵ/2]Pr[]Pr[suphH|R̂ S(h)R̂ S(h)|ϵ/2]dsupPr[suphH|R̂ S(h)R̂ S(h)|ϵ/2]Pr[]dsupPr[suphH|R̂ S(h)R̂ S(h)|ϵ/2].(13)(14)(15)(16) (13) 2 P r D [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 ] (14) = ∫ D P r [ D ] P r [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] d D (15) ≤ sup D P r [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] ⋅ ∫ D P r [ D ] d D (16) = sup D P r [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] .
其中使用了全概率公式。

根据成长函数的定义,假设集 H H 中的所有假设最多能够把样本集 D 分成 ΠH(2m) Π H ( 2 m ) 种情况,也就是说 R̂ S(h) R ^ S ′ ( h ) R̂ S(h) R ^ S ( h ) 最多有 ΠH(2m) Π H ( 2 m ) 种不同的情况,所以假设这些情况下对应的假设分别是 h1,,hΠH(2m) h 1 , … , h Π H ( 2 m ) ,有:

=supPr[suphH|R̂ S(h)R̂ S(h)|ϵ/2]supPr[suph{h1,,hΠH(2m)}|R̂ S(h)R̂ S(h)|ϵ/2]supm=1ΠH(2m)Pr[|R̂ S(h)R̂ S(h)|ϵ/2]ΠH(2m)×supsuphHPr[|R̂ S(h)R̂ S(h)|ϵ/2].(17)(18)(12)(19) (17) sup D P r [ sup h ∈ H | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] (18) = sup D P r [ sup h ∈ { h 1 , … , h Π H ( 2 m ) } | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] (12) ≤ sup D ∑ m = 1 Π H ( 2 m ) P r [ | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] (19) ≤ Π H ( 2 m ) × sup D sup h ∈ H P r [ | R ^ S ′ ( h ) − R ^ S ( h ) | ≥ ϵ / 2 | D ] .
其中 ( 12 ) 中使用了 union bound。如果我们再对上式右侧进行一点修改使得原式变成:
ΠH(2m)×supsuphHPr[|R̂ S(h)R̂ S(h)+R̂ S(h)2|ϵ/4]. Π H ( 2 m ) × sup D sup h ∈ H P r [ | R ^ S ( h ) − R ^ S ( h ) + R ^ S ′ ( h ) 2 | ≥ ϵ / 4 | D ] .
由经验误差的定义我们可以知道 R̂ S(h)+R̂ S(h)2 R ^ S ( h ) + R ^ S ′ ( h ) 2 其实就是样本 D 中一个样本出错的均值,而 R̂ S(h) R ^ S ( h ) m m 个样本中出错的样本数总和。可以看到这个式子和前面讲到的 Hoeffding 不等式的左侧差不多了,只有一个差距:这里的抽样是无放回的抽样,也就是说每抽取一个样本,下一个样本的分布都会改变,而之前的抽样都是独立同分布。事实上对于无放回抽样,同样有它的 Hoeffding 不等式,并且它的 Hoeffding 不等式和有放回的是一样的 ( Hoeffding, 1962 )。要注意的是,Hoeffding 不等式与随机变量的具体分布式无关的,也就是说在这里无论对于任何的样本集 D 和任意的假设 h h ( 包括使得目标概率最大的那个样本集和假设 ),都有:
Pr[|R^S(h)R^S(h)+R^S(h)2|ϵ/4|D]2e18ϵ2m.
这样,VC 泛化限得证。这个推导过程一步一步地把多个变量固定,仅留下一个变量,最终用 Hoeffding 不等式解决问题。影响目标事件的因素有假设的选取、样本集 D 的抽取、样本的分配,证明过程先后固定了前二者,最后通过在后者上使用大数定律给出上限。

以上的证明方法来自书本 Learning from Data: a Short Course 的附录。Vapnik 和 Chervonenkis 1971 年的论文 On the Uniform Convergence of Relative Frequencies of Events to Their Probabilities 中使用的是另一种稍有不同的方法。另外,在 A Probabilistic Theory of Pattern Recognition 这本书定理 12.5 以及维基百科 Vapnik–Chervonenkis theory 都提出了一种形式与上面有出入但仅仅是在常数项上有区别的 VC 不等式,但我没有过多探究,也许这个不等式的条件与我们上面的 VC 泛化界有不一样的地方。

我的疑惑

VC 泛化界的两种证明都把问题考虑成先取 2m 2 m 个样本,然后对样本进行分组,这样一来,两个样本集之间已经不独立了。我尝试过把两个样本集中所有的样本都看做是相互独立的,直接使用 Hoeffding 不等式,然后发现得到的上限比 VC 泛化界中的要小,显然是个错误的解。为了理解 VC 泛化界的推导,我猜测采样过程不附带分组和排序等效应,所以目标事件的影响因子除了包括采样分布和假设的选取以外,还有样本分组带来的变化。

2018年3月25日更新:今天重新看了一下自己写的这段话,发现自己都不是很理解自己的意思了,有点尴尬。这里尝试对这段话进行一个整理吧:在证明当中,两个样本集是不独立的。为什么不独立呢?原因是因为分组操作引进了一个概率分布。当然这是我隔了很久一段时间后能够回想得到的理解,很大概率是有错误的。

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值