HSIC and MMD


1. HSIC

博客链接:HSIC简介:一个有意思的判断相关性的思路

前几天,在机器之心看到这样的一个推送《彻底解决梯度爆炸问题,新方法不用反向传播也能训练ResNet》,当然,媒体的标题党作风我们暂且无视,主要看内容即可。机器之心的这篇文章,介绍的是论文《The HSIC Bottleneck: Deep Learning without Back-Propagation》的成果,里边提出了一种通过HSIC Bottleneck来训练神经网络的算法。

坦白说,这篇论文笔者还没有看明白,因为对笔者来说里边的新概念有点多了。不过论文中的“HSIC”这个概念引起了笔者的兴趣。经过学习,终于基本地理解了这个HSIC的含义和来龙去脉,于是就有了本文,试图给出HSIC的一个尽可能通俗(但可能不严谨)的理解。

背景
HSIC全称“ Hilbert-Schmidt independence criterion”,中文可以叫做“希尔伯特-施密特独立性指标”吧,跟互信息一样,它也可以用来衡量两个变量之间的独立性。
度量相关
我们知道,互信息的基本形式是:

I ( X , Y ) = ∬ p ( x , y ) log ⁡ p ( x , y ) p ( x ) p ( y ) d x d y I(X,Y)=\iint p(x,y)\log \frac{p(x, y)}{p(x)p(y)}dxdy I(X,Y)=p(x,y)logp(x)p(y)p(x,y)dxdy如果 I ( X , Y ) = 0 I(X,Y)=0 I(X,Y)=0那么就说明 p ( x , y ) ≡ p ( x ) p ( y ) p(x, y)\equiv p(x)p(y) p(x,y)p(x)p(y),也就是两个变量是相互独立的,否则是相关的。但 log ⁡ p ( x , y ) p ( x ) p ( y ) \log \frac{p(x, y)}{p(x)p(y)} logp(x)p(y)p(x,y)这一项意味着我们要用某种方式对概率密度进行估计。

HSIC的作用跟互信息类似,但是跟互信息不一样的是,它不需要估计两个变量的概率密度,而是直接转化为采样的形式。

长期关注本博客的读者都知道,“互信息”是本博客经常出现的概念,我们可以用互信息做新词发现(比如《基于切分的新词发现》),也可以用互信息做无监督学习(比如《深度学习的互信息:无监督提取特征》),互信息的重要性可见一斑。如果说有一个指标可以取代互信息、比互信息还方便,那肯定是笔者必须去学习的对象了。

问题定义
一般来说,我们将问题定义为:

有数据 ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) ∼ p ( x , y ) (x_1, y_1),(x_2, y_2),\dots,(x_n,y_n)\sim p(x, y) (x1,y1),(x2,y2),,(xn,yn)p(x,y),判断 p ( x , y ) p(x, y) p(x,y)是否恒等于 p ( x ) , p ( y ) p(x), p(y) p(x),p(y),即 x , y x,y x,y 是否独立。

严格来讲,如果是对于连续变量,这里的“恒等于”指的是“几乎处处等于”,但我们这里不严格声明这一点。
为了描述的规范,这里设 x ∈ X , y ∈ Y x\in X, y\in Y xX,yY,而 f ( x ) , g ( y ) ∈ R f(x),g(y)\in \mathbb{R} f(x),g(y)R。注意 x , y x,y x,y 可能是两个含义完全不一样的变量,比如 x x x 可能是“星期一”, y y y可能是“上班”, p ( x , y ) p(x,y) p(x,y)就是“今天是星期一,且今天要上班”的概率。鉴于此, X , Y X,Y X,Y可能是两个完全不一样的域。
基本的思路是去计算互信息,但很多问题中我们都无法很好地估计概率或概率密度。一种可能的方案是转化为对偶问题,用类似对抗的思路去学习互信息(infomax的思路),但这种方法可能会不稳定,而且受到采样方案的影响。最好的方案就是能有一个类似“相关系数”的指标,让我们可以显式地计算和优化这个指标。
HSIC就是冲着这个目标而来的~

HSIC
这里我们尽可能清晰地引入HSIC的概念。然而,“尽可能清晰”不等价于篇幅尽可能短,事实上,下面的篇幅依然会比较长,而且有不少数学公式,但是相对于标准教程里边一上来就引入希尔伯特空间、再生核、各种算子等做法,这里的介绍应该算是对很多不了解相关概念的读者来说都是友好的了。
基本思想
HSIC留意到:

p ( x , y ) ≡ p ( x ) p ( y ) p(x, y)\equiv p(x)p(y) p(x,y)p(x)p(y) 当且仅当对于任意的 f , g f,g f,g,式
C [ f , g ] = ∬ p ( x , y ) f ( x ) g ( y ) d x d y − ∬ p ( x ) p ( y ) f ( x ) g ( y ) d x d y =   E ( x , y ) ∼ p ( x , y ) [ f ( x ) g ( y ) ] − E x ∼ p ( x ) [ f ( x ) ] E y ∼ p ( y ) [ g ( y ) ] \begin{aligned}C[f,g]=&\iint p(x,y)f(x)g(y)dxdy - \iint p(x)p(y)f(x)g(y)dxdy\\ =&\ \mathbb{E}_{(x,y)\sim p(x,y)}[f(x)g(y)]-\mathbb{E}_{x\sim p(x)}[f(x)]\mathbb{E}_{y\sim p(y)}[g(y)]\end{aligned} C[f,g]==p(x,y)f(x)g(y)dxdyp(x)p(y)f(x)g(y)dxdy E(x,y)p(x,y)[f(x)g(y)]Exp(x)[f(x)]Eyp(y)[g(y)]都等于0。

这个结论显然不难理解。有意思的是,等号右边是采样的形式,也就是说我们将这个指标转化为了采样的形式,避免了直接估算概率密度
所以,我们就有一个判断独立性的方法:选取“足够多”的 f , g f,g f,g,然后计算:
L H = ∑ f , g ( C [ f , g ] ) 2 L_H=\sum_{f,g} \big(C[f,g]\big)^2 LH=f,g(C[f,g])2 L H L_H LH 与 0 的接近程度;反过来,如果在优化问题中,我们希望特征 x , y x,y x,y 尽可能相互独立,那么我们就可以将 L H L_H LH 加入到损失函数中。

抽丝剥茧

其实 L H L_H LH 的形式已经很好地体现了HSIC的判别思想。下面我们就沿着这个思路,继续抽丝剥茧,逐步地走向HSIC最终的形式。
首先我们把 ( C [ f , g ] ) 2 \big(C[f,g]\big)^2 (C[f,g])2算一算:

H S I C ( X , Y ) = ( C [ f , g ] ) 2 = ( E ( x , y ) ∼ p ( x , y ) [ f ( x ) g ( y ) ] ) 2 + ( E x ∼ p ( x ) [ f ( x ) ] ) 2 ( E y ∼ p ( y ) [ g ( y ) ] ) 2 − 2 ( E ( x , y ) ∼ p ( x , y ) [ f ( x ) g ( y ) ] ) ( E x ∼ p ( x ) [ f ( x ) ] ) ( E y ∼ p ( y ) [ g ( y ) ] ) \begin{aligned}HSIC(X,Y) = \big(C[f,g]\big)^2=&\big(\mathbb{E}_{(x,y)\sim p(x,y)}[f(x)g(y)]\big)^2 + \big(\mathbb{E}_{x\sim p(x)}[f(x)]\big)^2 \big(\mathbb{E}_{y\sim p(y)}[g(y)]\big)^2\\ & - 2\big(\mathbb{E}_{(x,y)\sim p(x,y)}[f(x)g(y)]\big)\big(\mathbb{E}_{x\sim p(x)}[f(x)]\big)\big(\mathbb{E}_{y\sim p(y)}[g(y)]\big)\end{aligned} HSIC(X,Y)=(C[f,g])2=(E(x,y)p(x,y)[f(x)g(y)])2+(Exp(x)[f(x)])2(Eyp(y)[g(y)])22(E(x,y)p(x,y)[f(x)g(y)])(Exp(x)[f(x)])(Eyp(y)[g(y)])

然后我们用一个技巧:我们知道 E x ∼ p ( x ) [ f ( x ) ] = E x ′ ∼ p ( x ′ ) [ f ( x ′ ) ] \mathbb{E}_{x\sim p(x)}[f(x)]=\mathbb{E}_{x'\sim p(x')}[f(x')] Exp(x)[f(x)]=Exp(x)[f(x)],说明了这个期望值的结果跟随机变量的记号没啥关系。所以我们有
( E x ∼ p ( x ) [ f ( x ) ] ) 2 = ( E x 1 ∼ p ( x ) [ f ( x 1 ) ] ) ( E x 2 ∼ p ( x ) [ f ( x 2 ) ] ) =   E x 1 ∼ p ( x ) , x 2 ∼ p ( x ) [ f ( x 1 ) f ( x 2 ) ] \begin{aligned}\big(\mathbb{E}_{x\sim p(x)}[f(x)]\big)^2=&\big(\mathbb{E}_{x_1\sim p(x)}[f(x_1)]\big)\big(\mathbb{E}_{x_2\sim p(x)}[f(x_2)]\big)\\ =&\ \mathbb{E}_{x_1\sim p(x),x_2\sim p(x)}[f(x_1)f(x_2)]\end{aligned} (Exp(x)[f(x)])2==(Ex1p(x)[f(x1)])(Ex2p(x)[f(x2)]) Ex1p(x),x2p(x)[f(x1)f(x2)]

把其余的项都这样变换,最终我们就可以得到
( C [ f , g ] ) 2 =   E ( x 1 , y 1 ) ∼ p ( x , y ) , ( x 2 , y 2 ) ∼ p ( x , y ) [ f ( x 1 ) f ( x 2 ) g ( y 1 ) g ( y 2 ) ] + E x 1 ∼ p ( x ) , x 2 ∼ p ( x ) , y 1 ∼ p ( y ) , y 2 ∼ p ( y ) [ f ( x 1 ) f ( x 2 ) g ( y 1 ) g ( y 2 ) ] − 2 E ( x 1 , y 1 ) ∼ p ( x , y ) , x 2 ∼ p ( x ) , y 2 ∼ p ( y ) [ f ( x 1 ) f ( x 2 ) g ( y 1 ) g ( y 2 ) ] \begin{aligned}\big(C[f,g]\big)^2=&\ \mathbb{E}_{(x_1,y_1)\sim p(x,y),(x_2,y_2)\sim p(x,y)}[f(x_1)f(x_2)g(y_1)g(y_2)] \\ & + \mathbb{E}_{x_1\sim p(x),x_2\sim p(x),y_1\sim p(y),y_2\sim p(y)}[f(x_1)f(x_2)g(y_1)g(y_2)]\\ & - 2 \mathbb{E}_{(x_1,y_1)\sim p(x,y),x_2\sim p(x),y_2\sim p(y)}[f(x_1)f(x_2)g(y_1)g(y_2)]\end{aligned} (C[f,g])2= E(x1,y1)p(x,y),(x2,y2)p(x,y)[f(x1)f(x2)g(y1)g(y2)]+Ex1p(x),x2p(x),y1p(y),y2p(y)[f(x1)f(x2)g(y1)g(y2)]2E(x1,y1)p(x,y),x2p(x),y2p(y)[f(x1)f(x2)g(y1)g(y2)]这样一来,每一项都是 f ( x 1 ) f ( x 2 ) g ( x 1 ) g ( x 2 ) f(x_1)f(x_2)g(x_1)g(x_2) f(x1)f(x2)g(x1)g(x2)的期望,只不过变量的采样分布不一样。

特征函数

现在的问题是:要选择哪些 f , g f,g f,g 呢?怎样才算“足够多”呢?
类比向量空间的知识,所有可能的 f ( x ) f(x) f(x) 能组成一个向量空间 F \mathcal{F} F,所有的 g ( y ) g(y) g(y) 也一样组成一个向量空间 G \mathcal{G} G。如果能把这两个空间的所有“基底”都遍历一遍,那肯定就够了。那问题就是:如何找到所有的基底呢?
这时候“核函数”就登场了。所谓核函数,那就是——呃,其实说起来很复杂,我也不大懂。简单来说,核函数是类似于线性代数中“正定矩阵”的存在,就是一个定义在 X × X X\times X X×X 的二元对称函数 K ( x 1 , x 2 ) = K ( x 2 , x 1 ) K(x_1, x_2)=K(x_2, x_1) K(x1,x2)=K(x2,x1),然后我们把一元函数 f ( x ) f(x) f(x) 类比为一个向量,那么
∫ K ( x 1 , x 2 ) f ( x 2 ) d x 2 \int K(x_1,x_2) f(x_2)dx_2 K(x1,x2)f(x2)dx2就相当于一个矩阵乘以向量的矩阵运算。跟矩阵的特征值和特征向量一样,核函数也能定义特征值和特征函数,满足下述恒等式的一元函数 ψ \psi ψ 就称为这个核函数的特征函数:
∫ K ( x 1 , x 2 ) ψ ( x 2 ) d x 2 = α ψ ( x 1 ) \int K(x_1,x_2) \psi(x_2)dx_2=\alpha \psi(x_1) K(x1,x2)ψ(x2)dx2=αψ(x1)上面的内容都是铺垫的,其严格定义则是属于“再生核希尔伯特空间“范畴。后面我们用到的,实际上是两点性质:

1、核函数的所有特征函数 ψ 1 , ψ 2 , … \psi_1,\psi_2,\dots ψ1,ψ2, 构成该空间的一组正交基;
2、核函数的所有特征值 α 1 , α 2 , … \alpha_1,\alpha_2,\dots α1,α2, 都是正的,且满足
K ( x 1 , x 2 ) = ∑ i α i ψ i ( x 1 ) ψ i ( x 2 ) K(x_1,x_2)=\sum_i \alpha_i \psi_i(x_1)\psi_i(x_2) K(x1,x2)=iαiψi(x1)ψi(x2)

HSIC登场

经过上述铺垫,HSIC基本上就可以登场了~
首先,假如我们已经有定义在 X × X X\times X X×X 的核函数 K X ( x 1 , x 2 ) K_X(x_1,x_2) KX(x1,x2),那么我们就可以算出 K X ( x 1 , x 2 ) K_X(x_1,x_2) KX(x1,x2) 对应的特征值 α 1 , α 2 , … \alpha_1,\alpha_2,\dots α1,α2, 和特征函数 ψ 1 , ψ 2 , … \psi_1,\psi_2,\dots ψ1,ψ2,;同样地,有了定义在 Y × Y Y\times Y Y×Y 的核函数 K Y ( y 1 , y 2 ) K_Y(y_1,y_2) KY(y1,y2) 后,也可以算出 K Y ( y 1 , y 2 ) K_Y(y_1,y_2) KY(y1,y2) 对应的特征值 β 1 , β 2 , … \beta_1,\beta_2,\dots β1,β2, 和特征函数 ϕ 1 , ϕ 2 , … \phi_1,\phi_2,\dots ϕ1,ϕ2,
然后,因为特征函数构成了基底,所以我们可以把 f , g f,g f,g 换成对应特征函数 ψ i , ϕ j \psi_i,\phi_j ψi,ϕj
L H = ∑ i , j ( C [ ψ i , ϕ j ] ) 2 L_H=\sum_{i,j}\big(C[\psi_i, \phi_j]\big)^2 LH=i,j(C[ψi,ϕj])2
因为所有的特征值都是正的,所以我们还可以用特征值为权重进行加权求和,而不改变 L H L_H LH的作用:
L H = ∑ i , j α i β j ⋅ ( C [ ψ i , ϕ j ] ) 2 L_H=\sum_{i,j}\alpha_i \beta_j\cdot\big(C[\psi_i, \phi_j]\big)^2 LH=i,jαiβj(C[ψi,ϕj])2
现在我们代入到上面去,就得到
L H = E ( x 1 , y 1 ) ∼ p ( x , y ) , ( x 2 , y 2 ) ∼ p ( x , y ) [ ∑ i , j α i β j ψ i ( x 1 ) ψ i ( x 2 ) ϕ j ( y 1 ) ϕ j ( y 2 ) ] + E x 1 ∼ p ( x ) , x 2 ∼ p ( x ) , y 1 ∼ p ( y ) , y 2 ∼ p ( y ) [ ∑ i , j α i β j ψ i ( x 1 ) ψ i ( x 2 ) ϕ j ( y 1 ) ϕ j ( y 2 ) ] − 2 E ( x 1 , y 1 ) ∼ p ( x , y ) , x 2 ∼ p ( x ) , y 2 ∼ p ( y ) [ ∑ i , j α i β j ψ i ( x 1 ) ψ i ( x 2 ) ϕ j ( y 1 ) ϕ j ( y 2 ) ] \begin{aligned}L_H=&\mathbb{E}_{(x_1,y_1)\sim p(x,y),(x_2,y_2)\sim p(x,y)}\left[\sum_{i,j}\alpha_i \beta_j\psi_i(x_1)\psi_i(x_2)\phi_j(y_1)\phi_j(y_2)\right] \\ & + \mathbb{E}_{x_1\sim p(x),x_2\sim p(x),y_1\sim p(y),y_2\sim p(y)}\left[\sum_{i,j}\alpha_i \beta_j\psi_i(x_1)\psi_i(x_2)\phi_j(y_1)\phi_j(y_2)\right]\\ & - 2 \mathbb{E}_{(x_1,y_1)\sim p(x,y),x_2\sim p(x),y_2\sim p(y)}\left[\sum_{i,j}\alpha_i \beta_j\psi_i(x_1)\psi_i(x_2)\phi_j(y_1)\phi_j(y_2)\right] \end{aligned} LH=E(x1,y1)p(x,y),(x2,y2)p(x,y)[i,jαiβjψi(x1)ψi(x2)ϕj(y1)ϕj(y2)]+Ex1p(x),x2p(x),y1p(y),y2p(y)[i,jαiβjψi(x1)ψi(x2)ϕj(y1)ϕj(y2)]2E(x1,y1)p(x,y),x2p(x),y2p(y)[i,jαiβjψi(x1)ψi(x2)ϕj(y1)ϕj(y2)]
最后,方括号里边的实际上就是 K X ( x 1 , x 2 ) K Y ( y 1 , y 2 ) K_X(x_1,x_2)K_Y(y_1,y_2) KX(x1,x2)KY(y1,y2),于是,HSIC就登场了:
H S I C ( X , Y ) =   E ( x 1 , y 1 ) ∼ p ( x , y ) , ( x 2 , y 2 ) ∼ p ( x , y ) [ K X ( x 1 , x 2 ) K Y ( y 1 , y 2 ) ] + E x 1 ∼ p ( x ) , x 2 ∼ p ( x ) , y 1 ∼ p ( y ) , y 2 ∼ p ( y ) [ K X ( x 1 , x 2 ) K Y ( y 1 , y 2 ) ] − 2 E ( x 1 , y 1 ) ∼ p ( x , y ) , x 2 ∼ p ( x ) , y 2 ∼ p ( y ) [ K X ( x 1 , x 2 ) K Y ( y 1 , y 2 ) ] \begin{aligned}HSIC(X,Y)=&\ \mathbb{E}_{(x_1,y_1)\sim p(x,y),(x_2,y_2)\sim p(x,y)}\left[K_X(x_1,x_2)K_Y(y_1,y_2)\right] \\ & + \mathbb{E}_{x_1\sim p(x),x_2\sim p(x),y_1\sim p(y),y_2\sim p(y)}\left[K_X(x_1,x_2)K_Y(y_1,y_2)\right]\\ & - 2 \mathbb{E}_{(x_1,y_1)\sim p(x,y),x_2\sim p(x),y_2\sim p(y)}\left[K_X(x_1,x_2)K_Y(y_1,y_2)\right]\end{aligned} HSIC(X,Y)= E(x1,y1)p(x,y),(x2,y2)p(x,y)[KX(x1,x2)KY(y1,y2)]+Ex1p(x),x2p(x),y1p(y),y2p(y)[KX(x1,x2)KY(y1,y2)]2E(x1,y1)p(x,y),x2p(x),y2p(y)[KX(x1,x2)KY(y1,y2)]
这就是我们最重要寻找的度量相关性的指标,它纯粹是采样的形式,而且 K X , K Y K_X,K_Y KX,KY 都是事先给定的、通常是可微的,因此这就是一个可以明确采样计算、可以直接优化的指标!

在实际计算中,我们可选的核函数有很多,比较常用的是
K ( x 1 , x 2 ) = exp ⁡ ( − ∥ x 1 − x 2 ∥ 2 2 σ 2 ) K(x_1, x_2) = \exp\left(-\frac{\Vert x_1 - x_2\Vert_2^2}{\sigma^2}\right) K(x1,x2)=exp(σ2x1x222)其中 σ > 0 \sigma > 0 σ>0 是一个常数,本文开头提到的论文《The HSIC Bottleneck: Deep Learning without Back-Propagation》也是用这个核函数。不同的核函数效果有点不一样,但是都能保证 H S I C ( X , Y ) = 0 ⇔ p ( x , y ) ≡ p ( x ) p ( y ) HSIC(X,Y)=0 \Leftrightarrow p(x,y)\equiv p(x)p(y) HSIC(X,Y)=0p(x,y)p(x)p(y)

矩阵形式
最后,我们来推导一下在有限样本下的矩阵形式。

按照采样求期望的思想, E ( x 1 , y 1 ) ∼ p ( x , y ) \mathbb{E}_{(x_1,y_1)\sim p(x,y)} E(x1,y1)p(x,y) 实际上就是对所有的样本对 ( x i , y i ) (x_i,y_i) (xi,yi)的结果求平均,而 E ( x 1 , y 1 ) ∼ p ( x , y ) , ( x 2 , y 2 ) ∼ p ( x , y ) \mathbb{E}_{(x_1,y_1)\sim p(x,y),(x_2,y_2)\sim p(x,y)} E(x1,y1)p(x,y),(x2,y2)p(x,y) 其实就是将这个平均操作做两次,所以:
E ( x 1 , y 1 ) ∼ p ( x , y ) , ( x 2 , y 2 ) ∼ p ( x , y ) [ K X ( x 1 , x 2 ) K Y ( y 1 , y 2 ) ] = 1 n 2 ∑ i = 1 β ∑ j = 1 β [ K X ( x i , x j ) K Y ( y i , y j ) ] \mathbb{E}_{(x_1,y_1)\sim p(x,y),(x_2,y_2)\sim p(x,y)}\left[K_X(x_1,x_2)K_Y(y_1,y_2)\right]=\frac{1}{n^2}\sum_{i=1}^\beta \sum_{j=1}^\beta \left[K_X(x_i,x_j)K_Y(y_i,y_j)\right] E(x1,y1)p(x,y),(x2,y2)p(x,y)[KX(x1,x2)KY(y1,y2)]=n21i=1βj=1β[KX(xi,xj)KY(yi,yj)]其中 K X ( x i , x j ) , K Y ( y i , y j ) K_X(x_i,x_j),K_Y(y_i,y_j) KX(xi,xj),KY(yi,yj) 实际上都是 β × β \beta\times \beta β×β 的对称矩阵中 i i i j j j 列的元素,分别记为 K X , y K_X,_y KX,y,那么上述运算可以写成矩阵乘法 1 β 2 Tr ( K X K Y ) \frac{1}{\beta^2}\text{Tr}(K_X K_Y) β21Tr(KXKY),其中 Tr \text{Tr} Tr 表示矩阵的迹。基于同样的思想,第二项实际上就是 “ K X K_X KX 所有元素的平均乘以 K Y K_Y KY 所有元素的平均”,如果非要写成矩阵形式的话,那就是 1 β 4 Tr ( K X 1 K Y 1 ) \frac{1}{\beta^4}\text{Tr}(K_X \boldsymbol{1}K_Y \boldsymbol{1}) β41Tr(KX1KY1),其中加粗的 1 \boldsymbol{1} 1 表示大小为 β × β \beta\times \beta β×β 的全1矩阵。相应地,最后一项是“ K X K Y K_X K_Y KXKY 所有元素平均值的 1 / β 1/\beta 1/β 的两倍”,即 2 β 3 Tr ( K X K Y 1 ) \frac{2}{\beta^3}\text{Tr}(K_X K_Y \boldsymbol{1}) β32Tr(KXKY1)

所以,如果用矩阵形式表示HSIC,那就是
H S I C ( X , Y ) = 1 β 2 Tr ( K X K Y ) + 1 β 4 Tr ( K X 1 K Y 1 ) − 2 β 3 Tr ( K X K Y 1 ) = 1 β 2 Tr ( K X K Y + K X 1 β K Y 1 β − 2 K X K Y 1 β ) = 1 β 2 Tr ( K X J K Y J ) \begin{aligned}HSIC(X,Y)&=\frac{1}{\beta^2}\text{Tr}(K_X K_Y)+\frac{1}{\beta^4}\text{Tr}(K_X \boldsymbol{1}K_Y \boldsymbol{1})-\frac{2}{\beta^3}\text{Tr}(K_X K_Y \boldsymbol{1})\\ &= \frac{1}{\beta^2}\text{Tr}(K_XK_Y + K_X \boldsymbol{\frac{1}{\beta}}K_Y \boldsymbol{\frac{1}{\beta}} - 2K_XK_Y\boldsymbol{\frac{1}{\beta}})\\ &=\frac{1}{\beta^2}\text{Tr}(K_X J K_Y J) \end{aligned} HSIC(X,Y)=β21Tr(KXKY)+β41Tr(KX1KY1)β32Tr(KXKY1)=β21Tr(KXKY+KXβ1KYβ12KXKYβ1)=β21Tr(KXJKYJ)其中 J = I − 1 / β J = \boldsymbol{I} -\boldsymbol{1/\beta} J=I1/β
无偏估计为:
H S I C ( X , Y ) = 1 ( β − 1 ) 2 Tr ( K X J K Y J ) \begin{aligned}HSIC(X,Y)&=\frac{1}{(\beta-1)^2}\text{Tr}(K_X J K_Y J) \end{aligned} HSIC(X,Y)=(β1)21Tr(KXJKYJ)


2. MMD (Maximum Mean Discrepancy)

MMD 的含义为 p p p q q q 两个概率分布的差距。令 F \mathscr{F} F 为由 f : X → R f : X → \mathbb{R} f:XR 组成的一类函数。 p , q p, q p,q 是两个概率分布, X , Y X, Y X,Y 是 从 p , q p, q p,q 采样得到的样本的集合。定义:
M M D ( F , p , q ) = sup ⁡ f ∈ F ∣ E x ∼ p [ f ( x ) ] − E y ∼ q [ f ( y ) ] ∣ MMD(\mathscr{F}, p, q)=\sup_{f\in\mathscr{F}}|E_{x\sim p}[f(x)] - E_{y\sim q}[f(y)]| MMD(F,p,q)=fFsupExp[f(x)]Eyq[f(y)]

x , y x, y x,y 投射到 F \mathscr{F} F 上的值的均值元素分别为:
⟨ μ x , f ⟩ F : = E x [ ⟨ ϕ ( x ) , f ⟩ F ] = E x [ f ( x ) ] ⟨ μ y , f ⟩ F : = E y [ ⟨ ϕ ( y ) , f ⟩ F ] = E y [ f ( y ) ] \left\langle\mu_{x}, f\right\rangle_{\mathcal{F}}:=\mathbf{E}_{x}\left[\langle\phi(x), f\rangle_{\mathcal{F}}\right] =\mathbf{E}_{x}[f(x)] \\ \left\langle\mu_{y}, f\right\rangle_{\mathcal{F}}:=\mathbf{E}_{y}\left[\langle\phi(y), f\rangle_{\mathcal{F}}\right] =\mathbf{E}_{y}[f(y)] μx,fF:=Ex[ϕ(x),fF]=Ex[f(x)]μy,fF:=Ey[ϕ(y),fF]=Ey[f(y)]此外:
∥ μ x ∥ F 2 = E x , x ′ [ ⟨ ϕ ( x ) , ϕ ( x ′ ) ⟩ F ] = E x , x ′ [ k ( x , x ′ ) ] \left\|\mu_{x}\right\|_{\mathcal{F}}^{2}=\mathbf{E}_{x, x^{\prime}}\left[\left\langle\phi(x), \phi\left(x^{\prime}\right)\right\rangle_{\mathcal{F}}\right]=\mathbf{E}_{x, x^{\prime}}\left[k\left(x, x^{\prime}\right)\right] μxF2=Ex,x[ϕ(x),ϕ(x)F]=Ex,x[k(x,x)]其中, x x x x ′ x' x 是取自分布 p x p_x px 的独立副本。

则:
M M D 2 ( F , p , q ) = { sup ⁡ f ∈ F ∣ E x ∼ p [ f ( x ) ] − E y ∼ q [ f ( y ) ] ∣ } 2 = { sup ⁡ f ∈ F ∣ < μ x − μ y , f > F ∣ } 2 = ∣ ∣ μ x − μ y ∣ ∣ 2 = < μ p , μ p > F + < μ q , μ q > F − 2 < μ p , μ q > F = E x , x ′ < ϕ ( x ) , ϕ ( x ′ ) > F + E y , y ′ < ϕ ( y ) , ϕ ( y ′ ) > F      − 2 E x , y < ϕ ( x ) , ϕ ( y ) > F = E x , x ′ k ( x , x ′ ) + E y , y ′ k ( y , y ′ ) − 2 E x , y k ( x , y ) \begin{aligned} MMD^2(\mathscr{F}, p, q) &=\{\sup_{f\in\mathscr{F}}| E_{x\sim p}[f(x)] - E_{y\sim q}[f(y)]|\}^2 \\ &=\{\sup_{f\in\mathscr{F}}| <\mu_x-\mu_y, f>_\mathscr{F}|\}^2\\ &=||\mu_x-\mu_y||^2 \\ &=<\mu_{p}, \mu_{p}>_{\mathscr{F}}+<\mu_{q}, \mu_{q}>_{\mathscr{F}}-2<\mu_{p}, \mu_{q}>_{\mathscr{F}} \\ &=E_{x, x^{\prime}}<\phi(x), \phi\left(x^{\prime}\right)>_{\mathscr{F}}+E_{y, y^{\prime}}<\phi(y), \phi\left(y^{\prime}\right)>_{\mathscr{F}} \\ &\ \ \ \ -2 E_{x, y}<\phi(x), \phi(y)>_{\mathscr{F}} \\ &=E_{x, x^{\prime}} k\left(x, x^{\prime}\right)+E_{y, y^{\prime}} k\left(y, y^{\prime}\right)-2 E_{x, y} k(x, y) \end{aligned} MMD2(F,p,q)={fFsupExp[f(x)]Eyq[f(y)]}2={fFsup<μxμy,f>F}2=μxμy2=<μp,μp>F+<μq,μq>F2<μp,μq>F=Ex,x<ϕ(x),ϕ(x)>F+Ey,y<ϕ(y),ϕ(y)>F    2Ex,y<ϕ(x),ϕ(y)>F=Ex,xk(x,x)+Ey,yk(y,y)2Ex,yk(x,y)

MMD 的无偏估计计算公式为:

M M D 2 [ F , p , q ] = 1 m ( m − 1 ) ∑ i = 1 m ∑ j ≠ i m k ( x i , x j ) + 1 n ( n − 1 ) ∑ i = 1 n ∑ j ≠ i n k ( y i , y j ) − 2 m n ∑ i = 1 m ∑ j = 1 n k ( x i , y j ) \begin{aligned} M M D^{2}[\mathscr{F}, p, q] &=\frac{1}{m(m-1)} \sum_{i=1}^{m} \sum_{j \neq i}^{m} k\left(x_{i}, x_{j}\right)+\frac{1}{n(n-1)} \sum_{i=1}^{n} \sum_{j \neq i}^{n} k\left(y_{i}, y_{j}\right) \\ &-\frac{2}{m n} \sum_{i=1}^{m} \sum_{j=1}^{n} k\left(x_{i}, y_{j}\right) \end{aligned} MMD2[F,p,q]=m(m1)1i=1mj=imk(xi,xj)+n(n1)1i=1nj=ink(yi,yj)mn2i=1mj=1nk(xi,yj)

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值