Metric Learning详解
第四十三次写博客,本人数学基础不是太好,如果有幸能得到读者指正,感激不尽,希望能借此机会向大家学习。
无论在分类还是回归任务中,降维的目的有时是为了选择一个合适的距离度量,如果每个空间都对应了一种距离度量方式,那么求得最适合原始样本空间的低维嵌入可以看做是求得一种最恰当的距离度量方式,这就是“度量学习”(Metric Learning)的目的。
为了对距离度量进行学习,必须有一个便于学习的距离度量表达式,对于两个 d d d维样本点 x i {\bf{x}}_{i} xi和 x j {\bf{x}}_{j} xj,他们之间的平方欧氏距离可以写为
d i s t e d 2 ( x i , x j ) = ∣ ∣ x i − x j ∣ ∣ 2 2 = d i s t i j , 1 2 + d i s t i j , 2 2 + ⋯ + d i s t i j , d 2 dist^{2}_{ed}({\bf{x}}_{i},{\bf{x}}_{j}) =||{\bf{x}}_{i}-{\bf{x}}_{j}||^{2}_{2}=dist^{2}_{ij,1}+dist^{2}_{ij,2}+\dots+dist^{2}_{ij,d} disted2(xi,xj)=∣∣xi−xj∣∣22=distij,12+distij,22+⋯+distij,d2
其中, d i s t i j , k dist_{ij,k} distij,k是样本点 x i {\bf{x}}_{i} xi与 x j {\bf{x}}_{j} xj在第 k k k维上的距离,如果每个属性的重要性不同,那么可以引入属性权重 w w w,上式可以重新表示为
d i s t w e d 2 ( x i , x j ) = ∣ ∣ x i − x j ∣ ∣ W 2 = w 1 ⋅ d i s t i j , 1 2 + w 2 ⋅ d i s t i j , 2 2 + ⋯ + w d ⋅ d i s t i j , d 2 = ( x i − x j ) T W ( x i − x j ) dist_{wed}^{2}({\bf{x}}_{i},{\bf{x}}_{j})=||{\bf{x}}_{i}-{\bf{x}}_{j}||^{2}_{\bf{W}} \\ =w_{1}\cdot{dist_{ij,1}^{2}}+w_{2}\cdot{dist_{ij,2}^{2}}+\dots+w_{d}\cdot{dist_{ij,d}^{2}} \\ =({\bf{x}}_{i}-{\bf{x}}_{j})^{T}{\bf{W}}({\bf{x}}_{i}-{\bf{x}}_{j}) distwed2(xi,xj)=∣∣xi−xj∣∣W2=w1⋅distij,1