多标记分布的损失函数:
根据分布之间距离或者相似度不同的衡量标准,可构成不同的优化目标。下面采用KL散度作为概率分布之间的距离:
利用 ln (x/y)=ln x−ln y 很容易得到。其中 dxi 表示表示样本 xi 的标签分布,例如当 yi 具有5个取值时, dxi={dy1xi,dy2xi,dy3xi,dy4xi,dy5xi}={0.1,0.1,0.4,0.2,0.2} ,其和为1。 p(yj|xi;θ) 表示在参数为 θ 的分布下,样本 xi 的“真实标签” yj 的取值或者说概率。因此我们的主要任务就变成了如何学习模型参数 θ ,但是函数 p(yj|xi;θ) 具体形式还未确定,下面来确定一下其具体的表达式。
确定函数 p(yj|xi;θ)
采用最大熵模型来定义函数:
p(yj|xi;θ)
:
其中 Z=∑yexp(∑kθy,kgk(xi)) , y 的为标签分布的取值空间,
因此,完整的损失函数为:
很容易证明函数 f(θ) 是凹函数。
其中 dyjxi≥0 ,我们只需要证明下面的子函数为凹函数即可:
红色部分是仿射函数的线性组合,其是凹函数(或凸函数)。
已知函数:
是凸函数 [4],并且 ∑kθy,kgk(xi)) 是凸函数(或凹函数),那么蓝色的部分为凸函数。但是前面有个负号,因此是凹函数。则凹函数+凹函数,还是一个凹函数。因此函数 f(θ) 是凹函数。
矢量编程
函数
f(θ)
的表达式中,还有三个叠加符号,即涉及到对样本
i
,标签分布
函数值f(θ)
假定训练数据具有格式(详细参考[5]):
trainFeature 为 [2000 2045]的矩阵,其中2000为样本的数量,2045为特征的长度.
trainDistribution 为[2000 5]的矩阵,其中2000为样本数量,5为标签分布,并且满足,每行元素之和为1.
modProb = exp(trainFeature * weights); % size_sam * size_Y
sumProb = sum(modProb, 2);
modProb = modProb ./ (repmat(sumProb,[1 size(modProb,2)]));
target = -sum(sum(trainDistribution.*log(modProb)));
由上述代码中可以看出,target=
−f(θ)
,其中
θ
就是weights.其是大小为2045*5(特征长度*标签分布)
梯度grad(
θ
)
从上述公式
g0(θ)=dyjxi∗g(θ)
,其相当于单个样本
xi
对参数
θy,k
的变更。(注意这里的
θ
只是总的参数的一个分量):
∂g0(θ)∂θ=dyjxi(g(xi)−∂ ln ∑yexp(∑kθy,kgk(xi))∂θ)=dyjxig(xi)−dyjxi1∑yexp(∑kθy,kgk(xi))∗∑y(exp(∑kθy,kgk(x))∗g(xi))
上述公式表达不够准确,其中第一项对应一个矢量,第二个项对应为一个矩阵。
∑y
中的y控制更新那一列。梯度是一个矩阵的形式。那么针对其中一个元素的偏导数为:
∂g0(θ)∂θyj,k=dyjxigk(xi)−dyjxi1∑yexp(∑kθy,kgk(xi))∗(exp(∑kθyj,kgk(x))∗gk(xi))=gk(xi)∗(dyjxi−1∑yexp(∑kθy,kgk(xi))∗exp(∑kθyj,kgk(x)))
代码为:
gradient = trainFeature'*(modProb-trainDistribution)
我们同样的我们注意到其是求解
−f(θ)
的梯度。
参考文献:
1. 标记分布学习及其应用. [季荣姿]
2. Label Distribution Learning [ tkde 2016]
3. http://cse.seu.edu.cn/people/xgeng/index.htm [geng xin professor]
4. 凸优化 [stephen Boyd]
5. LDLPackage_v1.2
trainFeature 为 [2000 2045]的矩阵,其中2000为样本的数量,2045为特征的长度.
trainDistribution 为[2000 5]的矩阵,其中2000为样本数量,5为标签分布,并且满足,每行元素之和为1.
modProb = exp(trainFeature * weights); % size_sam * size_Y
sumProb = sum(modProb, 2);
modProb = modProb ./ (repmat(sumProb,[1 size(modProb,2)]));
target = -sum(sum(trainDistribution.*log(modProb)));
gradient = trainFeature'*(modProb-trainDistribution)
1. 标记分布学习及其应用. [季荣姿]
2. Label Distribution Learning [ tkde 2016]
3. http://cse.seu.edu.cn/people/xgeng/index.htm [geng xin professor]
4. 凸优化 [stephen Boyd]
5. LDLPackage_v1.2