原文链接:http://aaai.org/ocs/index.php/AAAI/AAAI17/paper/view/14210
研究动机
- 基于消歧的策略易于被和真值标签在样本候选标签集中同时出现的假阳性标签误导而性能下降,候选集越大,性能下降越多
- 多分类器分解为二分类器
- 多分类器集成的最流行机制是使用一对余或一对一分解将学习任务分解
- 一对余分解:学习任务分解为多个二分类器。对每个二分类器:一个类为正类,其余类都为负类。将二分类器的输出作为类标签的预测置信度,通过选择输出最大的分类器的类标签作为对未见过样本的预测
- 一对一分解:学习任务分解为 [ q 2 ] \begin{bmatrix} q \\ 2\end{bmatrix} [q2] 个二分类器,每个二分类器分类一对类标签 ( y j , y k ) ( 1 ≤ j < k ≤ q ) , y j (y_j,y_k)(1 \le j <k \le q),y_j (yj,yk)(1≤j<k≤q),yj为正类, y k y_k yk为负类。通过将二分类器的输出作为类标签上的投票,通过选择从所有二分类器中获得最大票数的类标签作为对未见样本的预测。
- 在偏标记学习场景中,因为训练样本的真值标签不能直接访问(不知道是哪个是真值)。不能使用一对余、一对一分解,因为不知道样本属于哪一类。
- 多分类器集成的最流行机制是使用一对余或一对一分解将学习任务分解
Evidently, the major difficulty for partial label learning lies in that the ground-truth label of the PL training example is concealed in its candidate label set and thus not directly accessible to the learning algorithm.
定义
- d维样本空间: X = R d X=\mathbb{R}^d X=Rd
- 含q个类标签的标签空间: Y = y 1 , y 2 , . . . , y q Y={y_1, y_2,...,y_q} Y=y1,y2,...,yq
- 含m个样本的训练集: D = { ( x i , S i ) ∣ 1 ≤ i ≤ m } D=\{(x_i,S_i)|1\le i \le m\} D={ (xi,Si)∣1≤i≤m}
- 每个样本 x i x_i xi由d维特征向量表示: ( x i 1 , x i 2 , . . . , x i d ) T (x_{i1},x_{i2},...,x_{id})^T (xi1,x