无消歧的偏标记学习(2017)

本文探讨了在偏标记学习场景中,由于无法直接获取真值标签,传统的多分类策略如一对余、一对一分解不适用。提出了一种名为PL-ECOC的方法,它利用ECOC框架,通过特定的编码和解码阶段,解决无消歧的偏标记学习问题。在编码阶段,根据候选标签集构建二分类器;解码阶段则基于二分类器的性能预测样本类别。未来的研究方向包括非随机编码和其他无消歧策略。
摘要由CSDN通过智能技术生成

原文链接:http://aaai.org/ocs/index.php/AAAI/AAAI17/paper/view/14210

研究动机

  • 基于消歧的策略易于被和真值标签在样本候选标签集中同时出现的假阳性标签误导而性能下降,候选集越大,性能下降越多
  • 多分类器分解为二分类器
    • 多分类器集成的最流行机制是使用一对余或一对一分解将学习任务分解
      • 一对余分解:学习任务分解为多个二分类器。对每个二分类器:一个类为正类,其余类都为负类。将二分类器的输出作为类标签的预测置信度,通过选择输出最大的分类器的类标签作为对未见过样本的预测
      • 一对一分解:学习任务分解为 [ q 2 ] \begin{bmatrix} q \\ 2\end{bmatrix} [q2] 个二分类器,每个二分类器分类一对类标签 ( y j , y k ) ( 1 ≤ j &lt; k ≤ q ) , y j (y_j,y_k)(1 \le j &lt;k \le q),y_j (yj,yk)(1j<kq),yj为正类, y k y_k yk为负类。通过将二分类器的输出作为类标签上的投票,通过选择从所有二分类器中获得最大票数的类标签作为对未见样本的预测。
    • 在偏标记学习场景中,因为训练样本的真值标签不能直接访问(不知道是哪个是真值)。不能使用一对余、一对一分解,因为不知道样本属于哪一类。

Evidently, the major difficulty for partial label learning lies in that the ground-truth label of the PL training example is concealed in its candidate label set and thus not directly accessible to the learning algorithm.


定义

  • d维样本空间: X = R d X=\mathbb{R}^d X=Rd
  • 含q个类标签的标签空间: Y = y 1 , y 2 , . . . , y q Y={y_1, y_2,...,y_q} Y=y1,y2,...,yq
  • 含m个样本的训练集: D = { ( x i , S i ) ∣ 1 ≤ i ≤ m } D=\{(x_i,S_i)|1\le i \le m\} D={ (xi,Si)1im}
  • 每个样本 x i x_i xi由d维特征向量表示: ( x i 1 , x i 2 , . . . , x i d ) T (x_{i1},x_{i2},...,x_{id})^T (xi1,x
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值