浅读论文Learning Label Specific Features for Multi-Label Classification (2022/04/10)

idea

在多标签分类学习中,经典的Binary relevance (BR)方法存在类不平衡,计算成本繁重及忽略标签相关性的问题。所以本文提出学习每个标签的标签特定特征来增强分类效果。文中假设每个标签只与原始特征集中的一个特征子集相关联,并且任何两个强相关的类标签可以比两个不相关或弱相关的标签共享更多的特征。
在这里插入图片描述

算法流程

{ ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x 3 , y 3 ) } \{(\mathbf{x}_1, \mathbf{y}_1), (\mathbf{x}_2, \mathbf{y}_2), \dots, (\mathbf{x}_3, \mathbf{y}_3)\} {(x1,y1),(x2,y2),,(x3,y3)}表示一个多标签数据集,其中 x i = [ x i 1 , x i 2 , … , x i p ] \mathbf{x}_i = [x_{i1}, x_{i2}, \dots, x_{ip}] xi=[xi1,xi2,,xip]表示 i i i-th 样本的特征向量, y i = [ y i 1 , y i 2 , … , y i l ] \mathbf{y}_i = [y_{i1}, y_{i2}, \dots, y_{il}] yi=[yi1,yi2,,yil]表示 i i i-th 样本的真实标签集。

学习标签特定特征

文中通过线性回归对标签特定特征的判别式进行建模,并对回归参数采用 L-1 范数对标签特定特征的稀疏性进行建模:
在这里插入图片描述
其中, W = [ W i 1 , W i 1 , , … , W i p ] T W = [W_{i1}, W_{i1,}, \dots, W_{ip}]^T W=[Wi1,Wi1,,,Wip]T 表示第 i 个标签的回归参数, Y i = [ y 1 i , y 2 i , … , y n i ] T Y_i = [y_{1i}, y_{2i}, \dots, y_{ni}]^T Yi=[y1i,y2i,,yni]T 表示 Y Y Y的第 i i i列。
如果 W i j = 0 W_{ij} = 0 Wij=0, 就表示第 j 个特征对标签 y i \mathbf{y}_i yi 的判别没有影响, 反之,表示对应的特征对标签 y i \mathbf{y}_i yi 有判别性,这些特征可以被认为是 y i \mathbf{y}_i yi 的标签特定特征,标签特定特征的数量会比 p 小得多。

利用标签相关性

在这里插入图片描述
其中, R i j = 1 − C i j R_{ij} = 1 - C_{ij} Rij=1Cij, C i j C_{ij} Cij表示 y i \mathbf{y}_i yi y i \mathbf{y}_i yi的相关因子, 文章中通过余弦相似度计算。
同时考虑所有二元分类器,最终的优化公式可以写为:
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值