多标签学习论文笔记(一)

一、 Deep Convolutional Ranking for Multilabel Image Annotation
介绍了三种不同的Multilabel Ranking Losses
1. Softmax
待插图:就是将单个标签的softmax损失转换为多标签的softmax损失,等价于KL散度,就是求两个概率分布之间的相似性。
2. Pairwise Ranking
不仅考虑了正标签和负标签的绝对值大小,还考虑了正标签的概率需要大于任意负标签的概率。但这个Loss是不可导的,只能计算次梯度。
次梯度:https://blog.csdn.net/sinat_27612639/article/details/70049715
3.Weighted Approximate Ranking (WARP)
该Loss考虑了在每次迭代训练的过程中,不同的正标签之间是有差异的,有的正标签可能预测值比较高了,这个时候对loss的贡献就可降低一些,有些正标签的预测值比较小,这个时候就要强迫模型更加地去拟合这个正标签。

实验部分:
数据:NUS-WIDE
数量:总共269,648,去除没有任何标签的数据,剩209,347。总共有81个不同的标签。
每张图片标签数:平均2-5个

  1. 作者提取了四种不同的Visual Features。
  2. 对比实验1用了Visual feature + kNN,测试样本从训练样本中选取最近的k个样本,然后根据这k个样本的标签信息,来得到测试样本排名靠前k的标签信息。
  3. 对比实验2用了Visual feature + SVM,训练了c个不同的svm分类器,每个svm分类器是一个二分类问题,最后对c个输出取排名前k的标签作为预测输出。

此外,对于N选K,K个数的确定,仍然没有解决,作者评价时,采取的是Top3和Top5的Recall和Precision。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值