Dist-PU,正样本-无标签学习的一个pu-loss改进版。文章源自:Dist-PU: Positive-Unlabeled Learning from a Label Distribution P

今天讲两篇关于PU-learning的文章

<Dist-PU: Positive-Unlabeled Learning from a Label Distribution Perspective >

文章开始给出一个图:本文主要研究在给出少量标签的情况下,如何利用无标签样本去做分类的问题,本文给出正样本和负样本的比例,这是一个先验概率,即事先知道的一个大致比例,πP表示。

说明与uPU和nnPU相比,自己设计的Rlab-hat,预测的概率分布更逼近真实值。

这是dist-pu loss的推导过程。

 如图所示,在给出的样本中,只有正样本标签和无标签的数据集,然后用深度学习模型去分类,对输出的logit进行sigmoid转化得到一个score即s,如何使得s的分布,即预测的结果逼近真实的概率分布,这是设计dist-pu的motivation。

 

 

 

到这一步,dist-pu的 

 

最终推导的dist-pu loss 的主体部分为hat-R-lab,即公式15。 

 

为了校准其它影响因素带来的偏差,在主体loss的基础上又添加了一些其他loss项,最后的损失函数由四部分组成,即公式23。 

实验结果:

实验的数据集为F-MNIST、CIFAR-10和阿尔茨海默症数据集,数据结构达到sota指标。

 

文章的消融实验和dist-pu loss的超参数的阶梯实验,不讲了,就是证明那些\mu\nu\gamma在什么情况下最优。

结论:

 

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

医学小达人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值