PU-Learning

速读

论文:Learning From Positive and Unlabeled Data: A Survey

从方法上讲,主要有两种。

  • two step: 先对数据用聚类或者任一相关算法分类(选出可信度高的neg案例),然后再放到任一分类网络里训练,然后再根据训练的结果分类未标记,再次训练,直到模型稳定或者loss较小。 基于可分性和连续性假设
  • biased learning: 全部将未标注作为neg放到网络里训练。其中关键之处在于如何做数据均衡。有三种方法,a. 从阈值着手,b. 从正负样例权重着手 c. 从loss着手。 基于SCAR假设,个人理解为正负样例分布不重叠

应用:人群包,lookalike. 总的就是如何找到相似用户。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值