【论文阅读】Learning Safe Prediction for Semi-Supervised Regression∗

《Learning Safe Prediction for Semi-Supervised Regression∗》
代码地址

1. 摘要

Semi-supervised learning (SSL) concerns how to improve performance via the usage of unlabeled data. Recent studies indicate that the usage of unlabeled data might even deteriorate performance. Although some proposals have been developed to alleviate such a fundamental challenge for semi- supervised classification, the efforts on semi-supervised re- gression (SSR) remain to be limited. In this work we consider the learning of a safe prediction from multiple semi- supervised regressors, which is not worse than a direct supervised learner with only labeled data. We cast it as a geometric projection issue with an efficient algorithm. Furthermore, we show that the proposal is provably safe and has already achieved the maximal performance gain, if the ground-truth label assignment is realized by a convex linear combination of base regressors. This provides insight to help understand safe SSR. Experimental results on a broad range of datasets validate the effectiveness of our proposal.

半监督学习 (SSL) 关注如何通过使用未标记数据来提高性能。最近的研究表明,使用未标记数据甚至可能会降低性能。尽管已经提出了一些建议来缓解半监督分类的这种基本挑战,但半监督回归(SSR)的努力仍然有限。在这项工作中,我们考虑从多个半监督回归器中学习安全预测,这并不比只有标记数据的直接监督学习器差。我们使用有效的算法将其转换为几何投影问题。此外,如果通过基回归量的凸线性组合来实现真实标签分配,我们证明了该提议是可证明的安全的并且已经实现了最大的性能增益。这提供了有助于理解安全 SSR 的洞察力。广泛数据集的实验结果验证了我们提议的有效性。

Thinking:

  1. 本文针对的问题算是另辟蹊径的一个新问题:从多个半监督回归器中学习安全预测,保证不比只有标记数据的直接监督学习器差?
  2. 新问题总是比新方法更好,前者创建研究方向,后者研究方法。

2. 算法描述

符号含义
{ f 1 , … , f b } , where  f i ∈ R u \{f_1, \dots, f_b\}, \text{where } f_i \in \mathbb{R}^u {f1,,fb},where fiRu b b b个半监督回归器对于 u u u个未标记样本的预测
f 0 ∈ R u f_0 \in \mathbb{R}^u f0Ru一个只是用有标记样本训练的回归器对于 u u u个未标记样本的预测
f ∗ f_{*} f无标记样本的真实标签(当然这里是个完全未知量,不然也不叫无标记样本了)

max ⁡ f ∈ R u ∑ i = 1 b α i ( ∥ f 0 − f i ∥ 2 − ∥ f − f i ∥ 2 ) (1) \max_{f \in \mathbb{R}^u}\sum_{i=1}^{b}\alpha_i(\|f_0-f_i\|^2-\|f-f_i\|^2)\tag{1} fRumaxi=1bαi(f0fi2ffi2)(1)

Notice:

  1. f f f是输出,即 f = g ( { f 1 , … , f b } , f 0 ) f = g(\{f_1, \dots, f_b\}, f_0) f=g({f1,,fb},f0),是我们想得到的一个值
  2. 损失分为两个部分,前一部分 ∥ f 0 − f i ∥ 2 \|f_0-f_i\|^2 f0fi2是常数,由于存在权重,所以无法舍去;

由于在实际生活中,权重信息也是不可知的,所以应该对 α i \alpha_i αi进行建模。

max ⁡ f ∈ R u min ⁡ α ∈ M ∑ i = 1 b α i ( ∥ f 0 − f i ∥ 2 − ∥ f − f i ∥ 2 ) (2) \max_{f \in \mathbb{R}^u}\min_{\alpha \in \mathcal{M}}\sum_{i=1}^{b}\alpha_i(\|f_0-f_i\|^2-\|f-f_i\|^2)\tag{2} fRumaxαMmini=1bαi(f0fi2ffi2)(2)

对于等式(2) f f f导数为零,得到一个闭式解。
f = ∑ i = 1 b α i f i (3) f = \sum^{b}_{i=1}\alpha_if_i\tag{3} f=i=1bαifi(3)

合并等式2等式3,得到:
min ⁡ α ∈ M ∥ ∑ i = 1 b α i f i − f 0 ∥ 2 (4) \min_{\alpha \in \mathcal{M}}\|\sum_{i=1}^{b}\alpha_if_i-f_0\|^2\tag{4} αMmini=1bαifif02(4)

这里想了半天,不知道是怎么合并的,头痛😂。

精彩的地方来了,作者把等式4作为一个几何投影问题来解决。

Let Ω = { f ∣ ∑ i = 1 b α i f i , α ∈ M } \Omega = \{f| \sum_{i=1}^{b}\alpha_if_i, \alpha \in \mathcal{M}\} Ω={fi=1bαifi,αM}
等式4被重写为:
f ‾ = arg min ⁡ f ∈ Ω ∥ f − f 0 ∥ 2 (5) \overline{f} = \argmin_{f \in \Omega}\|f-f_0\|^2\tag{5} f=fΩargminff02(5)
这个式子的含义就是,在空间 Ω \Omega Ω中找到 f f f使得与 f 0 f_0 f0的距离最短,毫无疑问这个 f ‾ \overline{f} f就是 f 0 f_0 f0在空间 Ω \Omega Ω投影。这个也是后面证明算法安全性的重要条件
在这里插入图片描述
Theorem1: ∥ f ‾ − f ∗ ∥ 2 ≤ ∥ f 0 − f ∗ ∥ 2 \|\overline{f}-f^{*}\|^2 \leq \|f_0-f^{*}\|^2 ff2f0f2 if the ground truth label assignment f ∗ ∈ Ω = { f ∣ ∑ i = 1 b α i f i , α ∈ M } f^{*} \in \Omega = \{f| \sum_{i=1}^{b}\alpha_if_i, \alpha \in \mathcal{M}\} fΩ={fi=1bαifi,αM}

Notice:

  1. 算法安全只有一个条件,就是最优解 f ∗ f^{*} f Ω \Omega Ω在,也就是说能被多个半监督回归器的预测值加权和表示。
  2. 仔细体会其实有个问题,对于1中的条件,其实很难满足。一般来说,半监督回归器的预测值一般都会与最优值之间有一定差距,一堆回归器的加权值也不会接近预测值。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来日可期1314

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值