【文献阅读】Using Self-Supervised Learning Can Improve Model Robustness and Uncertainty

本文探讨了自监督学习如何增强模型的鲁棒性和不确定性,特别是在对抗样本和输入损坏情况下的表现。通过在CIFAR-10和ImageNet数据集上的实验,自监督方法在OOD检测上超越了完全监督的方法。使用旋转和翻译预测任务,自监督模型显示出了优于专门针对one-class学习设计的方法的性能。
摘要由CSDN通过智能技术生成

使用自监督学习可以提高模型的鲁棒性和不确定性

Abstract

(1)现有的方法落后于基于监督学习的方法,只是在不需要或者减少需要标签方面有好处

(2)自监督可以在对抗样本、输入数据损坏、输入标签损坏等多种场景有较好的鲁棒性(本文不做note)

(3)自我监督对困难的、接近分布的离群值的OOD检测有很大的好处,以至于它的性能超过了完全监督的方法

Introduction

1、某些方面提高模型的鲁棒性

\qquad 当与有标记数据的有监督学习一起使用时,自我监督并不能显著提高准确性,但它可以提高在如下几个方面提高模型的鲁棒性:(1)对抗样本 (2)标签损坏 (3)常见的输入图像损坏,例如图像上有雾、雪、模糊等等

2、提高了near-distribution样本的检测效果

\qquad 当样本是接近真实分布的、较难检测出来的ood样本时,自监督学习可以显著提高OOD检测效果,事实上,使用CIFAR-10和ImageNet上的自监督学习技术进行外分布检测,我们甚至能够超越完全监督的方法。

3、评价

\qquad 自监督学习不需要不断赶超全监督学习,即使模型单纯的准确度没有很大的改变,但是提高了模型的鲁棒性和不确定性,而且很重要的是不需要很大的模型规模和额外的数据,它们可以与特定任务的方法一起使用,而不需要额外的假设。通过使用自监督学习,我们在对抗鲁棒性、标签腐败、常见输入腐败和分布外检测方面取得了切实的进展

Out-of-Distribution Detection

4.2 One-class learning

前人做法

(1)RotNet 是一种成功的自我监督学习技术,它通过预测输入是否旋转0°、90°、180°或270°来学习其表示

Spyros Gidaris, Praveer Singh, and Nikos Komodakis. Unsupervised representation learning by predicting image rotations.

作者做法:在训练完RotNet之后,我们使用softmax概率来确定一个example是分布内还是分布外。为此,我们向网络提供原始示例(0°),并记录RotNet分配给0°类的softmax概率。然后我们将示例旋转90度,并记录分配给90度类的概率。我们对180°和270°做同样的处理,然后把这些概率加起来。分布内样本的概率总和往往高于OOD样本的概率总和,所以这个概率总和的负值就是异常分数。

(2)接下来,Golan和El-Yaniv预测输入是否发生了转换如旋转,以及预测输入是否水平翻转;我们是第一个将这种方法与自我监督学习联系起来的,我们改进了他们的方法(?????问号脸)

Izhak Golan and Ran El-Yaniv. Deep anomaly detection using geometric transformations. CoRR,abs/1805.10917, 2018.

作者方法

Cifar10数据集

对于我们的自监督的one-class OOD检测器,我们使用深度网络来预测几何变换,从而超越了之前的工作和完全监督的网络。example旋转0°,90°,180°,或270°,然后在垂直和水平方向平移0或±8像素。这些转换组合在一起,网络有三个softmax头:一个用于预测旋转( R R R),一个用于预测垂直平移( T v

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
自我监督学习是一种机器学习方法,通过对数据进行合理的预测任务,从中获得有用的表示。与传统的监督学习不同,自我监督学习不需要人工标注的标签来指导训练,而是利用数据自身的信息进行训练。 自我监督学习的基本思想是从未标记的数据中构造有意义的标签,然后将这些标签用作训练数据,以学习有用的特征表示。通过对输入数据进行某种形式的变换或遮挡,可以生成一对相关的样本。其中一个样本称为正样本,另一个则被视为负样本。例如,在图像领域中,可以通过将图像进行旋转、裁剪或遮挡等变换来生成正负样本对。模型的目标是通过学习从一个样本到另一个样本的映射,从而使得正样本对之间的相似度更高,负样本对之间的相似度更低。 自我监督学习在许多任务中都取得了很好的效果。例如,在自然语言处理任务中,可以通过遮挡句子中的某些单词或短语来生成正负样本对,然后通过学习从一个句子到另一个句子的映射来进行训练。在计算机视觉任务中,可以通过图像的旋转、裁剪、遮挡或色彩变换等方式来生成正负样本对。 自我监督学习的优点是不需要人工标注的标签,可以利用大量的未标记数据来进行训练,从而扩大训练数据的规模。此外,自我监督学习还可以通过学习到的特征表示来提高其他任务的性能,如分类、目标检测和语义分割等。 总之,自我监督学习是一种有效的无监督学习方法,通过构造有意义的预测任务,从未标记的数据中学习有用的特征表示。它在各种任务中都有广泛的应用,并具有很高的潜力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值