![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
半监督学习
文章平均质量分 53
weixin_37958272
这个作者很懒,什么都没留下…
展开
-
Understanding Deep Image Representations by Inverting Them
Understanding Deep Image Representations by Inverting Them图1.CNN编码的是什么?图中显示了在ImageNet数据上训练的参考CNN[13](应用softmax之前)倒数第二层提取的1000维输出所得到的参考图像的五种可能的重建。从模型的角度来看,所有这些图像实际上都是等价的。这张图片最好用彩色/屏幕观看。在本文中,我们通过表征其保留的图像信息(characterising the image information that they re原创 2021-03-03 20:43:21 · 342 阅读 · 1 评论 -
Inverting Visual Representations with Convolutional Networks
Inverting Visual Representations with Convolutional NetworksMahendran和Vedaldi[19]使用梯度下降法反转可微图像表示Φ\PhiΦ。给定一个特征向量Φ0\Phi_0Φ0,他们尝试寻找能最小化损失函数一张图片x∗x^*x∗。损失函数为Φ0\Phi_0Φ0和Φ(x)\Phi(x)Φ(x)的欧氏距离的平方加上一个正则化项来强制自然的图像优先(enforcing a natural image prior)。这种方法与我们的方法有本质的原创 2021-03-03 15:14:10 · 332 阅读 · 1 评论 -
Inceptionism Going Deeper into Neural Networks
Inceptionism: Going Deeper into Neural Networks近年来,人工神经网络在图像分类和语音识别方面取得了显著的进展。但是,尽管这些都是基于众所周知的数学方法的非常有用的工具,但我们实际上对某些模型工作而其他模型不工作的原因却知之甚少。所以让我们来看看一些简单的技术来窥视这些网络。我们训练一个人工神经网络,向它展示数以百万计的训练例子,并逐步调整网络参数,直到它给出我们想要的分类。该网络通常由10-30层人工神经元组成。每幅图像都被送入输入层,然后输入层与下一层对话翻译 2021-03-02 20:43:12 · 193 阅读 · 1 评论 -
Dreaming to Distill Data-free Knowledge Transfer via DeepInversion
Dreaming to Distill: Data-free Knowledge Transfer via DeepInversion我们介绍了DeepInversion,一种从图像分布中合成图像的新方法,用于训练深度 神经网络。我们将一个训练有素的网络(老师)"反转 "为 从随机噪声开始合成class-conditional 输入图像,而不使用任何额外的训练数据集。在保持老师固定的情况下,我们的方法在优化输入的同时,利用老师的batch normalization层中存储的信息对中间特征图的分布进行规整原创 2021-03-02 20:15:40 · 1571 阅读 · 1 评论 -
Explaining and Harnessing Adversarial Examples
Explaining and Harnessing Adversarial Examples包括神经网络在内的一些机器学习模型,始终对对抗性样本进行错误分类–通过对数据集中的例子应用小的但有意的最坏情况下的扰动形成的输入,这样扰动的输入导致模型以高置信度输出一个错误的答案。早期解释这种现象的尝试集中在非线性和过拟合上.我们反而认为,神经网络对对抗性扰动的脆弱性的主要原因是它们的线性性质。这种解释得到了新的定量结果的支持,同时给出了关于它们最有趣的事实的第一个解释:它们在架构和训练集之间的泛化。此外,这种观翻译 2020-07-08 17:54:35 · 448 阅读 · 0 评论 -
Virtual Adversarial Training A Regularization Method for Supervised and Semi-Supervised Learning
Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning我们提出了一种新的基于虚拟对抗损失的正则化方法:给定输入的条件标签分布的局部光滑性的新度量。虚拟对抗损失定义为每个输入数据点周围的条件标签分布对局部扰动的鲁棒性。与对抗训练不同,我们的方法定义了无标记信息的对抗方向,因此适用于半监督学习。因为我们平滑模型的方向只是“虚拟”对抗性的,所以我们称我们的方法为虚拟对抗性训原创 2020-07-08 18:01:41 · 1095 阅读 · 0 评论 -
Mean teachers are better role models
Mean teachers are better role models最近提出的时间集成在几个半监督学习基准中取得了最新的结果。它在每个训练示例上保持标签预测的指数移动平均,并惩罚与此目标不一致的预测。然而,由于目标每一个epoch只改变一次,当学习大的时候,时间集合变得很难处理数据集。到为了克服这个问题,我们提出了Mean-Teacher,一种平均模型权重而不是标记预测的方法。作为一个额外的好处,Mean-Teacher提高了测试的准确性,并使训练比临时集合的标签更少。在不改变网络结构的情况下,Mea翻译 2020-07-08 17:56:12 · 1576 阅读 · 0 评论