Unsupervised Learning of Visual Representations using Videos

ICCV 2015
project page http://www.cs.cmu.edu/~xiaolonw/unsupervise.html
code https://github.com/xiaolonw/caffe-video_triplet

这篇文章最大的亮点是 CNN 的 Unsupervised Learning。以前的CNN网络参数学习需要海量标定的数据,例如 ImageNet,本文提出使用没有标定的视频来学习 CNN网络。

这里写图片描述
这里写图片描述

我们利用视频跟踪技术提取视频中对应的图像块,对应的图像块一般属于同一个物体,它们之间的相似性比较大,尤其是与随机对应的图像相比较而言。

所以我们的CNN网络为三元结构,两个相关样本和一个负样本。三个样本用于学习相似性。

4 Patch Mining in Videos
给定一个视频,我们希望运动的图像块,然后跟踪这些图像块,从而得到训练样本,这里我们通过两个步骤来实现:1)SURF提取特征点,然后使用 IDT【50】来过滤特征点。2)我们用一个固定尺寸的框,通过移动框,选择包含最多特征点的位置的框。将该图像块作为运动图像块。使用KCFtracker【19】进行跟踪,30帧后的图像块作为对应的图像块。
这里写图片描述

5 Learning Via Videos
网络结构如下:
这里写图片描述

5.2. Ranking Loss Function
这里写图片描述
5.3. Hard Negative Mining for Triplet Sampling
Random Selection
HardNegativeMining

5.4. Adapting for Supervised Tasks
fine-tune

这里写图片描述
这里写图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
封闭回路的无监督学习结构化表示 封闭回路的无监督学习结构化表示是一种机器学习方法,旨在通过建立闭环反馈以自动地学习数据之间的结构化表示。在无监督学习中,我们通常没有标签的辅助信息,因此要求模型能够从数据中自动发现隐藏的结构和模式。 封闭回路的无监督学习方法的关键思想是通过对模型输出和输入进行比较来进行训练。在这个闭环中,模型的输出被重新注入到模型的输入中,从而形成了一个持续的迭代过程。模型通过调整自身的参数来最小化输入和输出之间的差异,以此来改善所学到的表示。 使用封闭回路进行无监督学习的一个例子是自编码器。自编码器是一种神经网络模型,它的输入和输出都是相同的。模型的目标是通过学习如何将输入编码为一个低维的表示,并且能够从这个低维表示中重构出输入。在训练过程中,自编码器通过最小化输入和重构输出之间的差异来调整自身的参数。 封闭回路的无监督学习方法有许多优点。首先,由于无需标签,这种方法可以适用于大量未标记的数据。其次,学习到的结构化表示可以用于许多任务,如数据压缩、降噪、特征提取等。此外,通过引入封闭回路,模型可以在训练过程中不断自我纠正,从而改善表示的质量。 总之,封闭回路的无监督学习方法通过建立闭环反馈来自动地学习数据之间的结构化表示。该方法可以应用于无标签数据,并且通过迭代过程来不断改善所学到的表示。这种方法在很多任务中都具有广泛的应用前景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值