阅读小结:Unsupervised Learning of Visual Representations using Videos

paper link: http://www.cv-foundation.org/openaccess/content_iccv_2015/html/Wang_Unsupervised_Learning_of_ICCV_2015_paper.html

Unsupervised Learning of Visual Representations using Videos发表于2015ICCV

What:
1. 使用视频中的物体去训练网络。比如:可以作为一个pretrain的结果应用到其他分类任务上。
2. 没有使用到语义监督(semantic supervision),使用的是:
一个视频中跟踪到的图像 应该有相同的特征 因为这两个图像就是同一个物体的。 (“Our key idea is that two patches connected by a track should have similar visual representation in deep feature space since they probably belong to the same object“)

How
1. 网络结果为 Alexnet
2. 输入的是 每次跟踪的 first 和last frame
3. 数据是从Youtube上扒的。采用SURF特征点和 IDT方法,去获得SURF特征点的移动轨迹。然后建立了标准(a. 只有很少的特征点在移动;b. 很多特征点移动了,可能是摄像头在动了),筛去了一部分帧。 然后我们可以对视频放bounding box把物体抠出来。
4. Tracking 使用的是 KCF tracker。
5. 训练网络 用的Loss的是 Triplet Loss。 距离就是1 - normal后的乘积。
6. 一开始迭代过程中使用的是random,150K迭代后 使用hard negative sample
7. 一个正样本对 保留了 top4个hard negative 样本
8. model ensemble

封闭回路的无监督学习结构化表示 封闭回路的无监督学习结构化表示是一种机器学习方法,旨在通过建立闭环反馈以自动地学习数据之间的结构化表示。在无监督学习中,我们通常没有标签的辅助信息,因此要求模型能够从数据中自动发现隐藏的结构和模式。 封闭回路的无监督学习方法的关键思想是通过对模型输出和输入进行比较来进行训练。在这个闭环中,模型的输出被重新注入到模型的输入中,从而形成了一个持续的迭代过程。模型通过调整自身的参数来最小化输入和输出之间的差异,以此来改善所学到的表示。 使用封闭回路进行无监督学习的一个例子是自编码器。自编码器是一种神经网络模型,它的输入和输出都是相同的。模型的目标是通过学习如何将输入编码为一个低维的表示,并且能够从这个低维表示中重构出输入。在训练过程中,自编码器通过最小化输入和重构输出之间的差异来调整自身的参数。 封闭回路的无监督学习方法有许多优点。首先,由于无需标签,这种方法可以适用于大量未标记的数据。其次,学习到的结构化表示可以用于许多任务,如数据压缩、降噪、特征提取等。此外,通过引入封闭回路,模型可以在训练过程中不断自我纠正,从而改善表示的质量。 总之,封闭回路的无监督学习方法通过建立闭环反馈来自动地学习数据之间的结构化表示。该方法可以应用于无标签数据,并且通过迭代过程来不断改善所学到的表示。这种方法在很多任务中都具有广泛的应用前景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Layumi1993

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值