![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
unsurpervised
文章平均质量分 65
加油
qq2285580599
这个作者很懒,什么都没留下…
展开
-
Comprehensive Distance-Preserving Autoencoders for Cross-Modal Retrieval
摘要这是无监督跨模态的一个早期的工作,之前的无监督方法主要考虑拉近属于同一对象的两两关系。而我们的方法不仅考虑了pairwise关系,也考虑了同模态和不同模态的距离。我们的方法主要包括四个部分:1,去噪自编码器。取出SIFT提取特征中的噪声。2,全面的保持距离的公共空间。学习公共空间,使得模态内和模态间的信息在这个公共空间得到保持。3,共同的损失函数。去噪损失函数+pair的损失+不pair的与原空间对比的损失。4,一种无监督的跨模态相似度度量方式。提出方法 去噪自编码器原创 2021-08-23 22:14:45 · 163 阅读 · 0 评论 -
无监督跨模态分类及其整理
一,通过raw feature学习到S,然后固定不动指导哈希码学习JDSH:Motivation1,学习到简单的 S,这个 S 不单单是 S_I + S_T,这样把模态割裂的方式是不好的,应该把模态互相融合,你中有我,我中有你,一个I与所有I的相似度乘以对应的pair中的一个T与所有T的相似度然后相加。构成一个S_fusion(这与DGCPN相似,DGCPN只是进行相乘的时候做了一个KNN.) 2,接...原创 2021-08-24 11:24:31 · 562 阅读 · 0 评论 -
Deep Graph-neighbor Coherence Preserving Network for Unsupervised Cross-modal Hashing
摘要目前的无监督跨模态检索精确度都不行,因为只依靠跨模态特征是不够的。并且有一种场景是两组数据有不同的表示,但是有共同的潜在空间,这种情况就是仅仅靠跨模态特征是不够的。因此我们提出了我们的DGCPN.这个方法从图模型衍生出来,并且通过考虑数据和它的邻居考虑了图近邻关系。...原创 2021-08-09 22:10:38 · 772 阅读 · 1 评论 -
Creating Something from Nothing:Unsupervised Knowledge Distillation for Cross-Modal Hashing
摘要这篇文章的作者脑子非常活,先训练无监督,把无监督练好了,得出相似度矩阵,然后带到有监督里面,无监督和有监督分属于两种训练,训练过程中互不干扰。介绍所谓的有监督,我们在训练过程中不是真的需要每一件样本被标注,我们只需要估计两两之间的相似度就好了,如果只使用标签就太hard了,因为只是0和1. 我们不如用更好的距离表示,提取出暗知识。无监督之所以不好是因为两点:1,pair-wise的对比知识不够。2,无监督输出的是不准确的语义信息。这促使我们用无监督的信息去指导一个有监督模型,这是知识原创 2021-08-16 16:36:15 · 220 阅读 · 0 评论 -
Contrastive Multiview Coding
摘要对于多视角学习,每一个视角都是有噪声并且不完整的,但是重要的信息却被所有的视角共享。所有我们要学习一个强大的模型去学习视角间不变的信息,也就是最大化相同场景但是不同视角的共有信息。我们发现对比损失比交叉预测损失更好,并且学习的视角越多,越能捕获到潜在场景的语义。提出方法预测学习预测学习的目的就是从 v1 预测 v2, 依靠一个中间变量z, 但这会使得 v2 之间的像素互相独立(为什么互相独立?我也不大清楚),失去了学习结构的能力。 两个视角的对比学习 ...原创 2021-08-13 17:19:53 · 304 阅读 · 0 评论