图像检索
maocaisheng
Image Restoration
展开
-
细粒度分类-车辆分类
Embedding Label Structures for Fine-Grained Feature Representation CVPR 2016首先get到了关于image understanding常见的四个名词,困扰了我好久:classification 分类detection 检测segmentation 分割retrieval 检索再关于网络模型的有:identific原创 2017-03-31 21:02:44 · 12820 阅读 · 15 评论 -
Siamese Network Training
Pairwise相似度学习输入可以表示为(x,xp,sim)(x,x_p,sim),Pointwise特征学习输入为(x,label)(x,label)。 下面根据Caffe官网教程介绍如何训练孪生网络。原创 2016-09-27 12:37:03 · 5637 阅读 · 4 评论 -
多任务深度学习(MultiTask Learning)
多任务学习给出多个监督信息(标签),利用任务之间的相关性互相促进。案例1-人脸识别香港中文大学汤晓鸥组发表在NIPS14的论文《Deep Learning Face Representation by Joint Identification-Verification》,提出了一种联合训练人脸确认损失和人脸分类损失的多任务人脸识别网络DeepID2(Deep IDentification-verif原创 2016-09-29 16:48:10 · 39521 阅读 · 2 评论 -
caffe 反卷积
本想着简单记录下过程,没想到大家这么喜欢这篇博文,万分荣幸。可能我记录的不够详细,有人实际操作中出现了一些问题。在此给出工程代码(由于自己下东西积分时常不够,所以给资源加了积分。如果没积分想下载可以私信我邮箱)。介绍论文《Visualizing and Understanding Convolutional Networks》通过对卷积网络的逆向操作,将指定卷积层的激活值反向投影到输入像素空间,从而原创 2016-10-16 17:40:53 · 12588 阅读 · 28 评论 -
反卷积的真正含义
Deconvolution layer is a very unfortunate name and should rather be called a transposed convolutional layer.转载 2016-10-17 15:08:51 · 20833 阅读 · 0 评论 -
VGG 模型
《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》阅读笔记这篇论文从网络深度方向研究得出这个结论: “ a deep net with small filters outperforms a shallow net with larger filters.”实验论文做了这样一个实验: 从左到右网络整体结构不变,原创 2016-11-27 14:09:24 · 5887 阅读 · 0 评论 -
AlexNet模型
《ImageNet Classification with Deep Convolutional Neural Networks》阅读笔记 一直在使用AlexNet,本来早应该读这篇经典论文了。可能是这篇论文涉及到的理论有点多,解释不是很通俗,有了一段时间的实际经验后读完这篇论文深有感悟。 下面按论文的标题分别记录:The DatasetILSVRC:1000类,每类约1000张图片,大约有12原创 2016-11-30 21:42:24 · 5932 阅读 · 0 评论 -
DenseNet模型
《Densely Connected Convolutional Networks》阅读笔记 代码地址:https://github.com/liuzhuang13/DenseNet首先看一张图: 稠密连接:每层以之前层的输出为输入,对于有L层的传统网络,一共有LL个连接,对于DenseNet,则有L(L+1)2\frac {L(L+1)} 2。这篇论文主要参考了Highway Netw原创 2016-12-05 18:55:27 · 55814 阅读 · 10 评论 -
局部特征与图像检索
Exploiting Local Features from Deep Networks for Image Retrieval 阅读笔记摘要这篇⽂章发表在CVPR 2015 workshop上,是来⾃于马⾥兰⼤学帕克学院Joe Yue-Hei Ng等⼈的⼯作。近期的很多研究⼯作表明,相⽐于全相连层的输出,卷积层的特征图谱(feature map)更适⽤于实例搜索。本篇⽂章介绍了如何将卷积层的特征图原创 2017-02-08 13:01:50 · 5183 阅读 · 0 评论 -
mAP的一点理解
mAP:全称mean average precision(平均准确率),信息检索中常用的评价指标(可参考 信息检索的评价指标(Precision, Recall, F-score, MAP) )。每一次检索结果的好坏通过AP(average precision)来衡量,mAP则为多次检索,取其平均值。AP的计算 摘自:https://www.kaggle.com/wiki/MeanAverage原创 2017-03-01 11:11:24 · 2249 阅读 · 0 评论 -
深度哈希-DSH
论文:Deep Supervised Hashing for Fast Image Retrieval CVPR2016 源代码: https://github.com/lhmRyan/deep-supervised-hashing-DSH 论文网络结构似乎是CIFAR-10和Siamese两种网络的结合: 个人认为有两个创新点: 1、通过设计损失函数,使得最后一层的输出Bi原创 2017-03-07 19:01:31 · 7860 阅读 · 4 评论 -
深度哈希-DHN
Deep Hashing Network for Efficient Similarity Retrieval AAAI 2016 源码:https://github.com/zhuhan1236/dhn-caffe与上一篇文章类似,通过设计损失函数,使得最后全连接层的输出分布近似于二值{-1,+1}分布。不过这篇论文从理论上说明了为什么这样设计损失函数。 哈希方法的目标是得到二值编码,所以优原创 2017-03-08 19:33:54 · 8587 阅读 · 0 评论 -
度量学习
度量学习(Metric Learning)也就是常说的相似度学习。原创 2016-09-26 18:43:00 · 17287 阅读 · 0 评论