- 博客(10)
- 资源 (1)
- 收藏
- 关注
原创 论文阅读 MEnet: A Metric Expression Network for Salient Object Segmentation
Abstract文章定义了一个新的度量空间,能够将salient区域和非salient分开Introduction作者提出了一个在学习到的度量空间中的saliency model。对于部分扭曲的图像作者提出了一种深度的度量学习的方法来解决saliency分割问题。用语义分割的特征来学习一个齐次度量空间。特征是像素级别的,对于前景和背景的区分通过一个distance measure来...
2018-05-22 14:42:31 913
原创 论文阅读 Deep Attentional Structured Representation Learning for Visual Recognition
Abstract深度学习能够融合一些局部特征,但是在一定程度上忽略了很多的局部有判别力的特征,这个时候需要attention来帮忙,对于常见的结构表达BOW,VLAD也有了长足的发展,NetVLAD,和FisherNet,本文最后的优化采用了NetVLAD的优化方法,解耦了dictionary和descriptor之间的关系 所以本文就是NetVLAD+attentionArchitec...
2018-05-22 11:16:40 751
原创 论文阅读 Deep TEN: Texture Encoding Network
1、Introduction说实话和作者的context encoding那篇有点重了的感觉 作者将字典学习和编码融合到一个模型里面了inherent的视觉字典是从损失中直接学习出来的整个的表示是无序的,对于material和texture识别是特别有效的最后的encoder层是传统的residual encoder(VLAD,FISHER)的一个全新的泛化,能够丢弃domain-...
2018-05-22 10:08:11 3155 2
原创 论文阅读 Show, Tell and Discriminate: Image Captioning by Self-retrieval with Partially Labeled Data
AbstractCaption目的是尽力让生成的caption和人类自己说出来的一致,产生有判别力的caption是至关重要的。一般的方法都只是模仿语言结构,这样往往会陷入一种重复频繁出现的词汇和句子的这样的旧的习惯里面,所以本文提出了self-retrieval guidance来产生有判别力的句子产生的句子和图像之间的关系已经被嵌入到整个的生成过程中,因此可以充分利用未标注的数据...
2018-05-21 23:28:28 1217
原创 解决进程杀死,显存仍在的问题
1、用nvidia-smi也好,top也好都找不到kill掉的进程了,但是显存仍然占用没有被释放,怎么办呢?毕竟top也找不到进程号呀 用以下指令查找出top没有而他有的进程fuser -v /dev/nvidia*逐个kill掉top中不显示的进程就可以了...
2018-05-13 11:04:37 14653 3
原创 Pytorch 容器
1. nn.Sequential(*layers) 类似于torch7中的Sequential,将每一个模块按照他们的顺序送入到nn.Sequential中 ,输入可以是一些列有顺序的模块conv1=nn.FractionalMaxPool2d(2,output_ratio=(scaled,scaled))conv2=nn.Conv2d(D,D,kernel_size= 3,str...
2018-05-12 21:49:51 18591 3
原创 Attention-Aware Compositional Network for Person Re-identification
1、 文章的AACN=PPA+AFC其中PPA用来产生part attention,用来去除背景干扰AFC用来对特征进行对齐,用产生的attention来对齐特征传统方法用part来辅助行人ReID,都是通过矩形框去框人体部位,这样会造成很大的误差,如果能学出一种attention自动关注到对应的身体部位效果会更好2、 对于PPA部分,作者用了三个分支来学习总体的特征第...
2018-05-11 10:44:45 1967
原创 Pytorch学习笔记(一)
1、 Tensor对于tensor,如果requires_grad=True,整个计算会被跟踪,等反传结束后,梯度值会保存在.grad中Tensor和Function内部交联,构成一个图对于Variable,它由某个操作完成,那么.grad_fn将会指向完成这个变量的操作x = torch.ones(2, 2, requires_grad=True)y = x + 2y.backwar
2018-05-08 21:35:36 1008
原创 Context Encoding for Semantic Segmentation
1、Introduction作者提出是不是捕捉语义信息等价于扩大感受野?传统的encoder(BoW,VLAD)可以编码全局特征统计十分方便一个encoding层将字典学习和残差编码都融合到一个网络里面,作者通过扩展encoding层来捕获全局的特征统计2、contribution第一是设计SEloss,不想pixelwise的损失,SEloss损失对于大目标和小目标施以相同...
2018-05-07 12:15:31 1694 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人