- 博客(10)
- 资源 (16)
- 收藏
- 关注
原创 《HRank:Filter Pruning using High-Rank Feature Map》论文笔记
代码地址:HRankHRankPlus1. 概述导读:卷积网络的剪裁对于模型部署到终端机上具有很强的实际意义,但是现有的一些剪裁算法存在训练并不高效,人工设计剪裁方案耗时费力,其原因就是缺少对于网络中非重要成分的指引。这篇文章中在特征图中搜寻具有High Rank(HRank)特性的filter(参考矩阵分解的内容),之后将那些具有low-rank对应的filter剪除掉,从而达到网络瘦身的目的。文章的方法的原理是:由一个filter产生的特征图他们的rank均值是是一致的,CNN网络中bat
2020-06-27 17:50:04 1032 2
原创 《TDNet:Temporally Distributed Networks for Fast Video Semantic Segmentation》论文笔记
代码地址:TDNet1. 概述导读:这篇文章提出了一个基于时序分布网络的视频语义分割算法TDNet(Temporally Distributed Network),它的设计思想来自于这么一个观察:较深的网络输出的特征是可以由一系列的浅层网络输出的特征进行组合得到。而在视频分割任务中视频是具有时序属性的,而且视频分割也是有时序属性的,因而就可以在一定的时序范围内使用浅层的网络进行特征抽取,之后在经过组合可以达到深层网络输出特征的效果。这样的思路迁移也是相当简单的,那么怎么来实现文章中说的将多个浅层特征进
2020-06-25 16:26:56 2525 3
原创 《A Transductive Approach for Video Object Segmentation》论文笔记
参考代码:transductive-vos.pytorch1. 概述导读:现有的很多视频分割算法是依赖在外部训练好的额外模块实现的,如光流网络与实例分割,这就导致了这些方法在传统基准上无法与其它方法媲美。为此文章提出了一个简单且强大的传导方法来解决这个问题,这个方法不需要额外的子计网络模块,数据,或是专用的网络结构。在文章的方法使用标注传导的方式,它是在特征空间上基于特征相似性实现分割中像素信息的传导。与之前的一些短依赖不同的是文章采用了“全局”的方式,将较为长期的目标特性考虑在内,从而有较好的帧间一
2020-06-21 11:58:54 1213
原创 《CBAM: Convolutional Block Attention Module》论文笔记
参考代码:CBAM.PyTorch1. 概述导读:这篇文章通过在卷积网络中加入Attention模块,使得网络的表达能力得到提升,进而提升网络的整体性能。文章的Attention模块是在卷积特征的channel于spatial两个维度上先后做Attention操作,之后得到增强之后的特征。并且这个Attention模块具有极佳的模块化性能能够很方便的集成到现有的网络中去,从而带来性能上的提升。在文章中需要优化的特征图为F∈RC∗H∗WF\in R^{C*H*W}F∈RC∗H∗W,经过channel
2020-06-17 23:31:00 543
原创 《NetAdapt:Platform-Aware Neural Network Adaptation for Mobile Applications》论文笔记
代码地址:netadapt1. 概述导读:这篇文章提出了一个新的网络压缩算法NetAdapt,它使用一个预训练好的模型在固定计算资源的手机平台上进行压缩试验,因而可以直接采集压缩之后的直接性能表现(计算耗时与功耗)作为feedback,文章指出其为direct metrics。像连乘累加操作(MACs)和网络权重数量这些常规的间接测量方式并不能很好反应网络的性能,这是因为它们与计算耗时和功耗并不直接关联。文章提出的方法实验在MobileNetV1&V2上达到了1.7倍的计算时间加速,并且取得网
2020-06-17 23:18:43 646
原创 《DANet:Dual Attention Network for Scene Segmentation》论文笔记
代码地址:DANet/1. 概述导读:这篇文章通过self-attention机制去捕获更加丰富的上下文信息,并不同于之前的一些工作是在多个尺度(ASPP,Unet形式的网路等)上去获取上下文信息,这篇文章使用channel-wise和spatial-wise两种方式的attention机制在一个尺度(dilation FCN基础上)的特征图进行特征优化,之后再将这些特征elment-sum相加起来得到最后的融合特征(当然实际的处理并不是这么直接,论文里面的代码在细节上还是做了一些trick),从而构
2020-06-13 21:31:13 453
原创 《Structured Knowledge Distillation for Dense Prediction》论文笔记
代码地址:structure_knowledge_distillation1. 概述导读:这篇文章针对的是密集预测的网络场景(如语义分割),在之前的一些工作中对于这一类网络的蒸馏时照搬分类任务中那种逐像素点的蒸馏方式(相当于是对每个像素的信息分别进行蒸馏),文章指出这样的产生的结果并不是最优的(这样策略会忽视特征图里面的结构信息,像素信息之间是存在关联的),因而这篇文章提出了适应密集预测网络的蒸馏策略:1)pair-weise蒸馏:通过构建静态图(受pair-wise的马尔可夫随机场启发,增强特征图中
2020-06-13 10:53:07 1663 1
原创 《Arbitrary Shape Scene Text Detection with Adaptive Text Region Representation》论文笔记
参考代码:暂无1. 概述导读:这篇文章为任意形状的自然场景下文本检测提供了一个新的算法,这个算法中使用了自适应形状的文本区域表达(使用RNN网络)。文章的网络首先给定一张待检测的图片,网络通过text RPN网络提取出可能的文本区域,之后这些区域通过优化网络进行修正与优化。在优化网络中采用了基于RNN结构去预测一对边界点,直到没有新的点预测出来为止(使用RNN去预测停止位),最后通过这样预测出来的点对任意形状的文本进行表达(构成一个包含文本的多边形区域)。文章的算法在CTW1500/ TotalTex
2020-06-11 23:58:44 287
原创 《RGMP:Fast Video Object Segmentation by Reference-Guided Mask Propagation》论文笔记
参考代码:暂无1. 概述导读:这篇文章在Siamese编解码网络结构的基础上,将视频分割网络中的mask传导与目标检测思想(数据增广的时候)相结合,克服彼此存在的问题,从而构建除了一个新的视频分割的网络,并且其速度还挺快,能跑到大概10FPS(ResNet-50的backbone,并不需要任何在线学习与后处理)。并且文章的方法能够实现单目标与多目标分割,在对应的数据集上分割性能与运算速率较好的分割结果。在视频分割领域中一般的方法主要分为两个流派,一个是基于帧间mask传递与基于检测的,他们有各自的
2020-06-06 22:02:26 974
原创 《Context Prior for Scene Segmentation》论文笔记
代码地址(暂未开源):ContextPrior1. 概述导读:现有分割算法中会去充分获取并利用输入数据的上下文信息,但是这些方法并没有有效区分这些上下文信息来自的类别(缺少监督),文章指出这样会给网络理解需要分割的图像造成困扰(带来错误分类的情况),因而在这篇文章中直接去监督特征融合,使得可以区分类内和类间的上下文。要实现上面的目标文章提出了带有相关性损失(Affinity Loss)的Context Prior Layer去获取一个理想的相关性特征图(这是通过GT监督获取的),从而去监督上下文信息的
2020-06-06 17:43:04 707
Opencv调试看图插件
2016-10-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人