- 博客(31)
- 收藏
- 关注
原创 java Spring简介
Spring是轻量级开源框架,以IOC(控制反转)和AOP(面向切面)为内核,提供了展现层SpringMVC,持久层SpringJDBC
2019-07-29 20:53:46 268
原创 Attention综述
整理了近来看过的几篇用于计算机视觉方向的Attention论文1.Residual Attention Network首次成功将极深卷积神经网络与人类视觉注意力机制进行了有效的结合本文提出了一种可堆叠的网络结构。与ResNet中的Residual Block结构相似,本文所提出的网络结构也是通过一个ResidualAttention Module的结构进行堆叠,可使网络模型能够很容易的达到很...
2019-04-02 13:51:56 954
原创 Parameter-FreeSpatialAttentionNetworkforPersonRe-Identification
摘要:GAP(global average pooling)可以帮助我们产生辨别性的信息用于识别,但是在行人重识别领域,如果关键信息丢GAP就会收到很大的影响,比如摄像头角度变了。为了解决这个问题,通过在高阶语义上建模空间关系来获得目标的全局配置被证明是有效的。作者提出了一种新的行人的再识别体系结构,该结构基于一种新的无参数空间注意层,将特征图上激活之间的空间关系引入到模型中。GAP是一个众所...
2019-03-27 15:19:47 1777
转载 Self-Attention 最新进展
Attention注意力,起源于Human visual system(HVS),个人定义的话,应该类似于 外界给一个刺激Stimuli,然后HVS会第一时间产生对应的 saliency map,注意力对应的应该就是这个显著性区域。这其中就涉及很多 bottom-up 及 top-down 的 physiological 原理~总的来说,就是 区域权值学习 问题...
2019-02-20 15:41:08 680
原创 BAM: Bottleneck Attention Module算法笔记
论文地址姊妹篇BAM: Bottleneck Attention Module这是CBAM的姊妹篇,原班人马打造,不得不服摘要:在这项工作中,我们把重心放在了Attention对于一般深度神经网络的影响上,我们提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,我们的模型通过两个分离的路径 channel和spatial, 得到一个A...
2019-01-23 16:01:25 13519 4
转载 PG GAN
PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION翻译为改善质量,稳定性和可变性的GANS的渐进增长Tero Karras , Timo Aila , Samuli Laine , Jaakko Lehtinen ftkarras,taila,slaine,jl...
2019-01-11 10:43:36 794
原创 Hierarchical Bilinear Pooling for Fine-Grained Visual Recognition论文笔记
大概多少
2019-01-09 11:46:05 3475
原创 Learning a Discriminative Filter Bank within a CNN for Fine-grained Recognition论文翻译
Learning a Discriminative Filter Bank within a CNN for Fine-grained Recognition细粒度分类一直是图像分类中的一个难点,近年来基于深度学习的图像分类发展迅速,细粒度分类也发展出了很多优秀的模型,早期的多阶段模型是通过引入一个辅助网络来融合位置信息到主分类网络中,或者通过一个复杂的特征编码方式来获得高阶特征统计,而最近的端...
2018-12-11 15:52:14 2574
原创 Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition笔记
Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition(ECCV2018)细粒度图像分类一直是一个颇具挑战性的问题,起因是细粒度图像很多存在类间方差小而类内方差大的问题,这样比一般的图像分类难度就大很多。细粒度图像分类有两个关键点,一个是关键性区域定位,二是从关键性区域学得辨别性特征,当前有很多方法在朝这...
2018-12-06 14:44:28 1435
原创 Tensorflow提取中间层特征npy文件并加工成tfrecord文件
提取不提取特征不重要,我的方法的出发点是将npy文件加工成tfrecord文件加工成tfrecord文件def _add_to_tfrecord(tfrecord_writer, split_name):"""Loads images and writes files to a TFRecord.Args: image_dir: The image directory where ...
2018-12-06 11:06:15 1652
转载 Tensorflow data
TensorFlow版本:1.10.0 > Guide > Importing Data导入数据(Reading data)上一篇介绍了TensorFlow读取数据的四种方法:tf.data、Feeding、QueueRunner、Preloaded data。推荐:如何构建高性能的输入 ...
2018-11-23 17:19:13 306
转载 Tensorflow slim教程翻译
github:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/slimTensorFlow-SlimTF-Slim is a lightweight library for defining, training and evaluating ...
2018-11-23 17:11:52 216
转载 对于提取图像多尺度特征的思考
众所周知通常CNN要求输入图像尺寸是固定的,比如现有的效果比较好的pre-trained的模型要求输入为224224,227227等。这个要求是CNN本身结构决定的,因为CNN一般包括多个全连接层,而全连接层神经元数目通常是固定的,如4096,4096,1000。这一限制决定了利用CNN提取的特征是单一尺度的,因为输入图像是单一的。多尺度特征(multi-scale feature)能有效改善i...
2018-11-17 10:44:31 11820 2
转载 Bilinear CNN Models for Fine-grained Visual Recognition论文总结
双线性定义:包含两个特征提取器,其输出经过外积(外积WiKi)相乘、池化后获得图像描述子。-作者思路局部模型高效性的原因:本文中,作者声称局部推理的高效性在于其与物体的位置及姿态无关。纹理表示通过将图像特征进行无序组合的设计,而获得平移无关性。纹理表征性能不佳的思考:基于SIFT及CNN的纹理表征已经在细粒度物体识别上显示出高效性,但其性能还亚于基于局部模型的方法。其可能原因就是纹理表示的...
2018-11-16 20:05:26 9073 8
原创 Xception: Deep Learning with Depthwise Separable Convolutios简单理解
介绍这篇论文呢,还是先回顾一下之前的Inception网络VGG等传统的网络通过堆叠简单的33卷积实现特征提取,还有用11卷积 5*5的,但是用哪种大小的卷积是最好的并不清楚,Inception结构就把这些不同大小的卷积核都放进去,让网络自己去训练决定,也就是将一个输入同时输给这几种提取特征方式,然后做concat,这样还有一个直观的好处,可以学到不同尺度的信息,同时相对于VGG等网络来说用更少...
2018-11-05 16:32:47 473
原创 Deep Layer Aggregation笔记
论文链接首先说明一点 ,深层的网路可以提取更多的语义信息和全局特征,但是这个不代表网络最后一层就是图像的最终代表,skip connections已经证明了这一点,所以聚合是网络结构很重要的一方面。简介:图像识别要求跨越低维到高维的尺寸从小到大的分辨率从细粒度到模糊的丰富的表达。在一个神经网络中,单独的一层的特征表达能力是远远不够的,这时候自然而然想到去聚合这些层表达有助于提升效果(在哪里和是...
2018-10-25 11:29:46 2869
翻译 Squeeze-and-Excitation Networks
写在后面:applying a global image feature vecto rto generate caption may lead to sub-optimal results due to the irrelevant regions(和这篇文章有没有关系……………………………….)摘要卷积神经网络是建立在卷积操作之上的,卷积操作提取信息特征通过混合空间和通道信息一直 在局...
2018-08-08 17:53:42 580
转载 科研入門經驗
科研经验之浅谈      本人是科研界的菜鸟,刚入科研界不久,下面是对自己科研一段时间的一个总结与归纳,也是一些经验和感悟,如果有错误或者夸大之处还请各位批评指正,谢谢!预热篇兴趣培养(阅读顺序)    &a
2018-08-07 10:30:14 157
翻译 Look Closer to See Better 梅涛大神作品
Look Closer to See Better: Recurrent Attention Convolutional Neural Network for Fine-grained Image Recognition论文链接简介:识别细粒度类别是有困难的,这种困难存在于辨别性的区域定位和细粒度的特征学习,各种各样的方法被提出来应对这些挑战,但是却忽略了也该事实,实际上区域检测和细...
2018-08-03 22:13:24 1126
原创 ThiNet:一种深度卷积网络压缩的过滤器级别剪枝方法
文章全名:ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression 原文链接简介过去几年计算机视觉方面发展迅速,各种模型被提出来提升精度,但是有一个很现实的问题,这些模型对硬件要求高,导致模型受限制无法部署在一些可移动设备上。模型压缩是因此被提出,剪枝也是其中一个非常火的方向去减少模型复杂度。在本...
2018-08-01 21:55:56 1868
翻译 MobileNet论文翻译
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications摘要 我们发明了一类有效的为了可移动的设备和课编码版本的应用的模型叫做MobileNets. MobileNets是基于一种使用深度可分割卷积去建立轻量型网络结构的流线型结构。我们引进了两个简单的超参数,这两个超参数在延迟和准确率...
2018-06-22 21:26:14 5098
原创 深度学习第四课第三周
Object Detection1.Object localization 以前的分类问题经过softmax后输出其属于哪一类即可,对于目标定位,经过softmax后还得多输出其位置信息。 bx,by是位置,bw和bh是宽度和高度。 这里输出假设分类定位问题是只有一个对象,当图像中有目标时pc=1,列表中还会包含位置信息(bw,bh,bx,by),c1=1代表目标是pedestrain
2017-12-16 21:23:44 722
原创 AlexNet、GoogLeNet、VGGNet、ResNet对比
AlexNet在ILSVRC 2012中赢得了第一名,Top5错误率15.3%。论文链接 AlexNet前面是5个卷积层,之后是3个全连接层,最后再加上一个1000-way的Softmax,对应于ILSVRC的1000个类别的概率。 从上图可以明显看到网络结构分为上下2层,这是表示网络分布在2个GPU上,因为一个NVIDIA GTX 580 GPU只有3GB内存,装不下这么大的网络。为了减少
2017-12-09 10:25:52 25038 5
原创 Tensorflow的一些常见函数
tf.cast()tf.cast(x, dtype, name=None) 将x的数据格式转化成dtype.例如,原来x的数据格式是bool, 那么将其转化成float以后,就能够将其转化成0和1的序列。反之也可以a = tf.Variable([0,0,1])b = tf.cast(a,dtype=tf.bool)sess = tf.Session()sess.run(tf.init
2017-12-07 10:21:36 231
转载 Data Augmentation的几种常用方法总结
Data Augmentation的几种常用方法总结: Color Jittering:对颜色的数据增强:图像亮度、饱和度、对比度变化(此处对色彩抖动的理解不知是否得当); PCA Jittering:首先按照RGB三个颜色通道计算均值和标准差,再在整个训练集上计算协方差矩阵,进行特征分解,得到特征向量和特征值,用来做PCA Jittering; Random Scale:尺度变换; Ra
2017-12-06 21:00:36 7039
原创 随笔
残差网络(ResNet)中的瓶颈层:实际中,考虑计算的成本,对残差块做了计算优化,即将两个3x3的卷积层替换为1x1 + 3x3 + 1x1, 如下图。新结构中的中间3x3的卷积层首先在一个降维1x1卷积层下减少了计算,然后在另一个1x1的卷积层下做了还原,既保持了精度又减少了计算量。’
2017-11-25 17:09:51 287
原创 深度学习第四课第二周
记住几个经典网络的结构 残差网络结构图Inceptioninception可以代替人工帮你决定卷积层大小和要不要加池化层 基本思想是不需要认为决定使用哪个过滤器,或者是否需要池化,由网络自行决定。你可以给网络添加所有可能的参数值,然后把输出参数拼接,让网络自己学习他需要什么参数。 瓶颈层(bottleneck layer)显著降低了计算量 数据扩充(数据增强)对图片进行一些变换可
2017-11-17 13:51:21 921 2
原创 tensorflow里面的padding解释
笼统的来说,padding就是在输入矩阵周围填充0,它解决了两个问题 1.卷积之后图像输出缩小 2.图像的边缘信息容易被忽略 padding在tensorflow中有两个选项。 1:”VALID”也就是没有进行0填充,这里OUTPUTSIZE计算公式为: output_size=⌈(In−F)/s+1⌉\lceil (In-F)/s+1 \rceil 2:”SAME”进行了0填充 o
2017-11-16 20:16:27 401
翻译 深度学习第四课第一周--卷积神经网络(随笔)
1.计算机视觉计算机视觉曾经面临的挑战 –>输入的图片数据量(维度)很大 (64*64*3=12288) 当输入图像为1000*1000*3,输入数据为300000时,内存会非常大,也会很容易造成过拟合。2.边缘检测垂直边缘和水平边缘检测 图示为垂直边缘检测实例 3.Paddingpadding解决了两个问题: 1.卷积之后图像输出缩小 2.图像的边缘信息容易被忽略 由上图可
2017-11-07 14:41:20 441
翻译 深度学习第三课随笔
梯度下降最简单的梯度下降格式x+=−learning_rate∗dxx+= - learning\_rate*dx动量(Momentum)更新在普通版本中,梯度直接影响位置。而在这个版本的更新中,物理观点建议梯度只是影响速度,然后速度再影响位置:动量更新v=mu∗v−learning_rate∗dxv=mu*v-learning\_rate*dxx+=vx+=vNesterov动量与普通动量有
2017-11-04 15:42:07 403 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人