深度学习
芳芳不是我真名
show me your code
展开
-
对CNN感受野一些理解
感受野(receptive field)被称作是CNN中最重要的概念之一。为什么要研究感受野呐?主要是因为在学习SSD,Faster RCNN框架时,其中prior box和Anchor box的设计,一直搞不明白。当我理解了感受野才有点恍然大悟的感觉。快速看完这篇文章的前提是,要对CNN有个大致了解,feature map等术语要知道。 先看八股式定义,感受野:在卷...原创 2017-11-21 15:55:36 · 50019 阅读 · 23 评论 -
详解VGG16以及启发
论文名字是《Very Deep Convolutional Networks For Large-Scale Image Recongnition》下载链接:http://vc.cs.nthu.edu.tw/home/paper/codfiles/melu/201604250548/VGG.pdf为什么要读VGG16?作为基础网络,分类性能非常好;VGG16的网络结原创 2018-01-04 09:43:37 · 22194 阅读 · 3 评论 -
使用caffe训练CNN,Loss不下降,维持在某个数字-log(类别数)
这也是困扰我一段时间的问题,loss不下降,一直在找其他的原因,权重初始化从gaussian到xiavier,查看了反向传播的diff后,总觉得梯度消失了,还想着加上BN层。以上统统没有效果,为什么呐?数据没有shuffle!每一个minibatch几乎都是同一类,这样必然出现大问题。为什么呐?caffe中的优化方法默认是SGD,这里的SGD其实是minibatch-SGD算法,计原创 2017-12-29 11:34:41 · 12805 阅读 · 16 评论 -
如何解决数据不均衡对CNN的影响
读《The Impact of Imbalanced TrainingData for Convolutional Neural Networks》有感,再加上自己的一些理解。论文地址:http://www.diva-portal.org/smash/get/diva2:811111/FULLTEXT01为什么会看到这篇文章呐?原因是我最近在做一个实验,finetuning caffene原创 2017-12-29 11:43:58 · 5548 阅读 · 1 评论 -
SSD目标检测算法改进DSSD(反卷积)
论文:DSSD : Deconvolutional Single Shot Detector论文地址:https://arxiv.org/abs/1701.06659代码:https://github.com/chengyangfu/caffe/tree/dssdDSSD是2017年的CVPR,二作就是SSD的一作Wei Liu。另外值得原创 2018-01-20 17:19:14 · 21039 阅读 · 2 评论 -
一文搞懂深度学习正则化的L2范数
想要彻底弄明白L2范数,必须要有一定的矩阵论知识,L2范数涉及了很多的矩阵变换。在我们进行数学公式的推到之前,我们先对L2范数有一个感性的认识。L2范数是什么?L2范数的定义其实是一个数学概念,其定义如下:这个公式看着相当熟悉吧,用的最多的欧式距离就是一种L2范数,表示向量元素的平方和再开方。正则化中的L2范数 说到正则化,我们要看一下,正则化在深度学习中含义是指什么...原创 2018-01-31 08:28:31 · 57050 阅读 · 27 评论