- 博客(5)
- 收藏
- 关注
原创 Bounding Box Regression
这篇博客主要讲解为什么可以用线性模型去做Bounding Box Regression,在讲解之前先明确几个先决条件:(1)Bounding Box由包含四个参数的坐标组成,即其中Gx,Gy表示Bounding Box的中心点横纵坐标,Gw,Gh分别表示Bounding Box的宽与高。(2)回归过程涉及到三个坐标 I. ground-tr...
2019-04-01 09:39:19 626
原创 RCNN
论文链接:相关论文:读完rbg大神的论文瞬间感觉这个世界有太多的惊喜,但还是有很多的疑惑。1. 疑惑以及解答(1)训练过程是如何进行的?(2)IoU用来干什么?(3)非极大值抑制是什么?作用是什么?(4)边界框回归是怎么做的?...
2019-04-01 09:38:24 195
原创 DenseNet
论文连接:DesNet优点:(1) they alleviate the vanishing-gradient problem.(2) strengthen feature propagation.(3) encourage feature reuse.(4) substantially reduce the number of parameters. 读完论文多遍之后还是没体会到...
2019-04-01 09:13:48 205
原创 ResNet
论文链接:1. 论文背景(1)为什么神经网络没有发展得越来越深? 因为随着网络深度的增加会出现梯度消失或爆炸的问题,导致无法收敛。但是这一问题可以利用归一化(normalized initialization and intermediate normalization layers)在很大程度上解决。(注:为什么会出现梯度消失与梯度爆炸的问题?)(2)梯度消失问题解决了,理论上随着网络深...
2019-04-01 09:11:05 197
原创 梯度消失与梯度爆炸
1. 什么是梯度消失与梯度爆炸?目前优化神经网络的方法都是基于误差反向传播思想,即根据损失函数计算的误差通过梯度反向传播的方式来指导深度网络权值的更新优化(其实就是链式法则的应用)。这样做是有一定原因的,因为深层网络由许多非线性层堆叠而来,每一层非线性层都可以视为是一个非线性函数 f(x) (非线性来自于非线性激活函数),因此整个深度网络可以视为是一个复合的非线性多元函数(可以表示某种假设函数)...
2019-04-01 09:04:06 193
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人