文献阅读笔记
文章平均质量分 94
读论文呢
庸中佼佼
这个作者很懒,什么都没留下…
展开
-
Fast R-CNN
先验知识:SPP Net最后的卷积层和全连接层之间加入SPP层。ALEXNET共有5个卷积层。具体做法是:在conv5层得到的特征图是256层,每层都做一次spatial pyramid pooling。先把每个特征图分割成多个不同尺寸的网格,比如网格分别为4∗44*44∗4、2∗22*22∗2、1∗11*11∗1,然后每个网格做maxpoolingmax poolingmaxpooling,这样256层特征图就形成了16∗25616*25616∗256,4∗2564*2564∗256,1∗2561*原创 2021-08-26 19:16:55 · 182 阅读 · 1 评论 -
R-CNN
论文笔记2014年由于我们结合了Region proposals和CNNs,所以起名 R-CNN:Regions with CNN features原创 2021-08-07 09:58:08 · 98 阅读 · 0 评论 -
YOLO 9000
YOLO9000:Better, Faster, Stronger预备知识BN层:Batch Normalization批标准化,对于每个隐层神经元,把逐渐向非线性函数映射后向取值区间极限饱和区靠拢的输入分布强制拉回到均值为0方差为1的比较标准的正态分布,使得非线性变换函数的输入值落入对输入比较敏感的区域,以此避免梯度消失问题。而且梯度变大意味着学习收敛速度快,能大大加快训练速度。经过BN后,目前大部分Activation的值落入非线性函数的线性区内,其对应的导数远离导数饱和区,这样来加速训练收敛过程。原创 2021-07-31 10:58:49 · 176 阅读 · 0 评论 -
YOLO v1
YOLO目录1. 一 YOLO v11 网络结构上图为YOLO v1的网络结构图,下图为详细说明。共24个卷积层4个池化层两个全连接层以输入448∗448∗3448*448*3448∗448∗3滤波器为7∗7∗647*7*647∗7∗64输出为224∗224∗64224*224*64224∗224∗64为例:滤波器算子的深度和上一层输入的数据深度一致!!!所以每个算子尺度为7∗7∗37*7*37∗7∗3,一个算子遍历整张图像得到224∗224∗1224*224*1224∗224∗1(注意:原创 2021-07-29 12:42:28 · 306 阅读 · 0 评论