一些网络结构和讲解清晰的文章地址

VGG:https://zhuanlan.zhihu.com/p/41423739
在这里插入图片描述

变分自编码器:https://kexue.fm/archives/5253
googlenet(inception v1 v2 v3 v4)
一般来说,提升网络性能最直接的办法就是增加网络深度和宽度,深度指网络层次数量、宽度指神经元数量。但这种方式存在以下问题:
(1)参数太多,如果训练数据集有限,很容易产生过拟合;
(2)网络越大、参数越多,计算复杂度越大,难以应用;
(3)网络越深,容易出现梯度弥散问题(梯度越往后穿越容易消失),难以优化模型。
在这里插入图片描述

1x1的卷积核如何发挥作用?

1x1卷积的主要目的是为了减少维度,还用于修正线性激活(ReLU)。比如,上一层的输出为100x100x128,经过具有256个通道的5x5卷积层之后(stride=1,pad=2),输出数据为100x100x256,其中,卷积层的参数为128x5x5x256= 819200。而假如上一层输出先经过具有32个通道的1x1卷积层,再经过具有256个输出的5x5卷积层,那么输出数据仍为为100x100x256,但卷积参数量已经减少为128x1x1x32 + 32x5x5x256= 204800,大约减少了4倍。

RESNET
在这里插入图片描述
DENSENET
DENSNET
RCNN:https://analyticsindiamag.com/r-cnn-vs-fast-r-cnn-vs-faster-r-cnn-a-comparative-guide/
在这里插入图片描述
感兴趣区域池化(Region of interest pooling)(也称为RoI pooling)https://zhuanlan.zhihu.com/p/65423423
在这里插入图片描述
Fast RCNN:
在这里插入图片描述
Faster RCNN :改进:对感兴趣区域的提出的方法(利用CNN提特征)
在这里插入图片描述
上述的对比:https://analyticsindiamag.com/r-cnn-vs-fast-r-cnn-vs-faster-r-cnn-a-comparative-guide/
以上都是两阶段方法。以下是一阶段基于回归的目标检测方法。
YOLO:https://appsilon.com/object-detection-yolo-algorithm/
在这里插入图片描述
SSD:https://zhuanlan.zhihu.com/p/33544892
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值