VGG:https://zhuanlan.zhihu.com/p/41423739
变分自编码器:https://kexue.fm/archives/5253
googlenet(inception v1 v2 v3 v4)
一般来说,提升网络性能最直接的办法就是增加网络深度和宽度,深度指网络层次数量、宽度指神经元数量。但这种方式存在以下问题:
(1)参数太多,如果训练数据集有限,很容易产生过拟合;
(2)网络越大、参数越多,计算复杂度越大,难以应用;
(3)网络越深,容易出现梯度弥散问题(梯度越往后穿越容易消失),难以优化模型。
1x1的卷积核如何发挥作用?
1x1卷积的主要目的是为了减少维度,还用于修正线性激活(ReLU)。比如,上一层的输出为100x100x128,经过具有256个通道的5x5卷积层之后(stride=1,pad=2),输出数据为100x100x256,其中,卷积层的参数为128x5x5x256= 819200。而假如上一层输出先经过具有32个通道的1x1卷积层,再经过具有256个输出的5x5卷积层,那么输出数据仍为为100x100x256,但卷积参数量已经减少为128x1x1x32 + 32x5x5x256= 204800,大约减少了4倍。
RESNET
DENSENET
RCNN:https://analyticsindiamag.com/r-cnn-vs-fast-r-cnn-vs-faster-r-cnn-a-comparative-guide/
感兴趣区域池化(Region of interest pooling)(也称为RoI pooling)https://zhuanlan.zhihu.com/p/65423423
Fast RCNN:
Faster RCNN :改进:对感兴趣区域的提出的方法(利用CNN提特征)
上述的对比:https://analyticsindiamag.com/r-cnn-vs-fast-r-cnn-vs-faster-r-cnn-a-comparative-guide/
以上都是两阶段方法。以下是一阶段基于回归的目标检测方法。
YOLO:https://appsilon.com/object-detection-yolo-algorithm/
SSD:https://zhuanlan.zhihu.com/p/33544892