cv
礼拜天吃芋圆
这个作者很懒,什么都没留下…
展开
-
目标检测Loss 比较
1.L1 vs L2 vs Smooth L1 对比: https://www.jianshu.com/p/19483787fa24. 从梯度方面分析: smooth L1 loss能从两个方面限制梯度: 当预测框与 ground truth 差别过大时,梯度值不至于过大; 当预测框与 ground truth 差别很小时,梯度值足够小。 ...原创 2020-12-29 16:20:02 · 593 阅读 · 0 评论 -
目标检测(3)anchor free:FCOS解读
PDF: https://arxiv.org/pdf/1904.01355.pdf. CODE: https://github.com/tianzhi0549/FCOS/. 1.思路来源 segmentation方法应用在object detection上。model:FCN。 FCN使用在语义分割、关键点检测等领域使用的很好,能否迁移到检测任务上。 2.anchor box 介绍: 使用在one-stage和two-stage中,用于bbox框的检测。 缺点: 1、检测效果受到anchor的size、ra原创 2020-12-10 20:39:40 · 776 阅读 · 0 评论 -
finetune心得
(1)测试新网络 1.github上拉网络下来先根据tutorial测试网络 2.根据costum数据集进行code修改。 3.可能出现的train的问题: loss:较大 (可能欠拟合,更好的batch_size或者lr等进行调整)原创 2020-12-09 11:27:19 · 259 阅读 · 0 评论 -
important block(1)
1.深度可分离卷积 可分离卷积:空间可分离卷积和深度可分离卷积。 空间可分离卷积:将大的卷积核变成两个小卷积核的乘积。 深度可分离卷积:深度卷积+逐点卷积 深度卷积:卷积核拆分成单通道形式,对每个通道进行卷积。 逐点卷积:1*1卷积核,进行通道融合。 过程: 例如: Conv:input:12×12×3 + 5×5×3×256卷积核====>output:8×8×256 SeparableConv: input:12×12×3 +5×5×1×3卷积(逐个通道)===>mid:8×8×3 +原创 2020-11-27 14:23:10 · 200 阅读 · 1 评论 -
backbone(1):mobilenet
1.mobileNet 轻量级神经网络 (1)mobileNet v1 model:将VGG标准卷基层替换成深度可分离卷积 网络模型:VGG中Conv改为SeparableConv 激活层:用Relu6 = min(max(0,x),6) (2)mobileNet v2 v1问题:深度卷积部分的卷积核比较容易训废掉:训完之后发现深度卷积训出来的卷积核有不少是空的 原因:Relu:对低维度做ReLU运算,很容易造成信息的丢失。而在高维度进行ReLU运算的话,信息的丢失则会很少。这就解释了为什么深度卷积的卷积原创 2020-11-27 14:12:34 · 724 阅读 · 1 评论 -
目标检测(2)RetinaNet解读
1.核心: one-stage方法:速度快,但有大量候选区,只有少部分为真实标记的,导致计算loss的时候正负样本不平衡。 two-stage方法:可以得到高的精确度,却不能保障速度要求。 思考: 能不能找到一种方法,既保证精确度,又保障速度。 2.解决: Focal Loss的提出就是在one-stage的基础上解决accurary的问题。 one-stage精确度底的本质:类别不平衡导致,导致计算loss时,以类别多的为主导地位。 提出Focal loss:不是解决异常值问题,而是通过控制样本分类难以原创 2020-08-14 11:26:31 · 475 阅读 · 0 评论 -
目标检测(1)疑难问题分析
目标检测1.Spatial Pyramid Pooling 和Feature Pyramid Network 1.Spatial Pyramid Pooling 和Feature Pyramid Network (1)Spatial Pyramid Pooling 是金字塔池化。应用在SPP-Net及Faster RCNN中,对不同的feature,转化成大小一致的feature map。 在Fast-Rcnn中ROI pooling== SPP。 (2)Feature Pyramid Network 多通原创 2020-07-30 18:14:59 · 258 阅读 · 0 评论