深度学习知识
文章平均质量分 79
小楞
学习记录分享
展开
-
基于深度学习的立体匹配
目录基于深度学习的立体匹配1. 背景2. 解决方案2.1监督学习算法2.1.1 PSM-Net2.1.2 EdgeStereo2.1.3 GwcNet2.1.4 GA-Net2.1.5 SSPCV-Net2.1.6 WSM-Net3. 算法验证及落地思考3.1 算法的复现3.2 Middleburry v3 评估3.3 落地思考基于深度学习的立体匹配1. 背景传统的立体匹配算法多围绕损失计算...原创 2020-04-26 21:10:51 · 8693 阅读 · 13 评论 -
resnet的演化(res2net,resnext,se-resnet,sk-resnet,resnest)
resnet的演化(res2net,resnext,se-resnet,sk-resnet,resnest)1. 总体演化过程演化方向主要为两种: split-transform-merge、squeeze-and-attention。split-transform-merge:通过卷积的可分离性质,增加网络宽度,从而在不增加算力的情况下增加网络的表征能力(不同维度通道特征的融合)。squ...原创 2020-04-21 18:41:03 · 7063 阅读 · 5 评论 -
pytorch_yolov3解决类别不均衡导致MAP较低的问题
文章目录pytorch_yolov3 loss函数设计解决样本不均衡问题描述原始loss函数loss函数的重新设计1.不同属性间比重:2.不同类别样本比重:3.不同类别Ap:4.难例挖掘:5.正负目标的匹配策略:pytorch_yolov3 loss函数设计解决样本不均衡问题描述1.样本量类别间不均衡导致MAP过低(占比较低的类别AP值接近于0)。2.正负样本比例失衡,导致检出率过低。原...原创 2020-04-18 15:59:50 · 8463 阅读 · 12 评论 -
pooling层一些被遗忘的特性(锚点、算力、反向传播)
pooling层一些被遗忘的特性1. pooling层锚点位置pooling层的kernel Size多为奇数,其锚点为中心点,那当为偶数时呢?pooling的掩码宽高分别为W、H,锚点与掩码的关系如下:当W为奇数,H为奇数,则锚点位置((H-1)/2, (W-1)/2)当W为奇数,H为偶数,则锚点位置((H-2)/2, (W-1)/2)当W为偶数,H为奇数,则锚点位置((H-1)/2...原创 2020-04-02 20:18:21 · 710 阅读 · 0 评论 -
NMS详解及pytorch实现:hard-nms(diou\overlap\merge\batched),soft-nms
文章目录NMS详解及pytorch实现:hard-nms(diou\overlap\merge\batched),soft-nms1 简介2 原理3 实现3.1 伪代码3.2 pytorch源码3.3 知识点参考资料NMS详解及pytorch实现:hard-nms(diou\overlap\merge\batched),soft-nms1 简介非极大值抑制算法(Non-maximum sup...原创 2019-12-26 20:05:01 · 8234 阅读 · 3 评论 -
darknet pytorch-yolov3解决梯度爆炸
文章目录darknet/pytorch-yolov3解决梯度爆炸现象与原因:解决思路:pytorch-yolov3框架限制函数如何使用darknet-yolov3框架限制函数如何应用darknet/pytorch-yolov3解决梯度爆炸现象与原因:现象:梯度爆炸是深度学习中十分常见的现象,有时会导致寻优过程不收敛,或者算出来的结果干脆直接溢出,例如在训练过程中出现大面积的nan或者-na...原创 2019-12-19 17:54:49 · 2007 阅读 · 0 评论 -
图像增强工具Augmentor介绍
文章目录图像增强工具Augmentor介绍1 介绍1.1 特点1.2 操作举例2 使用说明2.1 安装2.2 命令使用3 功能介绍3.1 旋转操作rotate90:rotate180:rotate270:rotate_random_90:rotate:rotate_without_crop:3.2 镜像操作flip_top_bottom:flip_left_right:flip_rando...原创 2019-12-12 11:09:43 · 4618 阅读 · 1 评论 -
目标检测评估方法学习及AP大于1情况的探索
目标检测AP值大于1的原因最近在训练pytorch-yolov3模型模型的过程中,模型评估时,某些类别的AP值会大于1,根据自己的常识,一直认为计算AP的方法存在问题,但是并不是。原因请往下看。计算AP的方法:详情请参考:https://blog.csdn.net/qq_35916487/article/details/89076570预备知识IOU:两个目标框的交并比目标框定义:...原创 2019-10-31 09:57:56 · 2918 阅读 · 2 评论 -
momentum动量算法详解
momentum动量算法详解1.原理先看作用:保留历史梯度对现有梯度的影响,具有减小梯度震荡,加速模型训练的作用。再看解释:如图所示,红色为SGD+Momentum。黑色为SGD。可以看到黑色为典型Hessian矩阵病态的情况,相当于大幅度的徘徊着向最低点前进。而由于动量积攒了历史的梯度,如点P前一刻的梯度与当前的梯度方向几乎相反。因此原本在P点原本要大幅徘徊的梯度,主要受到前一时刻...原创 2019-10-29 11:49:06 · 4159 阅读 · 0 评论