深度学习
qican_7
这个作者很懒,什么都没留下…
展开
-
目标检测-RCNN系列
参考:[1]https://blog.csdn.net/liuxiaoheng1992/article/details/81743161[2]https://blog.csdn.net/liuxiaoheng1992/article/details/81775007[3]https://blog.csdn.net/liuxiaoheng1992/article/details/8...原创 2019-12-13 20:22:22 · 83 阅读 · 0 评论 -
迁移学习--深度迁移学习
文章:How transferable are features in deep neural networks代码部分:http://yosinski.com/transfer这篇文章里的迁移我认为是transductive TL层面上的迁移(transductive TL具体可以看我这篇文章:迁移学习--综述)也就是domain不同,但是task相同。但是transductive TL里...原创 2019-12-09 22:23:48 · 281 阅读 · 0 评论 -
python+opencv调用HED(Holistically-Nested Edge Detection)模型进行边缘检测
opencv3.4以来逐渐加大了对Dnn模块的支持,在最新的opencv中支持了对HED模型的调用。HED模型出自论文,Holistically-Nested Edge Detection ,ICCV2015,Marr奖提名,非常值得看。https://arxiv.org/abs/1504.06375采用opencv的Dnn模块调用训练好的HED模型需要先下载模型文件htt...原创 2019-11-20 10:38:39 · 1402 阅读 · 3 评论 -
一文看懂YOLO v3
论文地址:https://pjreddie.com/media/files/papers/YOLOv3.pdf论文:YOLOv3: An Incremental ImprovementYOLO系列的目标检测算法可以说是目标检测史上的宏篇巨作,接下来我们来详细介绍一下YOLO v3算法内容,v3的算法是在v1和v2的基础上形成的,所以有必要先回忆: 一文看懂YOLO v2,一文看懂YOLO v...原创 2019-11-20 10:21:35 · 489 阅读 · 0 评论 -
深刻解读YOLO V1(图解)
参考:http://blog.csdn.net/u011534057/article/details/51244354https://zhuanlan.zhihu.com/p/24916786论文下载:http://arxiv.org/abs/1506.02640darknet版的代码下载:https://github.com/pjreddie/darknettensorflo...转载 2019-11-20 10:15:28 · 1275 阅读 · 0 评论 -
深度学习中图像预处理为什么要减去图像均值
在深度学习中,大家都会发现训练集,验证集合测试集划分好之后会有减去均值的一步操作,但很多人都是只跟着做,并没有探究为什么要做这一步处理。其主要原理是我们默认自然图像是一类平稳的数据分布(即数据每一维的统计都服从相同分布),此时,在每个样本上减去数据的统计平均值可以移除共同的部分,凸显个体差异。其效果如下所示: ...转载 2019-10-16 10:55:56 · 910 阅读 · 0 评论 -
卷积神经网络参数计算
1. 简要计算卷积层:W2 = (W1 - F + 2P) / S + 1 H2 = (H1 - F + 2P) / S + 1 D2 = K其中:W2和H2为卷积后特征图的宽和高,F为卷积核的尺寸,P为padding,即图像加零的厚度,S为stride即每次移动的距离,K为卷积核的个数。2. 详细举例1: 比如...原创 2019-09-12 16:35:44 · 5083 阅读 · 1 评论 -
准确率(precision)、召回率(recall)和F值
摘要: 数据挖掘、机器学习和推荐系统中的评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)简介。引言: 在机器学习、数据挖掘、推荐系统完成建模之后,需要对模型的效果做评价。业内目前常常采用的评价指标有准确率(Precision)、召回率(Recall)、F值(F-Measure)等,下图是不同机器学习算法的评价指标。下文讲对其中某些指标做...原创 2019-09-12 18:27:23 · 1984 阅读 · 0 评论 -
Batch Normalization的作用
在深度神经网络训练中,Batch Normalization有诸多非常强大的作用和效果:无论使用哪种激活功能或优化器,BN都可加快训练过程并提高性能;解决梯度消失的问题;规范权重;优化网络梯度流...等等。批量归一化(BN)是神经网络的标准化方法/层通常BN神经网络输入被归一化[0,1]或[-1,1]范围,或者意味着均值为0和方差等于1。BN对网络的中间层执行白化本文只关注BN为什么...原创 2019-09-12 18:47:01 · 16815 阅读 · 3 评论