自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

I good vegetable a!

本人维护了一个数字图像各种论文复现工程,欢迎STAR: https://github.com/BBuf/

  • 博客(19)
  • 资源 (2)
  • 收藏
  • 关注

原创 【CV中的特征金字塔】一,工程价值极大的YOLOv3-ASFF

下面先放一张论文的结果图。。1. 前言今天为大家介绍一下2019年的一篇论文 《Learning Spatial Fusion for Single-Shot Object Detection》,这篇论文主要是因为其提出的自 适应空间特征融合 (ASFF)被大家所熟知。金字塔特征表示法(FPN)是解决目标检测尺度变化挑战的常用方法。但是,对于基于FPN的单级检测器来说,不同特征尺度之间的...

2020-02-29 22:00:25 2291

原创 卷积神经网络学习路线(二十二)| Google Brain EfficientNet

1. 前言这是卷积神经网络学习路线的的第二十二篇文章,要介绍的是2019年Google Brain的大作EfficientNet,论文全名为EfficientNet:Rethinking Model Scaling for Convolutional Neural Networks。这篇论文系统的研究了网络的深度(Depth),宽度(Width)和分辨率(Resolution)对网络性能的影响(...

2020-02-29 12:21:05 903

原创 深度学习算法优化系列十五 | OpenVINO Int8量化前的数据集转换和精度检查工具文档

前言接着上文,我们知道了量化的操作过程是:转换数据集获得Annotations文件。(可选的)评估低精度模型性能。校验模型。评估结果模型。可以看到在用Calibaration Tool进行Int8量化之前需要先解决如何将我们的原始数据集转为Annotations文件以及我们如何用精度检查工具(Accuracy Checker Tool)去评估我们的量化后模型的表现?Accurac...

2020-02-27 22:54:59 1692

原创 深度学习算法优化系列十四 | OpenVINO Int8量化文档翻译(Calibaration Tool)

前言在2020年以前,OpenVINO(这里以OpenVINO2019年最新的一个版本为例)的Int8量化工具实现在openvino_2019.3.379\deployment_tools\tools\calibration_tool,因为文档比较难读,所以做个翻译记录在这里,便于使用OpenVINO的量化工具上手。要做Int8量化首先需要将你需要部署的模型Caffe/Pytorch/Tenso...

2020-02-26 16:44:07 1229 1

原创 【激活函数合集】盘点当前最流行的激活函数及选择经验

前言在阅读DarkNet源码的时候发现作者定义了大量从古至今流行的损失函数,本着科普的态度我打算做一个全面的总结,所以就有了这篇文章。激活函数有什么用?提到激活函数,最想问的一个问题肯定是它是干什么用的?激活函数的主要作用是提供网络的非线性表达建模能力,想象一下如果没有激活函数,那么神经网络只能表达线性映射,此刻即便是有再多的隐藏层,其整个网络和单层的神经网络都是等价的。因此正式由于激活函数...

2020-02-24 23:41:36 2113

原创 【AlexeyAB DarkNet框架解析】十一,BN层代码详解(batchnorm_layer.c)

前言继续探索AlexeyAB框架的BN层,为了将这个层的原理说清楚,我就不局限于只讲解这个代码,我结合了CS231N的代码以及BatchNorm的论文将前向传播和反向传播都清晰的进行讲解,希望看完这篇你可以对BN层的理解更进一步。论文原文见附录。BatchNorm原理这是论文中给出的对BatchNorm的算法流程解释,这篇推文的目的主要是推导和从源码角度解读BatchNorm的前向传播和反...

2020-02-23 22:16:47 1607 1

原创 【AlexeyAB DarkNet框架解析】十,池化层代码详解(maxpool_layer.c)

已经将所有的注释代码以及包含中文版README的AlexeyAB DarkNet总结在了这个网址上,需要自取:https://github.com/BBuf/Darknet前言继续阅读DarkNet的源码,今天主要来讲一下池化层的构造,前向传播,和反向传播。池化层的实现在src/maxpool_layer.c中。原理为了图文并茂的解释这个层,我们首先来说一下池化层的原理,池化层分为最大...

2020-02-22 18:25:08 1510 2

原创 深度学习算法优化系列十二 | 旷视科技 DoReFa-Net

摘要 继BNN和XorNet之后,这篇论文提出了DoReFa-Net,它是一种可以使用低位宽参数梯度来训练低位宽权重和激活值的卷积神经网络的方法。特别地,在反向传播传播阶段,参数梯度可以在传递到下一层卷积层之前被随机量化到低位宽。由于前向/反向阶段卷积都是在对低位宽权重和激活值/梯度上操作的,这样DoReFa-Net可以使用低位宽卷积核来加速训练和推理。并且,低位卷积可以在CPU,FPGA,AS...

2020-02-21 18:10:35 1424

原创 深度学习算法优化系列十一 | 折叠Batch Normalization

前言今天来介绍一个工程上的常用Trick,即折叠Batch Normalization,也叫作折叠BN。我们知道一般BN是跟在卷积层后面,一般还会接上激活函数,也就是conv+BN+relu这种基本组件,但在部署的时候前向推理框架一般都会自动的将BN和它前面的卷积层折叠在一起,实现高效的前向推理网络,今天我就从原理和实现来讲一讲这个操作。原理我们知道卷积层的计算可以表示为:Y=W∗X+BY...

2020-02-19 22:41:19 522

原创 【综述】Pytorch YOLO项目推荐 建议收藏学习

前言这篇推文的目的是为了给目标检测领域的刚入门或者希望进一步提升自己的能力的同学做的一个YOLO项目推荐。推荐的项目都是当前流行,Star很高,并且实战效果很强的,建议收藏和学习。然后在文末会给出我建议使用的项目。推荐项目内容Pytorch-YOLOv3项目地址:https://github.com/eriklindernoren/PyTorch-YOLOv3项目特点:代码简洁,适合学...

2020-02-17 21:32:51 1994 1

原创 【AlexeyAB DarkNet框架解析】九,YOLOV3损失函数代码详解(yolo_layer.c)

前言前面已经讲完了YOLOV1/V2的损失函数代码解析,今天为大家带来YOLOv3的损失函数解析。YOLOV3的损失函数在YOLOV2的基础上,用多个独立的逻辑回归损失代替了YOLOV2里面的softmax损失,然后去掉了对Anchor在前12800次训练轮次中的回归损失,也即是YOLOV2损失函数的第二项。另外新增了一个ignore_thresh参数来忽略一些和GT box的IOU大于igno...

2020-02-16 18:01:56 2896 3

原创 【AlexeyAB DarkNet框架解析】八,YOLOV2损失函数代码详解(region_layer.c)

想再说一下,这个系列的代码注释我放到https://github.com/GiantPandaCV/darknet 这里了,有需要的可以点star或者fork哦,还在持续更新中。前言昨天结合代码详细解析了YOLOV1的损失函数,今天AlexeyAB版DarkNet的YOLOV2损失函数代码解析也来了。之前我详细分析过YOLOv2的损失函数目标检测算法之YOLOv2损失函数详解,这一节就不再...

2020-02-14 22:21:21 1180

原创 【AlexeyAB DarkNet框架解析】七,YOLOV1损失函数代码详解(detection_layer.c)

前言灵魂拷问,你真的懂YOLOV1的损失函数吗?进一步,懂了损失函数,你清楚它的反向求导过程吗?为了解决这俩问题,本文就结合DarkNet中的YOLOV1的损失函数代码实现(在src/detection_layer.c中)来帮助你理解,相信我,看完你真的能理解。关于YOLOV1就不做过多介绍了,之前写过一篇详细的推文介绍,地址为:目标检测算法之YOLOv1损失函数公式YOLOV1的损失函数就...

2020-02-13 21:36:12 637

原创 深度学习算法优化系列十 | 二值神经网络(Binary Neural Network,BNN)

前言昨天介绍的BinaryConnect提出将浮点权重量化到1bit,提出了完整的量化权重训练/测试流程,并且从带噪声权重的角度来解释了量化权重。但这种方法还有一个缺点,即并没有对激活函数进行量化,所以Bengio大神在2016年发表了这篇Binary Neural Network,论文原文和代码链接见附录。BNN算法二值化的方法二值化方法主要有两种,确定式二值化和随机式二值化。二值化将f...

2020-02-13 20:46:33 1529

原创 深度学习算法优化系列九 | NIPS 2015 BinaryConnect

摘要:得益于GPU的快速计算,DNN在大量计算机视觉任务中取得了最先进的结果。但算法要落地就要求其能在低功耗的设备上也可以运行,即DNN的运行速度要更快,并且占用内存更少。这是我读的关于二值网络的第一篇文章,即在DNN的训练阶段用1bit的二值权重代替浮点数权重,可以将硬件的乘法操作简化为累加操作,可以大量节省存储空间,同时提高运行速度。介绍当前CNN网络主要的运算集中在实数权值乘以实数激...

2020-02-11 13:32:56 383

原创 【AlexeyAB DarkNet框架解析】六,卷积层的反向传播解析

前言今天讲一下卷积层的反向传播实现,上一节已经详细讲解了卷积层的前向传播过程,大致思路就是使用im2col方法对数据进行重拍,然后利用sgemm算法计算出结果,反向传播实际上就是前向传播的逆过程,我们一起来分析一下源码吧。反向传播解析首先调用gradient_array()计算当前层l所有输出元素关于加权输入的导数值(也即激活函数关于输入的导数值),并乘上上一次调用backward_con...

2020-02-08 17:09:15 884

原创 【AlexeyAB DarkNet框架解析】五,卷积层的前向传播解析

本来卷积层的前向传播和反向传播想一起讲的,可是篇幅太长了不太好,所以留到下次讲了。本工程地址为:https://github.com/GiantPandaCV/darknet前言今天来介绍一下DarkNet中卷积层的前向传播和反向传播的实现,卷积层是卷积神经网络中的核心组件,了解它的底层代码实现对我们理解卷积神经网络以及优化卷积神经网络都有一些帮助。卷积层的构造卷积层的构造主要在src...

2020-02-06 18:20:05 986

原创 【AlexeyAB DarkNet框架解析】四,网络的前向传播和反向传播介绍以及layer的详细解析

前言前面我们已经成功的获取了目标检测的网络结构(cfg文件的内容),并将网络保存在了一个network结构体中,然后我们还分析了数据加载方式。现在数据和网络结构都有了,接下来就是开始训练/测试的过程了,这个过程主要调用的是network的前向传播和反向传播函数,而network的前向传播和反向传播又可以细分为每一个layer的前向传播和反向传播,今天我们来看看卷积层。网络的前向传播和反向传播...

2020-02-05 22:02:31 830 1

原创 【AlexeyAB DarkNet框架解析】三,加载数据进行训练

前言昨天讲了DarkNet的底层数据结构,并且将网络配置文件进行了解析存放到了一个network结构体中,那么今天我们就要来看一下Darknet是如何加载数据进行训练的。加载训练数据DarkNet的数据加载函数load_data()在src/data.c中实现(src/detector.c函数中的train_detector直接调用这个函数加载数据)。load_data()函数调用流程如下:...

2020-02-01 22:55:53 1015

ncsdk-windows.rar

vs2015 movidius 神经计算棒一代 ncsdk windows c++调用SequeezeNet的代码。

2019-09-10

cs231-斯坦福大学-李菲菲-2016 课件

深度学习,李菲菲教授,课件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

2018-01-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除