自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

AI之路

计算机视觉、深度学习、机器学习爱好者,欢迎交流!

  • 博客(17)
  • 资源 (1)
  • 收藏
  • 关注

原创 XNOR-Net算法详解

论文:XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks 链接:https://arxiv.org/abs/1603.05279 代码地址:http://allenai.org/plato/xnornet模型压缩和加速是深度学习算法应用在移动端必须要解决的问题,也是近年来的研究热点,这篇文章就是

2017-08-31 08:27:51 23404 11

原创 Precision,Recall,F1score,Accuracy的理解

Precision,Recall,F1score,Accuracy四个概念容易混淆,这里做一下解释。假设一个二分类问题,样本有正负两个类别。那么模型预测的结果和真实标签的组合就有4种:TP,FP,FN,TN,如下图所示。这4个分别表示:实际为正样本你预测为正样本,实际为负样本你预测为正样本,实际为正样本你预测为负样本,实际为负样本你预测为负样本。那么Precision和Recall表示什么意思?一般

2017-08-23 08:17:47 47281 7

原创 Caffe用训练好的模型测试图片

这是一个python脚本,用训练好的caffemodel来测试图片,接下来直接上代码,里面有详细解释,大部分你要修改的只是路径,另外在这个脚本的基础上你可以根据自己的需要进行改动。需要的东西:训练好的caffemodel,deploy.prototxt(可以从你的train.prototxt修改得到),可以用的caffe,待测试的图像(比如jpg)import syscaffe_root='/yo

2017-08-23 08:03:37 8309 2

原创 深度学习框架的内存优化机制

这篇博文简单介绍下深度学习框架的内存优化方式,主要参考资料1,也就是MXNet的官方文档。内存优化方式主要包括:in-place operation和memory sharing两种,二者在本质上没有太大差别,同时这两种也是MxNet主要采用的内存优化方式,下面的截图均来自参考资料1,接下来基于计算图来讲解。1、in-place operation in-place operation的示意图如下

2017-08-17 21:03:27 3040

原创 GPU,CUDA,cuDNN的理解

我们知道做深度学习离不开GPU,不过一直以来对GPU和CPU的差别,CUDA以及cuDNN都不是很了解,所以找了些资料整理下,希望不仅可以帮助自己理解,也能够帮助到其他人理解。先来讲讲CPU和GPU的关系和差别吧。截图来自资料1(CUDA的官方文档):从上图可以看出GPU(图像处理器,Graphics Processing Unit)和CPU(中央处理器,Central Processing Uni

2017-08-17 20:29:37 105860 11

原创 MxNet使用总览

写这篇博文的初衷是希望能整理下自己在使用MxNet过程中对这个框架的理解。详细的介绍都给出了链接,这篇相当于一个概括,希望能对这个框架有一个总的认识,内容会不断补充,有疑问的欢迎交流,谢谢。1、下载MxNet并编译 MxNet的官方网址:http://mxnet.io/get_started/install.html 我这里选择如下安装方式:然后按照 Build the MXNet core s

2017-08-17 08:06:23 10463 2

原创 卷积神经网络系列之softmax,softmax loss和cross entropy的讲解

我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对这些层具体是怎么实现的了解吗?你对softmax,softmax loss,cross entropy了解吗?相信很多人不一定清楚。虽然网上的资料很多,但是...

2017-08-17 07:47:51 180795 92

原创 Memory-Efficient Implementation of DenseNets

论文:Memory-Efficient Implementation of DenseNets 论文链接:https://arxiv.org/abs/1707.06990这篇技术报告旨在改进DenseNet模型占用显存较大的问题。DenseNet是一个全新的模型,对于特征的极致利用可以提高模型的表现能力,同时由于生成大量的intermediate feature(中间特征),因此存储这些inter

2017-08-17 07:36:43 5010

原创 SSD算法的改进版之R-SSD

论文:Enhancement of SSD by concatenating feature maps for object detection 论文链接:https://arxiv.org/abs/1705.09587算法详解: SSD算法在object detection领域的效果有目共睹,是proposal-free方面的代表算法之一,如果你对SSD算法不大熟悉,可以看看这篇博客:SSD(

2017-08-12 20:57:59 26184 17

原创 不需要预训练模型的检测算法—DSOD

论文:DSOD: Learning Deeply Supervised Object Detectors from Scratch 论文链接:https://arxiv.org/abs/1708.01241 caffe代码:https://github.com/szq0214/DSOD.这是一篇ICCV2017的文章,我觉得非常有意思,因为DSOD(Deeply Supervised Objec

2017-08-12 10:35:08 16777 18

原创 Yolo 9000的darknet实现

代码的github地址:https://github.com/philipperemy/yolo-9000 我是Ubuntu 16.04系统1、拉取项目git clone --recursive https://github.com/philipperemy/yolo-9000.git因为我只能用http的地址,当然你可以跟github里面一样用git地址,结果都是一样的。默认拉取下来的项目名称是

2017-08-12 10:25:11 3836 1

原创 Focal Loss

论文:Focal Loss for Dense Object Detection 论文链接:https://arxiv.org/abs/1708.02002 优化版的MXNet实现:https://github.com/miraclewkf/FocalLoss-MXNetRBG和Kaiming大神的新作。 我们知道object detection的算法主要可以分为两大类:two-stag...

2017-08-10 08:21:11 100328 32

原创 CVPR2017-如何在无标签数据集上训练模型

论文:Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally 论文链接:http://openaccess.thecvf.com/content_cvpr_2017/papers/Zhou_Fine-Tuning_Convolutional_Neural_

2017-08-09 08:33:48 21073 4

原创 SphereFace算法详解

论文:SphereFace: Deep Hypersphere Embedding for Face Recognition 论文链接:https://arxiv.org/abs/1704.08063这篇是CVPR2017的poster,主要提出了A-softmax loss(angular softmax loss)用来改进原来的softmax loss。A-softmax loss简单讲就是在

2017-08-09 08:19:31 20860 4

原创 损失函数改进方法总览

这篇博客主要列个引导表,简单介绍在深度学习算法中损失函数可以改进的方向,并给出详细介绍的博客链接,会不断补充。1、Large Marge Softmax Loss ICML2016提出的Large Marge Softmax Loss(L-softmax)通过在传统的softmax loss公式中添加参数m,加大了学习的难度,逼迫模型不断学习更具区分性的特征,从而使得类间距离更大,类内距离更小。核

2017-08-09 08:11:19 13859 1

原创 损失函数改进之Center Loss

最近几年网络效果的提升除了改变网络结构外,还有一群人在研究损失层的改进,这篇博文要介绍的就是较为新颖的center loss。center loss来自ECCV2016的一篇论文:A Discriminative Feature Learning Approach for Deep Face Recognition。 论文链接:http://ydwen.github.io/papers/WenEC

2017-08-09 08:00:37 82135 20

原创 损失函数改进之Large-Margin Softmax Loss

最近几年网络效果的提升除了改变网络结构外,还有一群人在研究损失层的改进,这篇博文要介绍的就是较为新颖的Large-Margin softmax loss(L-softmax loss)。Large-Margin softmax loss来自ICML2016的论文:Large-Margin Softmax Loss for Convolutional Neural Networks 论文链接:htt

2017-08-08 08:23:24 33597 12

双足机器人

双足机器人,里面有代码和解释,主要是舵机的控制问题

2014-03-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除