深度学习
文章平均质量分 55
poorfriend
这个作者很懒,什么都没留下…
展开
-
深度学习之CNN二 RCNN系列
RCNN:http://blog.csdn.net/hjimce/article/details/50187029SSPNet:http://blog.csdn.net/hjimce/article/details/50187655Fast RCNN:http://blog.csdn.net/u010678153/article/details/46891655Faster RCNN:转载 2016-06-07 15:56:52 · 5551 阅读 · 0 评论 -
tensorflow 目标检测API学习之protobuf
[TOC] google protobuf 谷歌开发者网站proto示例syntax = "proto2"; //使用proto2语法编写package protobuf;message Object { required int32 class = 1; required float xmin = 2; required float ymin = 3; req原创 2017-12-27 10:27:26 · 3003 阅读 · 1 评论 -
Learning Deep Features for Discriminative Localization
Class Activation MappingCAM生成实验结果分类定位细粒度识别参考文献 NIN[2]提出的全局平均池化(Global Average Pooling, GAP),代替如AlexNet和VGG中出现的含大量参数的的全连接层(FC6、FC7),能起到防止过拟合、提高泛化能力的作用。而且相对于FC层, GAP对空间平移更鲁棒, 可解释性也更强。除了上述优点, 本文提出另原创 2017-11-23 19:54:02 · 721 阅读 · 0 评论 -
coco评价指标
cocoapi 示例: Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 = 0.17, 0.20, 0.03 Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 = 0.34, 0.37, 0.03 Aver原创 2017-11-10 17:46:10 · 6648 阅读 · 5 评论 -
MXNet SSD之multibox_target
multibox_targethmultibox_targetccmultibox_target.hnamespace mxnet {namespace op {namespace mshadow_op {struct safe_divide { template<typename DType> MSHADOW_XINLINE static DType Map(DType a, DTy原创 2017-11-09 19:23:56 · 1982 阅读 · 1 评论 -
MXNet 多rec参与训练
下面是内容只是简写import mxnet as mximport numpy as npclass Mix(mx.io.DataIter): def __init__(self, paths, **kwargs): super(Mix, self).__init__() self.flags = range(len(paths)) sel原创 2017-11-08 13:56:46 · 667 阅读 · 1 评论 -
caffe源码分析--Blob类
转自:http://blog.csdn.net/lingerlanlan/article/details/24379689数据成员 protected: shared_ptr data_; //data数据,指向SyncedMemory类的智能指针 shared_ptr diff_; //参数更新量 shared_ptr shape_data_; //数据维度转载 2016-08-25 15:58:43 · 377 阅读 · 0 评论 -
深度学习之CNN一 卷积与池化
1 卷积连续: 一维卷积:s(t)=(x∗w)(t)=∫x(a)w(t−a)dts(t)=(x*w)(t)=\int x(a)w(t-a)dt 二维卷积:S(t)=(K∗I)(i,j)=∫∫I(i,j)K(i−m,j−n)dmdnS(t)=(K*I)(i,j)=\int\int I(i,j)K(i-m,j-n)dmdn 离散: 一维卷积:s(t)=(x∗w)(t)=原创 2016-06-05 10:34:22 · 17225 阅读 · 0 评论 -
理解LSTM
原文 http://www.jianshu.com/p/9dc9f41f0b29本文译自 Colah 的博文Recurrent Neural Networks 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。传统的神经网络并不转载 2016-04-11 08:00:04 · 847 阅读 · 0 评论 -
darknet中添加新层
src中新建mylayer.c和mylayer.h,在makefile里OBJ添加mylayer.odarknet.h里LAYER_TYPE添加MYLAYERparser.c中 include “mylayer.h”, string_to_layer_type函数中添加 if(strcmp(type, “[mylayer]”) ==0) return MYLAYER...原创 2018-04-09 10:56:21 · 1484 阅读 · 2 评论