深度学习
ture_dream
这个作者很懒,什么都没留下…
展开
-
draw_net
ImportError: No module named pydotNo module named google.protobufhttp://blog.csdn.net/u013609078/article/details/50479518sudo apt-get in原创 2016-11-03 01:25:53 · 1229 阅读 · 0 评论 -
linux中结合opencv编译c++代码
linux中结合opencv编译c++代码。添加代码test.cpp如下:#include int main(int argc,char ** argv) { IplImage* img = cvLoadImage(argv[1],CV_LOAD_IMAGE_COLOR); cvNamedWindow("Image_show",CV_WINDOW_转载 2016-12-21 15:01:49 · 1134 阅读 · 0 评论 -
gdb调试
gdb 使用手册 博客分类:CentOS/RedHat正则表达式C#C++C大众硬件 简述 一 列文件清单 二:执行程序 三:显示数据 四:断点(breakpoint) 五.断点的管理 六.变量的检查和赋值 七. 单步执行 八.函数的调用 九.机器语言工具 十.信号 GDB的转载 2016-12-17 14:31:22 · 571 阅读 · 0 评论 -
gdb来debug caffe代码
[ GDB ]gdb中查看源代码执行路径使用gdb来debug caffe代码基本分为以下几步:**********************step1: gdb ./build/tools/caffestep2: b 154step3: set args train --solver=/home/wenyangming/caffe/examples/cifa转载 2016-12-17 14:20:48 · 1454 阅读 · 0 评论 -
Blob进阶6 (显示代码行号)
把dfata_layers.cpp贴出了,明天好好注释一下:#include #include #include "caffe/blob.hpp"#include "caffe/data_transformer.hpp"#include "caffe/internal_thread.hpp"#include "caffe/layer.hpp"#include "caffe/lay原创 2016-11-26 21:16:40 · 498 阅读 · 0 评论 -
Blob进阶5
net在caffe中代表一个完整的cnn模型,包含若干layer实例。net是一张图纸,对应的是protoBuffer文本文件,描述文件*.prototxt,现在用自带的caffeNet模型描述文件,位于,/caffe-master/models/bvlc_reference_caffenet/deploy.prototxt,将此文件拷贝到当前工作目录下1 在caff原创 2016-11-26 17:31:07 · 556 阅读 · 0 评论 -
Blob进阶3
Update操作将data与diff融合,是权值更新最终实施者 data=data-diff代码:#include#include#includeusing namespace caffe;using namespace std;int main(void){ Blob a; cout<<"Size: "<< a.shape_string()<<endl; a.R原创 2016-11-24 18:25:41 · 892 阅读 · 0 评论 -
Blob进阶2
在Blob进阶1基础上更改代码:#include#include#includeusing namespace caffe;using namespace std;int main(void){ Blob a; cout<<"Size: "<< a.shape_string()<<endl; a.Reshape(1,2,3,4); //调用Reshape赋值 c原创 2016-11-24 17:46:00 · 361 阅读 · 0 评论 -
faster_rcnn test 浮点运算量
以上总结了faster-RCNN 测试计算量总结,仅仅截取表格一部分,下载见点击打开链接卷积层浮点运算计算量公式(参考21天实战caffe)是:Caculation(conv n)=I*J*M*N*K*L其中,I,J卷积核 M,N输出通道的特征图大小, K输入通道数, L输出通道数 {KL个卷集核实现通道的转换}列如:上图绿色框里列出了第二个卷积层参数里:I=J=5;M=原创 2016-11-16 15:10:56 · 2045 阅读 · 0 评论 -
图像融合( 想起了大学专业课电磁场与电磁波)
Seamless cloning泊松克隆原文地址:http://blog.csdn.NET/hjimce/article/details/45716603作者:hjimce本篇博文主要讲解2004年Siggraph的经典paper:《Poisson Image Editing》,在图像融合领域,融合效果最牛逼的paper。讲这个算法,我没打算讲太多理论的公式,理论的东西,对于大部分转载 2016-11-24 10:25:28 · 1880 阅读 · 0 评论 -
caffe源码c++学习笔记Classifier.cpp
caffe源码c++学习笔记原文地址:http://blog.csdn.NET/hjimce/article/details/48933845作者:hjimce一、预测分类最近几天为了希望深入理解caffe,于是便开始学起了caffe函数的c++调用,caffe的函数调用例子网上很少,需要自己慢慢的摸索,即便是找到了例子,有的时候caffe版本不一样,也会出现错误。对于预测分类转载 2016-11-24 09:28:57 · 1260 阅读 · 0 评论 -
Error: libcudart.so.7.5: cannot open shared object file: No such file or directory
在ubuntu14.04-64环境下,配置完matcaffe后,yunx 如题错误;解决方法:32-bit: sudo ldconfig /usr/local/cuda/lib64-bit: sudo ldconfig /usr/local/cuda/lib64zhu:ldconfig命令的用途,主要是在默认搜寻目录(/lib和/usr/lib)以及原创 2016-09-24 20:42:29 · 7230 阅读 · 1 评论 -
softmax损失函数
cnn进行前向传播阶段,依次调用每个Layer的Forward函数,得到逐层的输出,最后一层与目标函数比较得到损失函数,计算误差更新值,通过反向传播逐层到达第一层,所有权值在反向传播结束时一起更新。loss layer 是CNN的终点,接受两个Blob作为输入,其中一个是CNN的预测值,另一个是真实标签。损失层则将这两个输入进行一系列运算,得到当前网络的损失函数(Loss Function),原创 2017-02-09 17:18:01 · 30573 阅读 · 0 评论 -
卷积
作家马德说:原创 2016-11-13 17:46:37 · 453 阅读 · 0 评论 -
Faster RCNN解析
在介绍Faster R-CNN之前,先来介绍一些前验知识,为Faster R-CNN做铺垫。一、基于Region Proposal(候选区域)的深度学习目标检测算法Region Proposal(候选区域),就是预先找出图中目标可能出现的位置,通过利用图像中的纹理、边缘、颜色等信息,保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率(IoU,Intersection-over-转载 2016-10-23 00:44:38 · 64431 阅读 · 4 评论 -
faster训练解析!!!!
刚刚同事给我讲fasterRCNN的训练,赶紧记下来;这同事自己调试出来的这些参数,流弊!!!下载地址:http://download.csdn.net/detail/ture_dream/9678542上面太小,下载可以对应看他说:conv5后的图片512维,36*60=2160个点,这是卷积后的特征图,每个点 对应的原图是 16*16 大小的图像块,为什么?600/3原创 2017-04-11 17:27:05 · 798 阅读 · 0 评论 -
Blob进阶(一个小程序)
从今天起做一个幸福的人学caffe 敲代码我有一所房子由Blob建起Blob在内存中表示四维数组,维度由高到底为(num_,channels_,height_,width_),num:第几帧,存储数据或权值(data)和权值增量(diff) { 相当重要的两个概念}channels:颜色通道RGBheight:图像的高width:图像的宽原创 2016-11-24 15:19:54 · 2345 阅读 · 0 评论 -
Blob进阶4
从今天起做一个幸福的人学caffe 敲代码我有一所房子由Blob建起Blob在内存中表示四维数组,维度由高到底为(num_,channels_,height_,width_),num:第几帧,存储数据或权值(data)和权值增量(diff) { 相当重要的两个概念}channels:颜色通道RGBheight:图像的高width:图像的宽原创 2016-11-25 09:59:20 · 623 阅读 · 0 评论 -
SmoothL1LossLayer论文与代码的结合理解
A Loss Function for Learning Region Proposals 训练RPN时,只对两种anchor给予正标签:和gt_box有着最高的IoU && IoU超过0.7。如果对于所有的gt_box,其IoU都小于0.3,则标记为负。损失函数定义如下: 其中i为一个mini-batch中某anchor的索引,pi表示其为目标的预测概率,pi*表示gt转载 2017-02-10 19:27:28 · 4260 阅读 · 0 评论 -
Caffe 源码(九):euclidean_loss_layer 分析
目录目录简单介绍主要函数Reshape 函数Forward_cpu 函数Backward_cpu 函数简单介绍Euclidean loss layer 计算两个输入的差的平方和:12N∑Ni=1||x1i−x2i||22主要函数1.Reshape 函数:template void EuclideanLossLayer::Reshape( c转载 2017-02-10 13:55:56 · 1259 阅读 · 0 评论 -
caffe大厦的砖头Blob
caffe的万丈高楼(net)是我们按照设计的图纸(prototxt),用Blob这些砖块筑成的一层层(layer)楼房,最后通过进行简装修(train),精装修(finetune)实现。 深度神经网络是一种模块化的模型,它由一系列作用在数据块之上的内部连接层组合而成。 Caffe 基于自己的模型架构,通过逐层定义(layer-by-layer)的方式定义一个网络(Nets)。网络从数据原创 2016-11-23 15:14:17 · 611 阅读 · 0 评论 -
一张图读懂caffe架构
解释两个部分:一:预处理图像的leveldb构建 输入:一批图像和label (2和3) 输出:leveldb (4) 指令里包含如下信息:conver_imageset (构建leveldb的可运行程序)train/ (此目录放处理的jpg或者其他格式的图像)label.txt (图像文件名及其label信息)输出的leveldb文件夹的名字CPU/GPU (指定是在原创 2016-11-23 14:28:02 · 6221 阅读 · 0 评论 -
一张图理解Faster—RCNN测试流程
请教同学Faster—RCNN测试流程,他让我看一个Faster—RCNN模型文件(自己找哈):看了后,自己画了一张图:注:conv:卷积 relu:(rectified linear units)激活函数 fc:全连接 RPN:region proposal network cls原创 2016-10-19 17:22:51 · 8424 阅读 · 2 评论 -
LeNet模型简介
用点击打开链接画出上面的结构图,如上图,联系prototxt可以清晰看到Lenet的网络结构 。数据源Mnist负责从预处理得到的lmdb数据库里读取图像数据data和标签数据label,图像数据送入后续CNN结构中进行处理。CNN结构包含卷积层conv(1,2)+下采样层pool(1,2)交替形成的特征层,以及全连接层ip1和ip2(类似于多层感知机结构)。对ip2的输出进一步同原创 2016-11-16 12:28:24 · 2895 阅读 · 0 评论 -
MNIST 模型测试
:~/Documents/caffe-master$ ./build/tools/caffe.bin test -model examples/mnist/lenet_train_test.prototxt -weights examples/mnist/lenet_iter_10000.caffemodel -iterations 100I1116原创 2016-11-16 10:50:20 · 1270 阅读 · 0 评论 -
论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection
尊重原创,转载请注明:http://blog.csdn.net/tangwei2014这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。虽然目前版本还有一些硬伤,但是解决了目前基于DL检测中一个大痛点,就是速度问题。 其增强版本GPU中能跑45fps,简化版本155fps。转载 2016-11-12 10:20:01 · 724 阅读 · 0 评论 -
caffe training instruction for image classification
学习笔记3 用自己的数据训练和测试“CaffeNet” 2014.7.22 薛开宇(点击打开链接) he http://blog.csdn.net/u012746763/article/details/50389898xuexi xunlian :find train/cat *.jpeg |cut -d '/' -f2-3 > train.txt原创 2016-11-11 14:32:02 · 375 阅读 · 0 评论 -
Fast RCNN详解
Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。同样使用最大规模转载 2016-11-10 10:47:00 · 1216 阅读 · 0 评论 -
faster-RCNN 论文笔记
faster-RCNN 是一个单一联合检测网络,由两个特征共享的模型构成:1:深度全卷积网络(生成proposal区域) 2:FastRCNN检测器(使用proposal)文章说,目前最先进的目标检测网络region proposal 算法生成假的目标定位,领先的如空间金字塔池层,和FastRCNN,在减少这些检测网络运行时间的同时,也暴露了region proposal 计算的原创 2016-10-18 16:05:21 · 957 阅读 · 0 评论 -
caffe例子mnist
为了程序的简洁,在caffe中是不带练习数据的,因此需要自己去下载。但在caffe根目录下的data文件夹里,作者已经为我们编写好了下载数据的脚本文件,我们只需要联网,运行这些脚本文件就行了。注意:在caffe中运行所有程序,都必须在根目录下进行,否则会出错1、mnist实例mnist是一个手写数字库,由DL大牛Yan LeCun进行维护。mnist最初用于支票上的手写数字识别, 现在原创 2016-11-02 14:37:56 · 859 阅读 · 3 评论 -
一张图理清CNN脉络 RCNN SPP FASTRCNN FASTERRCNN 到 MSCNN
RCNN :1: object proposal machanism原创 2016-10-08 19:23:26 · 4248 阅读 · 3 评论 -
R-CNN系列文章
R-CNN学习 1、简介 R-CNN是深度学习在目标检测任务上的应用,其中R对应于“Region(区域)”。整体框架与传统方法相似。 本文两个关键点是:1、使用候选窗口,并用CNN对其进行特征提取;2、样本缺乏时,使用大量辅助样本预先训练,再用自己样本进行微调。 整体框架大致为:生成候选窗口(Sele转载 2016-10-09 09:54:37 · 12351 阅读 · 4 评论 -
图像识别中的深度学习
pao原创 2016-10-07 23:20:29 · 4712 阅读 · 0 评论 -
目标检测——从RCNN到Faster RCNN 串烧
本人小硕一枚,方向是深度学习的目标检测,故想把从RCNN到Faster RCNN整个线串一下,理清里面的整个设计流程和创新思路,也算是对大神的创新思维进行学习。我会不定期改善博客里面可能存在的小错误,希望大家多多谅解支持啦。另外,在论文中已经讲到的点,如果不是特别重要的话,我不会再复述的啦,所以说各位看官先研读研读论文先,然后再看看我对这些论文的理解。对了,涉及到哪层是几乘几以及那层到底是多少这种转载 2016-11-05 17:21:14 · 968 阅读 · 0 评论 -
卷积神经网络入门
一、前言这篇卷积神经网络是前面介绍的多层神经网络的进一步深入,它将深度学习的思想引入到了神经网络当中,通过卷积运算来由浅入深的提取图像的不同层次的特征,而利用神经网络的训练过程让整个网络自动调节卷积核的参数,从而无监督的产生了最适合的分类特征。这个概括可能有点抽象,我尽量在下面描述细致一些,但如果要更深入了解整个过程的原理,需要去了解DeepLearning。这篇文章会涉及到卷积的原理与图转载 2016-11-02 10:28:00 · 4816 阅读 · 0 评论 -
分享我的书签
分享一些我常用的链接在线学习coursera :最大在线公开课网站,可还有作业可做,不拿证书基本都是免费的。udacity:有不少好课程。慕课网:前端的课程比较多。leetcode:刷完leetcode150题目,找工作笔试面试题算法题基本无压力。实验楼:适合初学编程语言,边看边实验。Hackerrank:也是在线oj,但有一些机器学习类的题目,很不错。kaggle:机器学转载 2016-11-02 10:43:21 · 442 阅读 · 0 评论 -
一张图理解卷积神经网络卷积层和感受野
局部关联:每个像素点和她周边的点广联大(图像连续)形象地说,左边是32*32*3的图像,我们让五个小朋友分别看,右边的12345小盆友分别关注图像的颜色,轮廓,纹理等等信息。五个小朋友对应五个神经元,也叫filter,每个小盆友视野有限,每次只看一小块,慢慢滑动直到看完,那么左图中的小块叫感受野(receptive field)。每个小朋友看完一张图得到一张图,五个人得出五张,即d原创 2016-11-20 15:16:13 · 15139 阅读 · 4 评论 -
关于绝对路径和相对路径(啥啥未定义或者找不到神码目录)
以前跑通的代码总是报错:啥啥未定义或者找不到神码目录原创 2016-11-23 13:21:26 · 718 阅读 · 0 评论 -
Faster-RCNN+ZF用自己的数据集训练模型(Python版本)
说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)Faster-RCNN源码下载地址:Matlab版本:https://github.com/ShaoqingRen/faster_rcn转载 2016-11-22 13:44:17 · 1269 阅读 · 0 评论 -
Caffe源码解析4: Data_layer
Caffe源码解析4: Data_layer转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类BaseDataLayerBasePrefetchin转载 2016-11-15 15:48:02 · 438 阅读 · 0 评论