caffe
文章平均质量分 50
后脑勺
这个作者很懒,什么都没留下…
展开
-
going deeper with convolutions (Googlenet网络解读)
http://www.gageet.com/2014/09203.php这个网址已都经把文章翻译好了,这里主要是说两点:1.Googlenet借鉴了network in network里的多层感知器结构,也就是convolution层的 kernel_size=1,它的好处主要是体现在以下两方面:a.降维,解决计算瓶颈;b.提高神经网络的表达能力(多层感知器)。2.Googlene原创 2016-05-10 20:14:19 · 2638 阅读 · 0 评论 -
Alexnet LRN dropout
在机器学习中,我们通常要考虑的一个问题是如何的“以偏概全”,也就是以有限的样本或者结构去尽可能的逼近全局的分布。这就要在样本以及结构模型上下一些工夫。在一般的训练任务中,考虑的关键问题之一就是数据分布是否合理:首先是数据集的覆盖度,也就是数据集是否能够覆盖样本空间;其次还要尽可能的保证具有和真实数据一样的分布(注意数据分布是未知的,你只能根据一些先验来近似),这样的数据才是有效的。当然这些转载 2016-09-24 09:34:37 · 3133 阅读 · 0 评论 -
Caffe提取任意层特征并进行可视化
现在Caffe的Matlab接口 (matcaffe3) 和python接口都非常强大, 可以直接提取任意层的feature map以及parameters, 所以本文仅仅作为参考, 更多最新的信息请参考:http://caffe.berkeleyvision.org/tutorial/interfaces.html 原图 conv1层可视转载 2016-07-21 14:37:49 · 7157 阅读 · 1 评论 -
Caffe源码:io.cpp 分析
目录目录简单介绍主要函数ReadProtoFromTextFile 函数WriteProtoToTextFile 函数ReadProtoFromBinaryFile 函数WriteProtoToBinaryFile 函数ReadImageToCVMat 函数matchExt 函数CVMatToDatum 函数ReadFileToDatum 函数ReadImage转载 2016-07-19 21:53:53 · 1581 阅读 · 2 评论 -
Dropout浅层理解与实现
Dropout浅层理解与实现原文地址:http://blog.csdn.net/hjimce/article/details/50413257作者:hjimce一、相关工作 本来今天是要搞《Maxout Networks》和《Network In Network》的,结果发现maxout和dropout有点类似,所以就对dropout做一下相关的总结,了解一下转载 2016-07-18 17:07:55 · 10725 阅读 · 0 评论 -
Caffe train 卡在 loading mean file from :不动
问题不是出在 binary mean file 上。遇到此问题,请检查你是否使用了 train_lmdb 同时作为train和test。内存写操作必须在同步情况下进行,train拥有了这个内存块的控制权,那么test自然只能等待,最终造成死锁。本文来自http://blog.csdn.net/sunyiyou9/article/detai转载 2016-07-13 17:22:13 · 1028 阅读 · 0 评论 -
CNN 中, 1X1卷积核到底有什么作用呢?
http://www.caffecn.cn/?/question/136 摘抄于这里从NIN 到Googlenet mrsa net 都是用了这个,为什么呢发现很多网络使用了1X1卷积核,这能起到什么作用呢?另外我一直觉得,1X1卷积核就是对输入的一个比例缩放,因为1X1卷积核只有一个参数,这个核在输入上滑动,就相当于给输入数据乘以一个系数。不知道我理解的是否正确。我来说说转载 2016-06-27 14:38:20 · 2288 阅读 · 0 评论 -
Caffe中卷基层和全连接层训练参数个数如何确定
今天来仔细讲一下卷基层和全连接层训练参数个数如何确定的问题。我们以Mnist为例,首先贴出网络配置文件:[python] view plain copy name: "LeNet" layer { name: "mnist" type: "Data" top: "data" top: "label" data_param {转载 2016-05-23 10:25:16 · 15456 阅读 · 0 评论 -
caffe——net.cpp——init()
caffe,net.cpp原创 2016-05-09 18:32:30 · 3609 阅读 · 0 评论 -
caffe accuracy_layer.cpp 解读
特别声明,这篇是我自己看的,有很多观点我自己都拿不准,要是不对,一定要跟我说下,我好改,咱互相学习。 直接看代码啊accuracy_layer.cpp用的是lenet5网络 batch_size=100;类=10template <typename Dtype>void AccuracyLayer<Dtype>::Forward_cpu(const vector<Blob<Dtype>*>&原创 2016-05-13 16:16:25 · 6767 阅读 · 7 评论 -
caffe 卷积神经网络源码一些模糊点整理
最近在看caffe,本着 我啥也不会,别人啥都会的精神,虚心的看了好多博客,现对一些迷糊的点做一个总结,万一你也迷糊呢,是吧~主要参考:http://blog.csdn.net/mounty_fsc/article/details/510856541 blobblob类里面的 data_,diff_,count_,capacity_啥意思大家都懂,主要不懂的是它的shape_;转载 2016-05-13 15:36:14 · 1577 阅读 · 0 评论 -
caffe softmax_loss_layer 对于梯度下降的理解
咱先讲下梯度下降,然后对应caffe里的代码。 还是老样子,贴一个网址,人家讲softmax讲的挺好的。 http://www.bubuko.com/infodetail-601263.html 总的来说,梯度下降主要分为一下几部分: 1.先求假设函数; 2.再求代价函数,又叫损失函数; 3.对代价函数求导,最小化; 4.更新,这就是梯度下降的公式,(斯坦福公开课里形象的解释了:站在小原创 2016-05-11 16:24:58 · 5170 阅读 · 0 评论 -
caffe 所具有的层结构,都有那些层1
caffe更新后,又新加了一些层,有时候想写一个网络,但是,如果你连caffe一共都有哪些层都不清楚,也不大合 适,对吧,向咱们这种低水平的小盆友,添加新层太麻烦,水平不到,所以只能把当下的层结构弄清楚了~原创 2016-05-11 10:55:04 · 2323 阅读 · 0 评论 -
caffe:solver.cpp——init()
caffe——solver.cpp——init()原创 2016-05-05 18:40:58 · 1642 阅读 · 0 评论