自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 资源 (2)
  • 收藏
  • 关注

转载 Caffe中卷基层和全连接层训练参数个数如何确定

今天来仔细讲一下卷基层和全连接层训练参数个数如何确定的问题。我们以Mnist为例,首先贴出网络配置文件:[python] view plain copy name: "LeNet"  layer {    name: "mnist"    type: "Data"    top: "data"    top: "label"    data_param {     

2016-05-23 10:25:16 15431

转载 c语言中出现左操作数必须是左值(摘抄)

http://blog.163.com/zhangjun516@126/blog/static/164345335201282894854960/在做c语言联系的时候,总是会出现左操作数必须是左值,左值就是在赋值中可以放在赋值操作符两边的值,比如: int a = 1; double b = 2.0 a = b; b = a; 这里a和b都是左值,一切变量都是左值,

2016-05-20 19:26:53 19886

原创 caffe accuracy_layer.cpp 解读

特别声明,这篇是我自己看的,有很多观点我自己都拿不准,要是不对,一定要跟我说下,我好改,咱互相学习。 直接看代码啊accuracy_layer.cpp用的是lenet5网络 batch_size=100;类=10template <typename Dtype>void AccuracyLayer<Dtype>::Forward_cpu(const vector<Blob<Dtype>*>&

2016-05-13 16:16:25 6734 7

转载 caffe 卷积神经网络源码一些模糊点整理

最近在看caffe,本着 我啥也不会,别人啥都会的精神,虚心的看了好多博客,现对一些迷糊的点做一个总结,万一你也迷糊呢,是吧~主要参考:http://blog.csdn.net/mounty_fsc/article/details/510856541 blobblob类里面的 data_,diff_,count_,capacity_啥意思大家都懂,主要不懂的是它的shape_;

2016-05-13 15:36:14 1564

转载 Convolutional Neural Networks at Constrained Time Cost

本文是MSRA的何恺明在14年写的论文,通过一系列的替换实验,探讨了在限定复杂度和时间上,如何设计卷积网络结构,使得网络的性能最好。本文提出的CNN结构,在单个GPU上训练3到4天,在简单的10-view测试下获得了top-5 11.8%的准确率;做到了不仅快而且准确。摘要:本文主要结论,1在提升准确度上深度比宽度和filter尺寸更重要;2,尽管深度很重要,如果深度随意增加分类结果会停滞,甚

2016-05-12 18:37:58 618

原创 caffe softmax_loss_layer 对于梯度下降的理解

咱先讲下梯度下降,然后对应caffe里的代码。 还是老样子,贴一个网址,人家讲softmax讲的挺好的。 http://www.bubuko.com/infodetail-601263.html 总的来说,梯度下降主要分为一下几部分: 1.先求假设函数; 2.再求代价函数,又叫损失函数; 3.对代价函数求导,最小化; 4.更新,这就是梯度下降的公式,(斯坦福公开课里形象的解释了:站在小

2016-05-11 16:24:58 5149

原创 caffe 所具有的层结构,都有那些层1

caffe更新后,又新加了一些层,有时候想写一个网络,但是,如果你连caffe一共都有哪些层都不清楚,也不大合 适,对吧,向咱们这种低水平的小盆友,添加新层太麻烦,水平不到,所以只能把当下的层结构弄清楚了~

2016-05-11 10:55:04 2306

原创 going deeper with convolutions (Googlenet网络解读)

http://www.gageet.com/2014/09203.php这个网址已都经把文章翻译好了,这里主要是说两点:1.Googlenet借鉴了network in network里的多层感知器结构,也就是convolution层的 kernel_size=1,它的好处主要是体现在以下两方面:a.降维,解决计算瓶颈;b.提高神经网络的表达能力(多层感知器)。2.Googlene

2016-05-10 20:14:19 2619

原创 caffe——net.cpp——init()

caffe,net.cpp

2016-05-09 18:32:30 3593

原创 caffe:solver.cpp——init()

caffe——solver.cpp——init()

2016-05-05 18:40:58 1626

lena512.bmp

2016-10-12

Visual_Assis VS2013和2012 都可用

Visual_Assis VS2013和2012 都可用 安装就可以用 甚至不用破解!!! 如果不行 就破解一下 超实用!

2014-12-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除