![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
卷积神经
文章平均质量分 60
778811
这个作者很懒,什么都没留下…
展开
-
卷积神经网络CNN入门——代码
Deep Learning论文笔记之(五)CNN卷积神经网络代码理解zouxy09@qq.comhttp://blog.csdn.net/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一转载 2016-07-27 14:27:37 · 7812 阅读 · 1 评论 -
CNN基本问题
转自:http://blog.csdn.net/hungryof/article/details/50241351基本理解CNN降低训练参数的2大法宝?局部感受野、权值共享 局部感受野:就是输出图像某个节点(像素点)的响应所对应的最初的输入图像的区域就是感受野。 权值共享:比如步长为1,如果每移动一个像素就有一个新的权值对应,那么太夸张了,需要训练的参数爆炸似增长,转载 2016-08-04 22:15:15 · 1209 阅读 · 0 评论 -
.caffemodel的生成和利用
1)调用solver.prototxt生成.caffemodel和.solverstate caffe中的bin文件夹里有caffe.exe,在上级目录中创建.bat文件,添加内容并保存运行: ./bin/caffe.exe train --solver=examples/cifar10/cifar10_quick_solver.prototxtpause转载 2016-08-05 11:21:18 · 9475 阅读 · 5 评论 -
solver.prototxt解析
*_slover.prototxtnet: "test.prototxt"#训练网络的配置文件test_iter: 100#test_iter 指明在测试阶段有多上个前向过程(也就是有多少图片)被执行。在MNIST例子里,在网络配置文件里已经设置test网络的batch size=100,这里test_iter设置为100,那在测试阶段共有100*100=10000 图转载 2016-08-06 12:35:29 · 1244 阅读 · 0 评论 -
caffe中的损失函数
损失函数,一般由两项组成,一项是loss term,另外一项是regularization term。J=L+R先说损失项loss,再说regularization项。1. 分对得分1,分错得分0.gold standard2. hinge loss(for softmargin svm),J=1/2||w||^2 + sum(max(0,1-yf(w,x)))转载 2016-08-06 19:16:32 · 3942 阅读 · 0 评论