- 博客(19)
- 问答 (1)
- 收藏
- 关注
转载 图像PCA方法
http://blog.csdn.net/lifeng_math/article/details/50014073http://blog.csdn.net/lifeng_math/article/details/49993763#旋转不变的-lbp引言PCA是Principal Component Analysis的缩写,也就是主成分分析。也是用于降维常用的一中方法。P
2016-10-31 14:25:10 4674
转载 随机梯度下降的实现细节
http://www.miaoerduo.com/deep-learning/%E5%9F%BA%E4%BA%8Ecaffe%E7%9A%84deepid2%E5%AE%9E%E7%8E%B0%EF%BC%88%E4%B8%8A%EF%BC%89.html最近看了一篇文章,详细说明了随机梯度下降中随机是在create_imagenet.sh中shuffle实现的。相关资源:
2016-10-30 20:54:29 659
转载 高斯混合模型学习
转自:http://blog.csdn.net/jojozhangju/article/details/191820131.高斯混合模型概述高斯密度函数估计是一种参数化模型。高斯混合模型(Gaussian Mixture Model, GMM)是单一高斯概率密度函数的延伸,GMM能够平滑地近似任意形状的密度分布。高斯混合模型种类有单高斯模型(Single Gaussian Mode
2016-10-28 16:35:42 557
转载 单链表逆向
转自:http://blog.csdn.net/heyabo/article/details/7610732对于单链表的逆置有两种方法可以实现:(1)利用辅助指针 基本思想:在遍历结点过程中,设置辅助指针,用于记录先前遍历的结点。这样依次编译的过程中只需修改其后继结点的next域即可。 实现代码:[cpp] v
2016-10-27 22:39:15 440
转载 小波变换基础
http://blog.csdn.net/GarfieldEr007/article/details/50151845第十二章 小波变换目录1 引言2 连续小波变换3 二进小波变换3.1 Haar变换4 离散小波变换4.1 多分辨率分析4.
2016-10-25 19:29:12 1666
转载 准确率、召回率、F1、mAP、ROC、AUC
https://yongyuan-workbench.rhcloud.com/%E4%BF%A1%E6%81%AF%E6%A3%80%E7%B4%A2ir%E7%9A%84%E8%AF%84%E4%BB%B7%E6%8C%87%E6%A0%87%E4%BB%8B%E7%BB%8D-%E5%87%86%E7%A1%AE%E7%8E%87%E3%80%81%E5%8F%AC%E5%9B%9E%E7%8
2016-10-24 15:26:31 631
转载 solverstate的使用
http://blog.csdn.net/wang4959520/article/details/51831637我们在使用caffe训练过程中会生成.caffemodel和.solverstate文件,一个是模型文件,一个是中间状态文件(生成多少个取决于你自己设定的snapshot)。当训练过程中断,你想继续运行数据学习,此时只需要调用.solverstate文件即可。使用方式代
2016-10-24 11:23:03 2071
原创 Caffe训练时出现了无数个"Train net output #....."
尝试一种基于concatenation的网络结构,结果错把concatenation没接到下一步,训练时出现了无数个"Train net output #.....".改了网络结构,同时又将原数据集合扩大到了六倍,结果发现迭代速度从4s降到了36s,尝试着将数据集缩小到六分之一,但速度只提高到33s,结论是影响迭代速度的主要因素还是网络结构复杂度。而且网络结构变复杂之后,即使batch很小
2016-10-22 22:23:51 3613
转载 Batch_size问题
有关solver.prototxt中的各项解释:http://www.cnblogs.com/denny402/p/5074049.htmlsolver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为# caffe train --solver=*_slover.prototxt在Deep
2016-10-22 12:02:55 5696
转载 Fine-tunning适用情况
https://www.quora.com/How-do-I-fine-tune-a-Caffe-pre-trained-model-to-do-image-classification-on-my-own-dataset基本概念及举例:Deep Net or CNN like alexnet, Vggnet or googlenet are trained to classify
2016-10-22 11:22:33 689
转载 Caffe 在自己的数据库上训练步骤
回忆ImageNet的步骤:http://caffe.berkeleyvision.org/gathered/examples/imagenet.htmlBrewing ImageNetThis guide is meant to get you ready to train your own model on your own data. If you just want an
2016-10-15 20:58:38 2472
转载 输入两个整数 n 和 m ,从数列 1 , 2 , 3.......n 中随意取几个数 ,使其和等于 m
转载自:http://blog.sina.com.cn/s/blog_7571423b01016707.html编程求解:输入两个整数 n 和 m ,从数列 1 , 2 , 3.......n 中随意取几个数 ,使其和等于 m , 要求将其中所有的可能组合列出来.分析: 主要思想:分治,即m=idx+m-idx 从最大数字n开始查找,然后逐渐后退
2016-10-12 08:42:50 607
转载 Ubuntu下用eclipse调试caffe code
本文地址:http://blog.csdn.net/mounty_fsc/article/details/510898641 运行范例脚本train_lenet.shUbuntu下终端行执行train_lenet.sh可训练lenet-5(详细情况参考其他教程),能直观地看到lenet训练起来带情况。 train_lenet.sh中内容为:./build/too
2016-10-11 17:09:15 1459
转载 Caffe自己修改训练方法
作者:Gein Chen链接:https://www.zhihu.com/question/27982282/answer/802420051.学习程序的第一步,先让程序跑起来,看看结果,这样就会有直观的感受。Caffe的官网上Caffe | Deep Learning Framework 提供了很多的examples,你可以很容易地开始训练一些已有的经典模型,如LeNet。我建议
2016-10-10 17:36:10 1670
转载 Caffe阅读代码并修改
这个教程是最好理解的了http://city.shaform.com/blog/2016/02/26/caffe.html主要分成四個部份來講。首先是整個 Caffe 的大架構,以及一些重要的元件。 其次,我也研究了如何自己新增一個 layer。 接下來,再重新回到 Caffe 做更深入的解析。架構那麼,就從大架構開始講起。 Caffe 的 command li
2016-10-10 17:31:26 2551 1
转载 Caffe 增加自定义 Layer 及其 ProtoBuffer 参数
转载自:http://blog.csdn.net/kkk584520/article/details/52721838博客内容基于新书《深度学习:21 天实战 Caffe》,书中课后习题答案欢迎读者留言讨论。以下进入正文。在使用 Caffe 过程中经常会有这样的需求:已有 Layer 不符合我的应用场景;我需要这样这样的功能,原版代码没有实现;或者已经实现但效率太低,我
2016-10-09 21:19:11 717
转载 微软100题第20题
http://blog.csdn.net/zwb8848happy/article/details/7340634输入一个表示整数的字符串,把该字符串转换成整数并输出//Analysis: //1. Whether it is a negative number //2. Whether there exist other characters that do not repr
2016-10-06 08:33:00 195
转载 判别学习与生成学习的区别
参照http://blog.csdn.net/daijiguo/article/details/52218207比如二类分类问题,不管是感知器算法还是逻辑斯蒂回归算法,都是在解空间中寻找一条直线从而把两种类别的样例分开,对于新的样例只要判断在直线的哪一侧即可;这种直接对问 题求解的方法可以成为判别学习方法(discriminative learning algorithm)。而生成
2016-10-02 10:26:34 742
空空如也
Ubuntu登录界面无限循环且不能进入指令行模式
2016-09-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人