自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 问答 (1)
  • 收藏
  • 关注

转载 图像PCA方法

http://blog.csdn.net/lifeng_math/article/details/50014073http://blog.csdn.net/lifeng_math/article/details/49993763#旋转不变的-lbp引言PCA是Principal Component Analysis的缩写,也就是主成分分析。也是用于降维常用的一中方法。P

2016-10-31 14:25:10 4674

转载 随机梯度下降的实现细节

http://www.miaoerduo.com/deep-learning/%E5%9F%BA%E4%BA%8Ecaffe%E7%9A%84deepid2%E5%AE%9E%E7%8E%B0%EF%BC%88%E4%B8%8A%EF%BC%89.html最近看了一篇文章,详细说明了随机梯度下降中随机是在create_imagenet.sh中shuffle实现的。相关资源:

2016-10-30 20:54:29 659

转载 高斯混合模型学习

转自:http://blog.csdn.net/jojozhangju/article/details/191820131.高斯混合模型概述高斯密度函数估计是一种参数化模型。高斯混合模型(Gaussian Mixture Model, GMM)是单一高斯概率密度函数的延伸,GMM能够平滑地近似任意形状的密度分布。高斯混合模型种类有单高斯模型(Single Gaussian Mode

2016-10-28 16:35:42 557

转载 单链表逆向

转自:http://blog.csdn.net/heyabo/article/details/7610732对于单链表的逆置有两种方法可以实现:(1)利用辅助指针         基本思想:在遍历结点过程中,设置辅助指针,用于记录先前遍历的结点。这样依次编译的过程中只需修改其后继结点的next域即可。         实现代码:[cpp] v

2016-10-27 22:39:15 440

转载 小波变换基础

http://blog.csdn.net/GarfieldEr007/article/details/50151845第十二章 小波变换目录1         引言2         连续小波变换3         二进小波变换3.1      Haar变换4         离散小波变换4.1      多分辨率分析4.

2016-10-25 19:29:12 1666

转载 准确率、召回率、F1、mAP、ROC、AUC

https://yongyuan-workbench.rhcloud.com/%E4%BF%A1%E6%81%AF%E6%A3%80%E7%B4%A2ir%E7%9A%84%E8%AF%84%E4%BB%B7%E6%8C%87%E6%A0%87%E4%BB%8B%E7%BB%8D-%E5%87%86%E7%A1%AE%E7%8E%87%E3%80%81%E5%8F%AC%E5%9B%9E%E7%8

2016-10-24 15:26:31 631

转载 solverstate的使用

http://blog.csdn.net/wang4959520/article/details/51831637我们在使用caffe训练过程中会生成.caffemodel和.solverstate文件,一个是模型文件,一个是中间状态文件(生成多少个取决于你自己设定的snapshot)。当训练过程中断,你想继续运行数据学习,此时只需要调用.solverstate文件即可。使用方式代

2016-10-24 11:23:03 2071

原创 Caffe训练时出现了无数个"Train net output #....."

尝试一种基于concatenation的网络结构,结果错把concatenation没接到下一步,训练时出现了无数个"Train net output #.....".改了网络结构,同时又将原数据集合扩大到了六倍,结果发现迭代速度从4s降到了36s,尝试着将数据集缩小到六分之一,但速度只提高到33s,结论是影响迭代速度的主要因素还是网络结构复杂度。而且网络结构变复杂之后,即使batch很小

2016-10-22 22:23:51 3613

原创 Linear Programming_the simplex method in tableau format

2016-10-22 15:12:21 1033

转载 Batch_size问题

有关solver.prototxt中的各项解释:http://www.cnblogs.com/denny402/p/5074049.htmlsolver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为# caffe train --solver=*_slover.prototxt在Deep

2016-10-22 12:02:55 5696

转载 Fine-tunning适用情况

https://www.quora.com/How-do-I-fine-tune-a-Caffe-pre-trained-model-to-do-image-classification-on-my-own-dataset基本概念及举例:Deep Net or CNN like alexnet, Vggnet or googlenet are trained to classify

2016-10-22 11:22:33 689

转载 Caffe 在自己的数据库上训练步骤

回忆ImageNet的步骤:http://caffe.berkeleyvision.org/gathered/examples/imagenet.htmlBrewing ImageNetThis guide is meant to get you ready to train your own model on your own data. If you just want an

2016-10-15 20:58:38 2472

转载 输入两个整数 n 和 m ,从数列 1 , 2 , 3.......n 中随意取几个数 ,使其和等于 m

转载自:http://blog.sina.com.cn/s/blog_7571423b01016707.html编程求解:输入两个整数 n 和 m ,从数列 1 , 2 , 3.......n 中随意取几个数 ,使其和等于 m , 要求将其中所有的可能组合列出来.分析:       主要思想:分治,即m=idx+m-idx       从最大数字n开始查找,然后逐渐后退

2016-10-12 08:42:50 607

转载 Ubuntu下用eclipse调试caffe code

本文地址:http://blog.csdn.net/mounty_fsc/article/details/510898641 运行范例脚本train_lenet.shUbuntu下终端行执行train_lenet.sh可训练lenet-5(详细情况参考其他教程),能直观地看到lenet训练起来带情况。 train_lenet.sh中内容为:./build/too

2016-10-11 17:09:15 1459

转载 Caffe自己修改训练方法

作者:Gein Chen链接:https://www.zhihu.com/question/27982282/answer/802420051.学习程序的第一步,先让程序跑起来,看看结果,这样就会有直观的感受。Caffe的官网上Caffe | Deep Learning Framework 提供了很多的examples,你可以很容易地开始训练一些已有的经典模型,如LeNet。我建议

2016-10-10 17:36:10 1670

转载 Caffe阅读代码并修改

这个教程是最好理解的了http://city.shaform.com/blog/2016/02/26/caffe.html主要分成四個部份來講。首先是整個 Caffe 的大架構,以及一些重要的元件。 其次,我也研究了如何自己新增一個 layer。 接下來,再重新回到 Caffe 做更深入的解析。架構那麼,就從大架構開始講起。 Caffe 的 command li

2016-10-10 17:31:26 2551 1

转载 Caffe 增加自定义 Layer 及其 ProtoBuffer 参数

转载自:http://blog.csdn.net/kkk584520/article/details/52721838博客内容基于新书《深度学习:21 天实战 Caffe》,书中课后习题答案欢迎读者留言讨论。以下进入正文。在使用 Caffe 过程中经常会有这样的需求:已有 Layer 不符合我的应用场景;我需要这样这样的功能,原版代码没有实现;或者已经实现但效率太低,我

2016-10-09 21:19:11 717

转载 微软100题第20题

http://blog.csdn.net/zwb8848happy/article/details/7340634输入一个表示整数的字符串,把该字符串转换成整数并输出//Analysis: //1. Whether it is a negative number //2. Whether there exist other characters that do not repr

2016-10-06 08:33:00 195

转载 判别学习与生成学习的区别

参照http://blog.csdn.net/daijiguo/article/details/52218207比如二类分类问题,不管是感知器算法还是逻辑斯蒂回归算法,都是在解空间中寻找一条直线从而把两种类别的样例分开,对于新的样例只要判断在直线的哪一侧即可;这种直接对问 题求解的方法可以成为判别学习方法(discriminative learning algorithm)。而生成

2016-10-02 10:26:34 742

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除