caffe
文章平均质量分 62
linyigreat
algorithm is king,data is queen!
展开
-
视觉层(Vision Layers)及参数_caffe
视觉层(Vision Layers)及参数_caffe 转自:denny402 http://www.cnblogs.com/denny402/p/5071126.html 本文只讲解视觉层(Vision Layers)的参数,视觉层包括Convolution, Pooling, Local Response Normalization (LRN), im2col等层。 1转载 2018-01-11 10:29:58 · 203 阅读 · 0 评论 -
绘制loss和accuracy曲线_caffe
转自:denny402 http://www.cnblogs.com/denny402/p/5686067.html 绘制loss和accuracy曲线_caffe 使用python接口来运行caffe程序,主要的原因是python非常容易可视化。所以不推荐大家在命令行下面运行python程序。如果非要在命令行下面运行,还不如直接用 c++算了。 推荐使用jupyter n转载 2018-01-11 10:05:10 · 736 阅读 · 0 评论 -
激活层(Activiation Layers)及参数_caffe
激活层(Activiation Layers)及参数 转自:denny402 http://www.cnblogs.com/denny402/p/5072507.html 在激活层中,对输入数据进行激活操作(实际上就是一种函数变换),是逐元素进行运算的。从bottom得到一个blob数据输入,运算后,从top输入一个blob数据。在运算过程中,没有改变数据的大小,即输入和输出的转载 2018-01-11 10:42:37 · 975 阅读 · 0 评论 -
其它常用层及参数_caffe
其它常用层及参数_caffe 转自:denny402 http://www.cnblogs.com/denny402/p/5072746.html 本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置。 1、softmax-loss softmax-los转载 2018-01-11 10:54:20 · 182 阅读 · 0 评论 -
Blob,Layer and Net以及对应配置文件的编写_caffe
Blob,Layer and Net以及对应配置文件的编写_caffe 转自:denny402 http://www.cnblogs.com/denny402/p/5073427.html 深度网络(net)是一个组合模型,它由许多相互连接的层(layers)组合而成。Caffe就是组建深度网络的这样一种工具,它按照一定的策略,一层一层的搭建出自己的模型。它将转载 2018-01-11 11:08:00 · 197 阅读 · 0 评论 -
solver优化方法_caffe
solver优化方法_caffe 转自:denny402 http://www.cnblogs.com/denny402/p/5074212.html 到目前为止,caffe总共提供了六种优化方法: Stochastic Gradient Descent (type: "SGD"),AdaDelta (type: "AdaDelta"),Adaptive Gradient转载 2018-01-11 11:19:35 · 237 阅读 · 0 评论 -
SSD训练:*** Aborted at 1457505270 (unix time) try "date -d @1457505270" if you are using GNU date ***
在SSD训练时抛出错误:*** Aborted at 1457505270 (unix time) try "date -d @1457505270" if you are using GNU date ***,本质是由于shuffle的使用,其中一种情况是:之前利用样本文件列表(txt)生成过lmdb文件夹(运行:./data/mydata/create_data_mydata.sh),而样本文原创 2018-01-30 11:11:03 · 3744 阅读 · 1 评论