CAFFE
文章平均质量分 59
小胖蹄儿
这个作者很懒,什么都没留下…
展开
-
caffe教程翻译:Alex’s CIFAR-10 tutorial, Caffe style
原文地址:http://caffe.berkeleyvision.org/gathered/examples/cifar10.html 本文假设caffe安装在根目录CAFFE_ROOT下数据准备首先需要从CIFAR-10 websit网站上下载并转换数据格式。运行一下代码:cd $CAFFE_ROOT./data/cifar10/get_cifar10.sh./examples/cifar1翻译 2016-04-14 10:46:53 · 874 阅读 · 0 评论 -
以LeNet为例分析CNN中的参数量
CNN最重要的两点:局部连接和权值共享 局部连接:神经元和上层部分神经元相连接 权值共享:基于局部连接,在每个神经元和上层部分神经元之间权值是共享的,也就是说对于一个神经元,和它相连的所有上层神经元之间的权值都是一致的,这样可以大大减少参数量。对于在feature_map中的理解:对于一个feature_map只需要训练一种kernel。首先,对于LeNet整体上介绍一下:...原创 2017-12-15 18:20:43 · 2063 阅读 · 1 评论 -
Caffe 训练时loss等于87.3365且保持不变的原因及解决方法
如题,在caffe训练时,遇到这个特殊的数字之后,loss会一直就是这个数字。 网上虽然有很多针对这个问题调参的trick,但少有详细的分析,因此,有必要研究一下caffe的源代码。 softmax的公式为 pk=exp(xk)∑iexp(xi)pk=exp(xk)∑iexp(xi)p_k= \frac{exp(x_k)}{\sum_{i}exp(x_i)} 其中x为softmax前...转载 2018-03-16 15:10:51 · 2711 阅读 · 0 评论 -
caffe使用过程中遇到的一些问题错误
报错:Segmentation fault (core dumped) 错误原因….简单的要命… 网络文件中的dataset名字打错….原创 2017-03-10 17:24:28 · 1180 阅读 · 1 评论 -
caffe中solver.prototxt文件参数解释
在训练或者微调网络时我们需要设置一些参数,在caffe中这些参数保存在sovler.prototxt文件中(当然这只是一个文件名,你也可以随意换成其他的名称)。在下面的代码中以注释的形式解释每一个参数的意义。net: "train.prototxt" #需要训练的网络名称test_iter: 100 #测试时的迭代次数test_interval: 500 #每迭代500次测试一次网络#注意,t原创 2016-05-28 09:51:52 · 1562 阅读 · 0 评论 -
将自己数据集转化为lmdb格式
在caffe-master_github/examples/imagenet/路径下有convert_imagenet.sh文件,使用时有以下注意事项(注意点写在了代码注释里):#!/usr/bin/env sh# Create the imagenet lmdb inputs# N.B. set the path to the imagenet train + val data dirsEXA原创 2017-03-10 20:54:08 · 2919 阅读 · 0 评论 -
Caffe抽取图像特征
根据caffe官网上的教程进行了一次模拟的特征抽取,数据集只有caffe-master_github/images/文件下的三张图片。 1.在caffe根目录下运行命令:python scripts/download_model_binary.py models/bvlc_reference_caffenet成功会显示: 2.创建临时文件夹,用于存放所需要的临时文件mkdir examples/原创 2016-09-25 21:29:43 · 2528 阅读 · 2 评论 -
Caffe常用层参数介绍
DATAlayers { name: "data" type: DATA top: "data" top: "label" data_param { source: "../data/ImageNet/imagenet-train" #数据存放位置 batch_size: 128 #一次批处理的大小,视内存大小而定。四维数组N*C*H*W中的N backe原创 2016-07-25 16:50:44 · 5449 阅读 · 0 评论 -
caffe教程翻译:在caffe上训练与测试数据
本文为caffe官网上ImageNet教程翻译,地址:http://caffe.berkeleyvision.org/gathered/examples/imagenet.html本教程旨在教我们用自己的数据训练模型。caffe官网的model zoo里已经提供了训练好的模型。数据准备本教程假定所有的命令都在caffe根目录下执行。 这里提到的”ImageNet”是指ILSVRC2012挑战赛中的翻译 2016-03-27 22:02:46 · 3887 阅读 · 2 评论 -
caffe源码分析:blob.hpp分析
文件路径:caffe-master_github/include/caffe/ 如果想对blob有详细了解,参考Caffe官网教程:http://caffe.berkeleyvision.org/tutorial/net_layer_blob.html以下摘自互联网: Blob作为Caffe的四大模块之一,负责完成CPU/GPU存储申请、同步和数据持久化映射。Caffe内部数据存储和通讯都是通过原创 2016-03-28 09:16:02 · 1187 阅读 · 0 评论 -
caffe教程翻译:Loss
Loss(损失)与绝大多数的机器学习引擎一样,Caffe是由一个loss function(损失函数)驱动的。loss function也称为 error function,cost function或者objective function。loss function利用模型中的参数(比如模型中网络的weights-权重参数)运算得出一个(标量)结果,这个结果表明参数设置的badness,通过最小化转载 2016-03-28 15:00:32 · 797 阅读 · 0 评论 -
caffe源码分析:layer.hpp分析
文件路径:caffe-master_github/include/caffe/Backward函数:template <typename Dtype>inline void Layer<Dtype>::Backward(const vector<Blob<Dtype>*>& top, const vector<bool>& propagate_down, const vector<原创 2016-03-27 20:54:10 · 1325 阅读 · 0 评论 -
caffe源码分析:softmax_layer.cpp && softmax_loss_layer.cpp
本文仅分析了softmax_layer.cpp 和 softmax_loss_layer.cpp两个文件中的forward函数,backward函数有待补充。1、softmax_layer.cppsoftmax function设有m个已标记样本,σ(z)=(σ1(z),σ2(z),...,σm(z))\sigma\mathit(z)=(\sigma_1(\mathit{z}),\sigma_2(\原创 2016-04-11 15:53:59 · 2383 阅读 · 0 评论 -
在caffe上fine-tuning网络
关于fine-tuning的几个小问题:1、fine-tuning是什么意思 答:所谓fine-tuning就是微调的意思,也就是在一个已经有了不错的performance的网络基础上,针对自己的任务微小的调整网络中的参数。 2、为何要fine-tuning 答:因为我们做的方向经常是一些特定领域的识别分类任务,比如人脸,车辆,植物等等,而像ImageNet这样上千万级的数据库,我们是不会用到原创 2017-08-11 20:39:51 · 652 阅读 · 0 评论