caffe笔记

Caffe各版本与源码全透析

ubuntu14.04下CPU的caffe配置

Caffe+ubuntu14.04+Cuda8.0安装





http://www.cnblogs.com/denny402/tag/caffe/

关于caffe里面image_data_layer的使用


Caffe学习系列(11):图像数据转换成db(leveldb/lmdb)文件

caffe神经网络框架的辅助工具(将图片转换为leveldb格式)

将图像转换成lmdb格式

Python lmdb

Mnist数据集创建lmdb或leveldb类型的数据

Caffe1——Mnist数据集创建lmdb或leveldb类型的数据

Caffe2——cifar10数据集创建lmdb或leveldb类型的数据

Caffe3——ImageNet数据集创建lmdb类型的数据

caffe 数据库LMDB的读写

计算图像均值

【Caffe代码解析】compute_image_mean

【Caffe代码解析】convert_imageset


制作train.txt和val.txt文件

txt和lmdb训练caffenet设置对比

计算图像均值



Caffe训练过程:test_iter test_interval等概念


关于 epoch、 iteration和batchsize


caffe层解读系列——BatchNorm


Mnist手写数字识别测试与分析

修改lenet网络进行训练

Caffe模型的结构

数据层及参数设置

数据层及参数

视觉层及参数

损失层及其参数设置

其他常用层及参数

激活函数

Blob,Layer和Net以及对应配置文件的编写


命令行解析

训练和测试自己的图片

caffe的总体流程是怎样的?

caffe层解读系列-softmax_loss

caffe层解读系列——hinge_loss

人脸识别:PairLoss


Windows下用VS2013加载caffemodel做图像分类

修改网络并训练模型

caffe基础




如何在Caffe中配置每一个层的结构

caffe学习笔记

caffe 参数介绍

solver优化方法

怎么在Caffe中配置每一个层的结构


【Caffe实践】 多目标输出探究




封装caffe-windows-master成动态链接库


如何快糙好猛地在Windows下编译CAFFE并使用其matlab和python接口

Caffe使用教程


What is 'lr_policy' in caffe?

使用caffe训练时Loss变为nan的原因

Net Surgery



Caffe中的各种loss函数适合哪些问题?

fine_tuning原理问题

Fine-tuning CaffeNet for Style Recognition on “Flickr Style” Data

假如有两个model,如何把其中一个model的某一层的权重赋给另一个model的对应层。

怎样用自己的数据集对caffe训练好的model进行fineture?


Caffe 是否支持多GPU并行训练?



caffe的proto里面的std是什么意思?怎么调?


global average pooling 与average pooling的区别是什么?


各种Pooling方法适用哪些情况?


如何通过loss曲线判断网络训练的情况

无监督逐层预训练目前是否还广泛应用于CNN的训练?

无监督学习是否被监督学习取代了?

应该怎么理解End to End 训练

caffe中image_mean的作用是什么?

出现过拟合的根本原因是什么

目前state of art 的人脸检测算法都是cnn based,如何应用于手机等嵌入式设备中?

caffe在训练过程中可以不使用validation吗?不使用有什么坏处(或者说使用validation有什么好处)?



http://blog.csdn.net/u012235274/article/category/6197462

深层学习为何要“Deep”(上)



caffe源码


如何解读Caffe源码

caffe源码解析 — caffe.proto

caffe数据格式(Google Protocol Buffers)


Caffe常用层参数介绍





Caffe源码解析2:SycedMem

caffe源码解析 — SyncedMemory.cpp


http://blog.csdn.net/seven_first/article/category/5721883

http://blog.csdn.net/seven_first/article/category/5721883




在可视化环境下进行Caffe网络设计

caffe基础(8):draw_net.py绘制网络结构



caffe示例实现之10LeNet的python接口

caffe的python接口封装原理与解析

pycaffe学习

pycaffe

caffe python layer

caffe中使用python layer

添加caffe python layer

在python中caffe示例实现之11逻辑回归及其深化



利用caffe的python接口进行训练时遇到的问题


用 caffe做图像分割实验时,loss值很诡异


caffe 练习4 ----利用python批量抽取caffe计算得到的特征------by 香蕉麦乐迪

caffe 练习3 用caffe提供的C++函数批量抽取图像特征------by 香蕉麦乐迪


训练一个全卷积网络,怎么做?

caffe调试 ubuntu1404+eclipse

(Caffe,LeNet)网络训练流程(二)


(Caffe,LeNet)反向传播(六)


利用Caffe做回归(regression)


训练可视化

caffe 画损失曲线和准确率曲线


cnn 调参经验


可视化


神经网络:caffe特征可视化的代码样例



caffe源码修改:抽取任意一张图片的特征



在caffe 中添加Crowd counting 数据层

在 caffe 中添加 FaceNet 中 Triplet Loss Layer


caffe 里面GPU 选择设置, 通过配置文件 读取GPU 的编号。


caffe adaboost


Linux下Caffe如何调试



*_train_test.prototxt,*_deploy.prototxt,*_slover.prototxt文件编写时注意事项


关于propagate_down


比如有4个全连接层A->B->C->D
    a. 你希望C层的参数不会改变,C前面的AB层的参数也不会改变,这种情况也就是D层的梯度不往前反向传播到D层的输入blob(也就是C层的输出blob 没有得到梯度),你可以通过设置D层的propagate_down为false来做到。
         propagate_down的数量与输入blob的数量相同,假如你某个层有2个输入blob,那么你应该在该layer的Param里面写上两行:
         propagate_down : 0    # 第1个输入blob不会得到反向传播的梯度
         propagate_down : 0    # 第2个输入blob不会得到反向传播的梯度
         这样的话,你这个layer的梯度就不会反向传播啦,前面的所有layer的参数也就不会改变了
    b. 你希望C层的参数不会改变,但是C前面的AB层的参数会改变,这种情况,只是固定了C层的参数,C层得到的梯度依然会反向传播给前面的B层。只需要将对应的参数blob的学习率调整为0:
你在layer里面加上param { lr_mult: 0 }就可以了,比如全连接层里面:
layer {
    type: "InnerProduct"
    param { # 对应第1个参数blob的配置,也就是全连接层的参数矩阵的配置
         lr_mult: 0 # 学习率为0,其他参数可以看caffe.proto里面的ParamSpec这个类型
    }
    param { # 对应第2个参数blob的配置,也就是全连接层的偏置项的配置
        lr_mult: 0 # 学习率为0
    }
}



caffe关闭日志输出消息

可能对于算法实验阶段来说,我们需要caffe运行网络的时候,打印网络的相关参数消息。然而对于已经走向工程之路的caffe模型来说,我们有可能需要屏蔽那些没用的输出消息,因此这个时候就需要用到caffe的消息屏蔽。

1、在程序最开始运行地方,加入如下代码:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. ::google::InitGoogleLogging("hjimce");    //初始化     
  2. FLAGS_stderrthreshold = ::google::ERROR;  //只打印ERROR级别信息  

2、在程序结束的时候加入代码:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. google::ShutdownGoogleLogging();   

caffe group参数



  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值