caffe
mingo_敏
这个作者很懒,什么都没留下…
展开
-
ncnn之五:caffe模型转ncnn模型
6 ncnn测试示例6-1 下载权重并转换到caffe新版本# 下载alexnet的deploy文件 https://github.com/BVLC/caffe/tree/master/models/bvlc_alexnet# 下载caffemodel权重 http://dl.caffe.berkeleyvision.org/bvlc_alexnet.caffemodel# 手动修改dep...原创 2020-01-06 19:56:29 · 54 阅读 · 1 评论 -
Caffe中的Makefile.config的一些说明
## Refer to http://caffe.berkeleyvision.org/installation.html# Contributions simplifying and improving our build system are welcome!# cuDNN acceleration switch (uncomment to build with cuDNN).# US...转载 2018-02-08 18:04:17 · 822 阅读 · 0 评论 -
windows环境下编译caffe遇到的问题以及处理方法
本文地址:https://blog.csdn.net/shanglianlm/article/details/80144225 1 微软caffe下载地址: https://github.com/Microsoft/caffe 1-1 error MSB4062: 未能从程序集error MSB4062: 未能从程序集 E:\NugetPackages\OpenCV.2.4.1...原创 2018-04-29 17:37:33 · 5395 阅读 · 3 评论 -
caffe训练 Check failed: error == cudaSuccess错误汇总
本文地址:https://blog.csdn.net/shanglianlm/article/details/819391791 CUBLAS_STATUS_SUCCESS (1 vs. 0) CUBLAS_STATUS_NOT_INITIALIZEDCheck failed: status == CUBLAS_STATUS_SUCCESS (1 vs. 0) CUBLAS_STATUS_N...原创 2018-08-22 10:18:39 · 7836 阅读 · 6 评论 -
caffe打包和部署
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\includeH:\caffe\caffe-ssd-microsoft\caffe-ssd-microsoft\includeH:\caffe\caffe-ssd-microsoft\NugetPackages\boost.1.59.0.0\lib\native\include H...原创 2018-08-17 14:21:47 · 1510 阅读 · 0 评论 -
caffe各层解析以及参数说明(慢慢整理,做个笔记)
Convolution层layer { name: "conv1" type: &a原创 2018-11-27 20:16:55 · 3000 阅读 · 0 评论 -
caffe solver.prototxt参数说明
本文地址:caffe 下与loss相关的一些说明:1 train loss 不断下降,test loss 不断下降,说明网络正在学习2 train loss 不断下降,test loss 趋于不变,说明网络过拟合3 train loss 趋于不变,test loss 趋于不变,说明学习遇到瓶颈,需要减小学习率或者批处理大小4 train loss 趋于不变,test loss 不断下降...原创 2018-11-28 14:07:49 · 575 阅读 · 0 评论 -
炼丹的一些Tricks(慢慢总结版)
本文地址:batch size 较小一般情况下,我们在训练的时候,a.在训练时所有BN层要设置use_global_stats: false(也可以不写,caffe默认是false)b.在测试时所有BN层要设置use_global_stats: true如果batch size较小,如为1,可以考虑在fine-tune的时候,将use_global_stats: true试试。u...原创 2019-05-02 14:23:09 · 881 阅读 · 0 评论 -
Batch Normalization Fusion
本文地址:发现关于Batch Normalization Fusion的资料比较少,所以搜集了一些相关资料,并整理如下:关于Batch Normalization请参考Batch Normalization学习笔记及其实现这里不再详细解释。1 PyTorch 卷积与BatchNorm的融合https://zhuanlan.zhihu.com/p/493290302 模型推理加速方法 B...原创 2018-12-07 10:29:47 · 2419 阅读 · 0 评论