caffe
文章平均质量分 61
lemonaha
stay hungry,stay foolish
展开
-
用Boost库中的cpu_timer计算caffe测试时间
关于cpu_timer具体请看: http://blog.csdn.net/pdcxs007/article/details/47281391参考实例为:#include <iostream>#include <boost/timer/timer.hpp>#include <cmath>using namespace std;using namespace boost;int main()原创 2017-05-25 19:56:17 · 1604 阅读 · 0 评论 -
deep learning 深度学习的一点tricks
http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html原创 2017-08-24 20:08:13 · 509 阅读 · 0 评论 -
caffe 重新用Python编译tripletloss、fine turning
Caffe通过Boost中的Boost.Python模块来支持使用Python定义Layer:使用C++增加新的Layer繁琐、耗时而且很容易出错开发速度与执行速度之间的trade-off编译支持Python Layer的Caffe如果是首次编译,修改Caffe根目录下的Makefile.cinfig,uncommentWITH_PYTHON_LAYER:=1如果已经编译过: 进入caffe原创 2017-06-05 20:52:20 · 1375 阅读 · 0 评论 -
caffe
http://bealin.github.io/categories/Deep-Learning/Caffe/http://www.cnblogs.com/denny402/tag/caffe/原创 2017-05-22 20:33:46 · 319 阅读 · 0 评论 -
caffe2 安装教程
前段时间贾清扬大牛在Facebook推出了caffe2版本,相比caffe来说感觉更加轻量级和高效。Caffe2的安装相比于caffe在安装的时候更加简便,略去了Makefile.config的各种配置,对于有无GPU以及各种可选库例如OpenCV,anaconda的支持也更简单。(其实你直接装好库以后make就好,以GPU为例,在make的时候,自动检测你是否安装了CUDA,若没有,就自动CPU原创 2017-05-08 21:45:45 · 11376 阅读 · 0 评论 -
Caffe中的Siamese网络(contrastive loss)
https://vra.github.io/2016/12/13/siamese-caffe/caffe的example里面已经有一个demo: https://github.com/BVLC/caffe/tree/master/examples/siamese原创 2017-06-05 21:08:18 · 979 阅读 · 0 评论 -
caffe2 和 caffe 有何不同
前几天 facebook 开源的 caffe2,让我们在深度学习框架上又多了一个选择。caffe2 宣称是轻量级、模块化和可扩展的一个框架,code once,run anywhere。作为一个老 caffe 玩家,自是要好好研究一番。依赖处理第一版 caffe 的依赖是个让人头疼的事,尤其是在公司旧版的服务器上安装时,需要花费大量的时间折腾。服务器的系统旧,python的版本低(2.4),直接升级转载 2017-05-08 22:12:51 · 12221 阅读 · 0 评论 -
用训练好的caffe model测试新的图片
参考链接:http://www.cnblogs.com/denny402/p/5685909.html将图片通过名称放到对应的数字和字母的文件夹里根据图片的文件夹以及预测出的结果统计正确率#coding=utf-8import pdbimport osimport os.pathimport caffeimport numpy as nproot='/home/mqli/myFil原创 2017-05-26 19:48:18 · 1387 阅读 · 0 评论 -
深度学习中的batch size 以及learning rate参数理解
batch size 参数https://www.zhihu.com/question/32673260在合理范围内,增大 Batch_Size 有何好处?内存利用率提高了,大矩阵乘法的并行化效率提高跑完一次epoch(全数据集)所需要的迭代次数减小,对于相同数据量的处理速度进一步加快在一定范围内,一般来说batch size越大,其确定的下降方向越准,引起的训练震荡越小盲目增大batch原创 2017-05-26 19:44:25 · 19659 阅读 · 0 评论 -
在ubuntu上安装CUDA8.0(已有7.5)碰到的问题记录
安装cuda8.0参考的文档:http://www.jianshu.com/p/69a10d0a24b9http://blog.csdn.net/zshouyi/article/details/63679539 Completely uninstall anything in the ubuntu repositories with nvidia-*. I used synaptic and di原创 2017-05-10 10:57:52 · 859 阅读 · 0 评论