- 博客(11)
- 资源 (7)
- 收藏
- 关注
原创 caffe画loss曲线
用图形画出caffe输出数据的python程序&&git基础命令 Caffe如何画出训练中的loss曲线图和accuracy曲线图如何绘制caffe训练过程中的loss和accurary的曲线
2016-12-26 23:58:39 1155
原创 网络可视化
faster rcnn修改demo.py保存网络中间结果学习笔记:深度学习网络特征逐层可视化神经网络:caffe特征可视化的代码样例
2016-12-26 23:26:58 1232
原创 python绘制precision-recall曲线、ROC曲线
基础知识 TP(True Positive):指正确分类的正样本数,即预测为正样本,实际也是正样本。FP(False Positive):指被错误的标记为正样本的负样本数,即实际为负样本而被预测为正样本,所以是False。TN(True Negative):指正确分类的负样本数,即预测为负样本,实际也是负样本。FN(False Negative):指被错误的标记为负样本的正样本数,即...
2016-12-23 20:04:07 59841 8
原创 ResNets、HighwayNets、DenseNets
ResNets、HighwayNets、DenseNets:用 TensorFlow 实现超深度神经网络
2016-12-15 23:35:29 2385
原创 faster rcnn源码理解
理解faster rcnn的源码有几个关键点1.算法原理、网络结构、训练过程这是基本2.要弄懂源码里训练数据数据是怎么组织起来的,imdb,roidb,blob很关键,弄清它们的数据结构以及各个阶段是如何产生的3.一定的python、numpy基础知识rpn_train.pt#stage 1训练RPN时用的网络结构name: "ZF"layer {
2016-12-12 23:07:19 20090 4
原创 caffe利用snapshot从断点恢复训练
训练网络时迭代次数往往需要数万次,需要训练几天,如果突发什么意外(断电)训练停止了岂不要从头训练。其实借用snapshot机制,比如每隔1万次迭代保存一下网络参数,然后下次训练判断有无snapshot,有的话从snapshot恢复参数就可以了。下面是一个例子#coding:utf-8import caffeimport numpy as npimport osfrom
2016-12-10 21:51:26 5011
原创 opencv静态编译
这是为了在没有配置opencv的电脑上运行依赖opencv的程序Opencv246+vs2012生成不依赖编译环境的exe文件静态编译与动态编译的区别
2016-12-09 16:51:47 660
原创 神经网络压缩加速
深度学习模型压缩方法综述(一)深度网络模型压缩 - CNN Compression神经网络压缩:Deep Compression神经网络压缩(1):Deep CompressionDeep Learning(深度学习)之(六)【深度神经网络压缩】Deep Compression (ICLR2016 Best Paper)CNN 模型压缩与加速
2016-12-06 22:11:14 4007
isodata聚类算法步骤说明
2015-10-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人