Deep Learning
文章平均质量分 57
Hi_Panda_CRL
这个作者很懒,什么都没留下…
展开
-
DL经典论文
转自:http://blog.sciencenet.cn/blog-520608-751519.html主要是顺着Bengio的PAMI review的文章找出来的。包括几本综述文章,将近100篇论文,各位山头们的Presentation。全部都可以在google上找到。BTW:由于我对视觉尤其是检测识别比较感兴趣,所以关于DL的应用主要都是跟Vision相关的。在其他方面比如语音转载 2016-04-12 18:54:17 · 885 阅读 · 0 评论 -
Caffe Log Visualization
1.Record your train/test log as a log fileTOOLS=./build/tools GLOG_logtostderr=0 GLOG_log_dir=deepid/deepid2/Log/ \ $TOOLS/caffe train \ --solver=deepid/deepid2/deepid_solver.prototxt 2.Parse原创 2016-09-28 14:28:41 · 955 阅读 · 0 评论 -
Caffe Solver
Solver scaffolds the optimization bookkeeping and creates the training network for learning and test network(s) for evaluation. iteratively optimizes by calling forward / backward and updating p原创 2016-07-21 15:46:39 · 496 阅读 · 0 评论 -
Python layer
Fully Convolutional Networks for Semantic Segmentation 论文中公布的代码作为示例,解释python层该怎么写。 https://github.com/shelhamer/fcn.berkeleyvision.org First you have to build Caffe with WITH_PYTHON_LAYER option 1. R原创 2016-07-20 11:04:07 · 3379 阅读 · 0 评论 -
caffe net implement
#include <algorithm>#include <map>#include <set>#include <string>#include <utility>#include <vector>#include "caffe/common.hpp"#include "caffe/layer.hpp"#include "caffe/net.hpp"#include "caffe/转载 2016-07-19 17:28:31 · 990 阅读 · 0 评论 -
caffe interface --- matlab
本文首先介绍一些基础的入门知识,然后分析一个大型工程应用caffe_,从工程的视角分析,该如何设计好一个大型的交互接口。同时,找到matlab性能的瓶颈,正是我们需转载 2016-07-19 15:19:16 · 2366 阅读 · 0 评论 -
Caffe --- SyncedMemory
SyncedMemory类定义在syncedmem.hpp/cpp里, 主要负责caffe底层的内存管理.PS: Caffe的底层数据的切换(cpu模式和gpu模式),需要用到内存同步模块。其实个人觉得如果需要研究Blob,对于SyncedMemory的分析很重要内存分配与释放内存分配与释放由两个(不属于SyncedMemory类的)内联函数完成. 代码简单直观: 如果是CPU模式, 那么调用m原创 2016-07-25 09:59:49 · 687 阅读 · 0 评论 -
Blobs, Layers, and Nets: anatomy of a Caffe model
BlobsBlob作为Caffe的四大模块之一,负责完成CPU/GPU存储申请、同步和数据持久化映射。Caffe内部数据存储和通讯都是通过Blob来完成,Blob提供统一的存储操作接口,可用来保存训练数据、模型参数等。Blob 事实上是调用了SyncedMemory 类。SyncedMemory类封装了CPU/GPU内存申请、同步和释放等。所以SyncedMemory 完成了对内存的实际操作。原创 2016-07-21 15:39:26 · 907 阅读 · 0 评论 -
Caffe --- blob code
两篇非常好的文章: http://blog.csdn.net/xizero00/article/details/50886829# http://www.cnblogs.com/yymn/articles/5341347.html原创 2016-07-23 13:02:21 · 892 阅读 · 0 评论 -
dense_CRF
/* Copyright (c) 2013, Philipp Krähenbühl All rights reserved. Redistribution and use in source and binary forms, with or without modification, are permitted provided that the followi转载 2016-06-30 10:44:32 · 6895 阅读 · 4 评论 -
Neural Network中的Activation function作用
激活函数的作用谈到激活函数,必须要提到回归的问题,我们做线性回归的目的是为了优化权重。由于每次输入新的数据都要进行调整权重,做回归的主要目的是将目标特征更明显,将区别较大的噪声排除掉。因此,我们引入了激活函数。由于在线性回归中要求输入是可微的,但输入往往是非线性的,加入激活函数可以具备去燥的作用,而且可以将非线性输入变为线性输入。主要类别: tanh原创 2016-04-11 17:07:13 · 1107 阅读 · 0 评论 -
What is the role of the activation function in a neural network?
原文转自:https://www.quora.com/What-is-the-role-of-the-activation-function-in-a-neural-networkThe goal of (ordinary least-squares) linear regression is to find the optimal weights that -- when linearl转载 2016-04-11 17:16:36 · 1147 阅读 · 0 评论 -
训练过程中的Overfitting问题
Preventing overfittingEarly stoppingWeight decayTraining with noise因此,防止过拟合的常用方法有三种:第一,提前阻止。通过增加评估数据集,及时调整训练过程中的权重w,使得cost function以最快的速度下降;第二,权重衰减法。这里采用的是正则法,通过加入正则项,使得权重及时得到更新,但是这种方法不易操作原创 2016-04-09 20:23:43 · 1105 阅读 · 0 评论 -
池化方法总结(Pooling)
转自:http://blog.csdn.net/danieljianfeng/article/details/42433475在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低维度呢?因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一转载 2016-04-12 19:17:09 · 9624 阅读 · 0 评论 -
Caffe Layer Library
Convolution layer# convolutionlayer { name: "loss1/conv" type: "Convolution" bottom: "loss1/ave_pool" top: "loss1/conv" param { lr_mult: 1 decay_mult: 1 } param { lr_mult: 2原创 2017-03-14 15:22:33 · 4235 阅读 · 1 评论