Deep-Learn
文章平均质量分 68
DRer
这个作者很懒,什么都没留下…
展开
-
Batch Normalizaion: Accelerating Deep Network Training by Reducing Internal Covariate Shift.
本文是在做课题组研讨会时的报告,仅代表我个人的理解,错误之处,请直接指出!Batch Normalization 的意思是 批正规化。意思就是从所有的数据中选取一部分或者叫做一批数据进行正规化。 Internal corvariate shift:由于在训练过程中上一层的参数的变化导致了本层输入分布的变化。这会减缓学习速率,而且需要小心的选择初始参数。首先来看一幅图。 图中红点代表2维的初始数据原创 2015-12-06 18:50:36 · 870 阅读 · 0 评论 -
UFLDL总结
UFLDL的一些概念与原因解释,DL入门用。 图片看不清,只能右键另存为,下载到本地计算机查看了。原创 2016-03-03 22:37:41 · 478 阅读 · 0 评论 -
caffe安装教程
caffe安装教程平台:ubuntu14.04主要参照此文:http://www.linuxidc.com/Linux/2015-07/120449.htm其中cudnn这个没装好,出现了找不到类型的错误,便在配置中不使用cudnn,# USE_CUDNN := 1 。这个错误花费了我一整天的时间,真是智商捉急。估计是cudnn版本不对,需要更新了。接下来尝试安装新版本的cudnn。参考资料Caff原创 2016-02-21 16:35:46 · 375 阅读 · 0 评论 -
junhyukoh的lstm代码解析
代码地址 https://github.com/junhyukoh/caffe-lstm 此代码是junhyukoh用于生成序列的一个代码,其中有一个例子用于生成一组数。本文主要阐述该例子,并谈谈对lstm的简单理解。本人刚接触DNN两个月,只会caffe一点皮毛,torch,theano等不会使用,caffe下的RNN代码不多,本文是其中一个。据说Jeff Donahue’s 的lstm代码即原创 2016-03-30 14:06:39 · 2085 阅读 · 0 评论 -
深度学习的最新进展及诺亚方舟实验室的研究
地址:http://www.csdn.net/article/2015-12-16/2826498最近微信上看到一篇文章,写的不错,概述了深度学习的特征与本质,记录于博客中,与大家分享。 下面是我重点记录的几句话: 1、深度学习本质是复杂的非线性模型的学习。一般地,随着神经网络的层数增大,神经元数增大,其处理复杂的非线性问题的能力也随之增大。层数增大描述能力比神经元数增加描述能力大。描述同一个问原创 2016-04-04 21:02:24 · 935 阅读 · 0 评论 -
Residual Learning
本文参考的论文 Deep Residual Learning for Image Recognition Identity Mappings in Deep Residual Networks Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning Wide Residual Netw原创 2016-08-07 21:50:33 · 3626 阅读 · 1 评论 -
SSD目标检测框架教程--2017.3
SSD目标检测框架教程–2017.3参考文献: 官网: https://github.com/weiliu89/caffe/tree/ssd博客: http://blog.csdn.net/wizardna521/article/details/53463348SSD简介SSD是weiliu博士基于caffe,用于实时目标检测的深度学习框架。相比于Faster rcnn, 其在目标检测速度有了原创 2017-09-27 19:52:33 · 4707 阅读 · 0 评论 -
目标检测评价指标解释(precision, recall, mAP)
目标检测评价指标解释(precision, recall, mAP)Reference: https://nlp.stanford.edu/IR-book/html/htmledition/evaluation-of-ranked-retrieval-results-1.htmlTP, FP, FN, TN这些指标都源于下表 ~ ~ 预测 预测 ~ ~ 1 0 实原创 2017-09-27 19:55:26 · 8554 阅读 · 2 评论