- 博客(12)
- 资源 (8)
- 收藏
- 关注
原创 目标检测评价指标解释(precision, recall, mAP)
目标检测评价指标解释(precision, recall, mAP)Reference: https://nlp.stanford.edu/IR-book/html/htmledition/evaluation-of-ranked-retrieval-results-1.htmlTP, FP, FN, TN这些指标都源于下表 ~ ~ 预测 预测 ~ ~ 1 0 实
2017-09-27 19:55:26 8555 2
原创 SSD目标检测框架教程--2017.3
SSD目标检测框架教程–2017.3参考文献: 官网: https://github.com/weiliu89/caffe/tree/ssd博客: http://blog.csdn.net/wizardna521/article/details/53463348SSD简介SSD是weiliu博士基于caffe,用于实时目标检测的深度学习框架。相比于Faster rcnn, 其在目标检测速度有了
2017-09-27 19:52:33 4707
原创 Residual Learning
本文参考的论文 Deep Residual Learning for Image Recognition Identity Mappings in Deep Residual Networks Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning Wide Residual Netw
2016-08-07 21:50:33 3626 1
原创 深度学习的最新进展及诺亚方舟实验室的研究
地址:http://www.csdn.net/article/2015-12-16/2826498最近微信上看到一篇文章,写的不错,概述了深度学习的特征与本质,记录于博客中,与大家分享。 下面是我重点记录的几句话: 1、深度学习本质是复杂的非线性模型的学习。一般地,随着神经网络的层数增大,神经元数增大,其处理复杂的非线性问题的能力也随之增大。层数增大描述能力比神经元数增加描述能力大。描述同一个问
2016-04-04 21:02:24 935
原创 junhyukoh的lstm代码解析
代码地址 https://github.com/junhyukoh/caffe-lstm 此代码是junhyukoh用于生成序列的一个代码,其中有一个例子用于生成一组数。本文主要阐述该例子,并谈谈对lstm的简单理解。本人刚接触DNN两个月,只会caffe一点皮毛,torch,theano等不会使用,caffe下的RNN代码不多,本文是其中一个。据说Jeff Donahue’s 的lstm代码即
2016-03-30 14:06:39 2086
原创 caffe安装教程
caffe安装教程平台:ubuntu14.04主要参照此文:http://www.linuxidc.com/Linux/2015-07/120449.htm其中cudnn这个没装好,出现了找不到类型的错误,便在配置中不使用cudnn,# USE_CUDNN := 1 。这个错误花费了我一整天的时间,真是智商捉急。估计是cudnn版本不对,需要更新了。接下来尝试安装新版本的cudnn。参考资料Caff
2016-02-21 16:35:46 375
原创 Support Vector Machine
这是我的特征提取的大作业,总结了支持向量机学习算法 。由于作业是英文的,我也就懒得翻译成中文的。A support vector machine is a supervised learning model used for pattern recognition and regression analysis. An SVM model sets a clear gap to separate d
2015-12-15 21:58:09 726
原创 K-means clustering and K-nearest neighbourhood classifier
K-means clustering 是一个十分简单而又实用的聚类算法,其是一种无监督聚类学习,只需告诉分类器一共有几类,即可实现分类。K-nearest neighbourhood是一个有监督分类算法。K-means clustering 算法思想: 随机给定k个观测作为初始种子点,m(1)1,m(1)2,...,m(1)km_1^{(1)}, m_2^{(1)},...,m_k^{(1)},
2015-12-06 20:54:29 623
原创 Batch Normalizaion: Accelerating Deep Network Training by Reducing Internal Covariate Shift.
本文是在做课题组研讨会时的报告,仅代表我个人的理解,错误之处,请直接指出!Batch Normalization 的意思是 批正规化。意思就是从所有的数据中选取一部分或者叫做一批数据进行正规化。 Internal corvariate shift:由于在训练过程中上一层的参数的变化导致了本层输入分布的变化。这会减缓学习速率,而且需要小心的选择初始参数。首先来看一幅图。 图中红点代表2维的初始数据
2015-12-06 18:50:36 870
翻译 欢迎使用CSDN-markdown编辑器
欢迎使用Markdown编辑器写博客include快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl + Q插入链接 Ctrl + L插入代码 Ctrl + K插入图片 Ctrl + G提升标题 Ctrl + H有序列表 Ctrl + O无序列表 Ctrl + U横线 Ctrl + R撤销 Ct
2015-12-06 17:13:52 255
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人