深度学习-卷积网络
文章平均质量分 75
flyingpig851334799
这个作者很懒,什么都没留下…
展开
-
论文笔记(一)基于轮流训练的松弛卷积神经网络对手写字附体的识别(MINIST和ICDAR’13 Competition 汉字库)
Handwritten Character Recognition by Alternately Trained Relaxation Convolutional Neural Network Published in:Frontiers in Handwriting Recognition (ICFHR), 2014 14th International Conference原创 2015-01-27 19:51:06 · 1129 阅读 · 0 评论 -
学习笔记-PCA和白化
来源:博客园PCA: PCA的具有2个功能,一是维数约简(可以加快算法的训练速度,减小内存消耗等),一是数据的可视化。 PCA并不是线性回归,因为线性回归是保证得到的函数是y值方面误差最小,而PCA是保证得到的函数到所降的维度上的误差最小。另外线性回归是通过x值来预测y值,而PCA中是将所有的x样本都同等对待。 在使用PCA前需要对数据进行预处理,首先是均值化转载 2015-05-16 22:45:45 · 1186 阅读 · 0 评论 -
What's Wrong with Deep Learning? Yann LeCun
author: Yann LeCunFacebook AI Research & New York UniversityDeep learning methods have had a profound impact on a number of areas in recent years, including natural image understanding and speech转载 2015-05-26 15:06:57 · 3187 阅读 · 0 评论 -
caffe的卷积实现-1资料整理
1、High Performance Convolutional Neural Networks forDocument Processing2、Notes on Convolutional Neural Networks3、Caffe里面卷积算法的链接:Convolution in Caffe: a memo · Yangqing/caffe Wiki · GitHub4、C转载 2015-12-24 21:52:18 · 498 阅读 · 0 评论 -
梯度下降-Momentum
总结:梯度下降算法中,学习率太大,函数无法收敛,甚至发散,如下图。学习率足够小,理论上是可以达到局部最优值的(非凸函数不能保证达到全局最优),但学习率太小却使得学习过程过于缓慢,合适的学习率应该是能在保证收敛的前提下,能尽快收敛。对于深度网络中,参数众多,参数值初始位置随机,同样大小的学习率,对于某些参数可能合适,对另外一些参数可能偏小(学习过程缓慢),对另外一些参数可能太大(无法收敛,甚至发转载 2016-07-18 20:47:57 · 1728 阅读 · 0 评论