- 博客(4)
- 资源 (3)
- 收藏
- 关注
翻译 卷积神经Extracting and Composing Robust Features with Denoising Autoencoders
摘要:之前的工作已经知道深度模型生成或者识别模型的困难,可以通过无监督初始化解决,从而使的输入与中间的代表一一对应。我们对无监督学习表示介绍一个新的训练规则,是基于学习表示粗略用部分输入模式,这个方法可以用来训练自动编码,这个去噪编码,可以用来堆放初始化深度结构,这个算法可以被改进无论从多方面,信息增益生成模型, 引言: 最近的理论研究表明,深度结构可能需要一个有效的复杂的分布,并且会
2015-12-24 16:55:27 2257
翻译 深度学习,A fast learning algorithm for deep belief nets
5. 由上至下的反馈调节 一次学习隐藏层的权重矩阵是有效的,但不是最优的,一旦高层隐藏层的权重学习过,对于较低的隐藏层,权重和简单的推理过程都不是最优的,这里简单的推理过程可以理解为整个网络结构。对有监督方法,像boosting,贪婪算法求得的局部最优解是具有引导作用的,bosting算法连接http://baike.baidu.com/link?url=1mPbBkvplrBJAoHDweI
2015-12-24 15:01:31 2697
原创 深度学习
我们考虑一个问题就是,人类或者动物识别图像,称作为游戏,假设有一个图像变换器,共有100类图像,每次出现的时间长短不同,假设这些图像对于人来说都有基本相同的的诱惑,或者说特征没有特别明显的,那么人类对于图像的的印象深刻程度应该是时间的非线性函数,我们能够记忆多种图像并且进行分类,是由于我们能够记忆多类图像的特征,这也正是稀疏编码的站脚理论,应该是这样,所以一定存在一种模型是能够把图像提取为高维特整
2015-12-26 16:07:19 322
翻译 统计量
样本来自总体,因此样本中包含总体信息,但信息较为分散,为此要把样本的信息集中起来,反应总体的各个特征,最常用的方法是构造样本函数,为此统计量定义: 设: x1,x2,...,xn为样本,T则,,中不含有任何参数,则称T为统计量,统计量分布称为抽样分布。如:
2015-12-24 14:38:24 386
深度学习的厨师翻译
2015-12-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人