Interest
文章平均质量分 83
亦余心之所向兮
这个作者很懒,什么都没留下…
展开
-
第10章 无监督学习
自编码器目录自编码器目录稀疏编码Auto-EncodersSparse coding 在输出层模拟输入层的结果,中间层为code 图一自编码器结构其中: 输入, x 编码函数, f 内部表征,“码” h = f(x) 解码函数 g 输出, 重构 r=g(h)=g(f(x)) 损失函数 L 计算 L(r, x) 的值来测量 r 对给定输入 x原创 2015-09-02 19:55:43 · 824 阅读 · 0 评论 -
第10章 无监督学习(2)
ContinueRepresentational Power, Layer Size and Depth 大多数自编码器都只有一层所谓的隐藏层,也就是所谓的码 单层已能够在给定精度表达任何函数 e.g. Principal Components Analysis(PCA)主元分析 一个多层自编码器更难训练, 但是如果训练适当,可以获得更牛叉的表达效果.1 随机自编码器原创 2015-09-03 11:39:24 · 477 阅读 · 0 评论 -
第10章 无监督学习(3)
Manifold Interpretation of PCA and Linear Auto-Encoders 目标是寻找xx在子空间的一个映射,并保存尽量多的信息令编码器为 h=f(x)=WT(x−μ)h=f(x)=W^T(x-\mu)hh 是 xx的一个低维模拟解码器为 x^=g(h)=b+Vh\hat{x}=g(h)=b+Vh因为解码器和编码器都是线性的,那么最小化重构误差就是 E原创 2015-09-06 05:47:49 · 751 阅读 · 0 评论 -
第11章 CNNs (1)
卷积网络卷积操作离散卷积2维离散卷积为什么卷积sparse interactionsParameter sharingequivariance池化Convolutional NetworksThe convolution operationDiscrete convolution2-d discrete convolutionMotivationsparse intera原创 2015-09-06 21:59:54 · 501 阅读 · 0 评论 -
第 11 章 CNNs(2)
卷积网络 2基础卷积函数的变体zero-pad如何训练数据类型卷积的高效关于数据类型nextVariants of the basic convolution functionzero-padhow to trainData typesEfficient convolution algorithmsmore information about data typesnext原创 2015-09-08 09:08:35 · 433 阅读 · 0 评论 -
pureMVC 笔记
pureMVCpureMVC 架构图一个概略图观察者模式NotificationObserverNotifierSimpleCommandMircoCommandMediatorProxyViewControllerModelFacade总结pureMVCpureMVC 架构图一个概略图观察者模式请看我的上一篇博客 传送门NotificationNotification原创 2016-05-13 22:00:03 · 1243 阅读 · 0 评论 -
ANN
适合神经网络学习的问题实例是用很多“属性- 值”对表示的。要学习的目标函数是定义在可以用向量描述的实例之上的,向量由预先定义的特征组成,例如 ALVINN 例子中的像素值。这些输入属性之间可以高度相关,也可以相互独立。输入值可以是任何实数。目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量。例如,在 A原创 2016-12-06 23:38:07 · 1418 阅读 · 0 评论 -
评估假设
精度估计用统计方法估计假设精度,主要为解决以下三个问题: 已知一个假设在有限数据样本上观察到的精度,怎样估计它在其他实例上的精度 如果一个假设在某些数据样本上好于另一个,那么一般情况下是否该假设更准确 当数据有限时,怎样高效地利用这些数据,通过它们既能学习到假设,还能估计其精度? 描述估计实例空间 X X 分布情况 D D 目标函数 f:X→{0,1} f:X \righ原创 2016-12-07 22:19:18 · 526 阅读 · 0 评论