UFLDL教程笔记(一)

UFLDL教程作为深度学习入门非常好的一个教程,为了防止自己看过忘过,所以写下笔记,笔记只记录了自己对于每个知识点的直观理解,某些地方加了一些使自己更容易理解的例子,想要深入了解建议自己刷一遍此教程。

一、稀疏自编码器

神经网络

这里写图片描述
上图是一个基本的神经网络模型。我们使用圆圈来表示神经网络的输入,标上“+1”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元。

a(l)i 表示第 l 层第 i 单元的激活值(输出值)
W(l)ij 第 l 层第 j 单元与第l+1 层第i 单元之间的联接参数(其实就是连接线上的权重,注意标号顺序,因为W是用来计算第l+1 层的激活单元的)

下面有一个简单的前向推导过程:
这里写图片描述

反向传导神经网络

假设我们的数据是有标签的,也就是知道每个x对应的y值,现在要求权重W和偏置节点

有了输入和输出,我们只需要看我们训练的神经网络的输出结果和真实的结果的差距,然后根据误差往后一个个地更新权重(还有偏置节点)

我们首先需要将每一个参数 W 和 b 初始化为一个很小的、接近零的随机值

进行前馈传导计算,利用前向传导公式,得到L2, L3···直到输出层 Ln的激活值。

对输出层(第n层),针对第 l 层的每一个节点 i,我们计算出其“残差”,该残差表明了该节点对最终输出值的残差产生了多少影响。(于最终的输出节点,我们可以直接算出网络产生的激活值与实际值之间的差距,隐藏单元为节点残差的加权平均)

计算最终需要的偏导数值(梯度下降算法的更新需要计算代价函数的偏导数值)

注:
代价函数:
这里写图片描述
梯度下降需要更新:
这里写图片描述

自编码算法与稀疏性

这是神经网络在无监督学习中的应用

自编码神经网络是一种无监督学习算法,当在无监督学习中,有一堆没有标签的数据的时候,我们一般假设输入值与输出值基本相同,也就是x=y。或许你会问这么训练有什么意义呢?

其实可以使用自编码器来完成一些有趣的操作,如果我们有一个10X10像素的灰度图像(即n=100)。

操作1——隐层数量少于输入维度
我们用图像的灰度作为输入,即有100个输入,设隐藏层有50个,我们的输出也是图像,即输出同样是100个

此时我们训练出来的神经网络相当于具有压缩的功能,也就是说,它必须从50维的隐藏神经元激活度向量中重构出100维的像素灰度值输入x。

实上,这一简单的自编码神经网络通常可以学习出一个跟主元分析(PCA)结果非常相似的输入数据的低维表示。

操作2——隐层数量大于输入维度
这个操作中我们输入的不再是图像的灰度,而是图像整体,隐层的维度也变为100维。具体来说,如果我们给隐藏神经元加入稀疏性限制,那么自编码神经网络即使在隐藏神经元数量较多的情况下仍然可以发现输入数据中一些有趣的结构。

稀疏性限制也就是使得神经元大部分时间被限制,我们设置稀疏性参数使得隐藏神经元的平均活跃度接近一个为0的值(如0.05)

这样做有什么用呢?先来看一个已经训练完的结果
这里写图片描述
我们输入了1个图片,隐藏神经元中是100个图片,上图的每个小方块都给出了一个输入图像,它可使这100个隐藏单元中的某一个获得最大激励。

不同的隐藏单元学会了在图像的不同位置和方向进行边缘检测。

这些特征对物体识别等计算机视觉任务是十分有用的。若将其用于其他输入域(如音频),该算法也可学到对这些输入域有用的表示或特征。

二、矢量化编程

矢量化编程是提高算法速度的一种有效方法,用来提升特定数值运算操作(如矩阵相乘、矩阵相加,矩阵-向量乘法等)的运算速度。

如计算 z=θTx ,下面这种计算方法的效果就很慢:

z = 0;
for i=1:(n+1),
  z = z + theta(i) * x(i);
end;

而改成下面就会变得很快:

z = theta' * x;

为什么下面那种运算速度更快呢?因为用了matlab内部的矩阵运算策略,使用的是Intel自己出的Math kernel library(MKL),这个库远比其他的blas/lapack库要快。

矩阵运算这块的可以参考这个链接
https://www.zhihu.com/question/19706331

三、主成分分析(PCA)与白化(Whitening )

3.1主成分分析

主成分分析(PCA)是一种能够极大提升无监督特征学习速度的数据降维算法。简单的说就是在保证有用信息尽量不丢失的情况下,尽可能的去掉无用信息。

我们希望降维后的数据尽量分散

二维降维到一维的例子

对,直接上栗子!!!

假设我们以下数据,是坐标系中的5个点的数据

(1113234424)

为了后续处理方便,我们首先将每个字段内所有值都减去字段均值,其结果是将每个字段都变为均值为0(这样做的道理和好处后面会看到)。

我们看上面的数据,第一个字段均值为2,第二个字段均值为3,所以变换后:

(1210002101)

我们可以看下五条数据在平面直角坐标系内的样子:
这里写图片描述

如果我们必须使用一维来表示这些数据,又希望尽量保留原始的信息,你要如何选择?

前面说过要使降维后的数据尽量分散,所以我们可以采用使方差最大的方法来找到一个直线来投影5个点。

但方差只适用于二维降到一维的情况。

数学上可以用两个字段的协方差表示其相关性,由于已经让每个字段均值为0,则:

Cov(a,b)=1mi=1maib
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值