堆叠降噪自动编码器 Stacked Denoising Auto Encoder(SDAE)

原文链接

自动编码器(Auto-Encoder,AE)

自动编码器(Auto-Encoder,AE)自编码器(autoencoder)是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器内部有一个隐藏层 h,可以产生编码(code)表示输入。该网络可以看作由两部分组成:一个由函数 h = f(x) 表示的编码器和一个生成重构的解码器 r = g(h)。我们不应该将自编码器设计成输入到输出完全相等。这通常需要向自编码器强加一些约束,使它只能近似地复制,并只能复制与训练数据相似的输入。

自动编码机由三层网络组成,其中输入层神经元数量与输出层神经元数量相等,中间层神经元数量少于输入层和输出层。搭建一个自动编码器需要完成下面三样工作:搭建编码器,搭建解码器,设定一个损失函数,用以衡量由于压缩而损失掉的信息(自编码器是有损的)。编码器和解码器一般都是参数化的方程,并关于损失函数可导,典型情况是使用神经网络。编码器和解码器的参数可以通过最小化损失函数而优化。

自动编码机(Auto-encoder)是一个自监督的算法,并不是一个无监督算法,它不需要对训练样本进行标记,其标签产生自输入数据。因此自编码器很容易对指定类的输入训练出一种特定的编码器,而不需要完成任何新工作。自动编码器是数据相关的,只能压缩那些与训练数据类似的数据。比如,使用人脸训练出来的自动编码器在压缩别的图片,比如树木时性能很差,因为它学习到的特征是与人脸相关的。

自动编码器运算过程:原始input(设为x)经过加权(W、b)、映射(Sigmoid)之后得到y,再对y反向加权映射回来成为z。通过反复迭代训练两组(W、b),目的就是使输出信号与输入信号尽量相似。训练结束之后自动编码器可以由两部分组成:

1.输入层和中间层,可以用这个网络来对信号进行压缩

2.中间层和输出层,我们可以将压缩的信号进行还原

降噪自动编码器(Denoising Auto Encoder,DAE)

降噪自动编码器就是在自动编码器的基础之上,为了防止过拟合问题而对输入层的输入数据加入噪音,使学习得到的编码器具有鲁棒性而改进的,是Bengio在08年论文:Extracting and composing robust features with denoising autoencoders提出的。
论文中关于降噪自动编码器的示意图如下,类似于dropout,其中x是原始的输入数据,降噪自动编码器以一定概率(通常使用二项分布)把输入层节点的值置为0,从而得到含有噪音的模型输入xˆ。

这个破损的数据是很有用的,原因有二: 
1.通过与非破损数据训练的对比,破损数据训练出来的Weight噪声比较小。降噪因此得名。原因不难理解,因为擦除的时候不小心把输入噪声给×掉了。 
2.破损数据一定程度上减轻了训练数据与测试数据的代沟。由于数据的部分被×掉了,因而这破损数据一定程度上比较接近测试数据。训练、测试肯定有同有异,当然我们要求同舍异。

堆叠降噪自动编码器(Stacked Denoising Auto Encoder,SDAE)

SDAE的思想就是将多个DAE堆叠在一起形成一个深度的架构。只有在训练的时候才会对输入进行腐蚀(加噪),训练完成就不需要在进行腐蚀。结构如下图所示:

逐层贪婪训练:每层自编码层都单独进行非监督训练,以最小化输入(输入为前一层的隐层输出)与重构结果之间的误差为训练目标。前K层训练好了,就可以训练K+1层,因为已经前向传播求出K层的输出,再用K层的输出当作K+1的输入训练K+1层。

一旦SDAE训练完成, 其高层的特征就可以用做传统的监督算法的输入。当然,也可以在最顶层添加一层logistic regression layer(softmax层),然后使用带label的数据来进一步对网络进行微调(fine-tuning),即用样本进行有监督训练。

  1. 预测阶段:根据状态转移方程,每一个粒子得到一个预测粒子;

  2. 校正阶段:对预测粒子进行评价,越接近于真实状态的粒子,其权重越大;

  3. 重采样:根据粒子权重对粒子进行筛选,筛选过程中,既要大量保留权重大的粒子,又要有一小部分权重小的粒子;

  4. 滤波:将重采样后的粒子带入状态转移方程得到新的预测粒子,即步骤2。

学习更多编程知识,请关注我的公众号:

代码的路

  • 23
    点赞
  • 137
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
堆叠式自动降噪编码器(Stacked Autoencoder)是一种用于无监督学习的神经网络模型,用于特征提取和降噪处理。下面是使用python实现的堆叠式自动降噪编码器的代码: ```python import numpy as np import tensorflow as tf # 定义堆叠式自动降噪编码器类 class StackedAutoencoder: def __init__(self, num_layers, hidden_units): self.num_layers = num_layers self.hidden_units = hidden_units def build_model(self, input_dim): self.model = tf.keras.models.Sequential() # 添加隐藏层和输出层 for i in range(self.num_layers): if i == 0: # 第一层的输入维度为输入数据的维度 self.model.add(tf.keras.layers.Dense(self.hidden_units[i], input_dim=input_dim, activation='relu')) else: # 后续层的输入维度为上一层的输出维度 self.model.add(tf.keras.layers.Dense(self.hidden_units[i], activation='relu')) # 最后一层的输出维度为输入数据的维度 self.model.add(tf.keras.layers.Dense(input_dim, activation='sigmoid')) # 编译模型 self.model.compile(optimizer='adam', loss='binary_crossentropy') def train(self, input_data, epochs=10, batch_size=32): self.model.fit(input_data, input_data, epochs=epochs, batch_size=batch_size) def denoise(self, input_data): denoised_data = self.model.predict(input_data) return denoised_data # 示例用法 input_data = np.random.rand(1000, 100) # 假设有1000个样本,每个样本的维度为100 autoencoder = StackedAutoencoder(3, [50, 30, 20]) # 设置3层自动降噪编码器,隐藏单元分别为50, 30和20个 autoencoder.build_model(input_data.shape[1]) # 根据输入数据的维度构建模型 autoencoder.train(input_data, epochs=100, batch_size=32) # 训练模型 denoised_data = autoencoder.denoise(input_data) # 对输入数据进行降噪处理 ``` 以上的代码定义了一个`StackedAutoencoder`类,可以根据指定的层数和隐藏单元个数构建模型,并进行训练和降噪处理。使用时,先创建一个`StackedAutoencoder`对象,然后调用`build_model`方法构建模型,再调用`train`方法进行训练,最后调用`denoise`方法对输入数据进行降噪处理。示例中使用随机生成的输入数据进行了演示。请根据实际需求进行相应的参数设置和数据输入。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

代码的路

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值