2.自编码器(去噪自编码器,DAE)

本文介绍了自编码器的概念,它由encoder和decoder构成,用于学习输入的压缩表示并重构。去噪自编码器(DAE)通过在训练中加入噪声来学习从加噪图像到清晰图像的映射,达到图像去噪效果。示例中使用Keras框架,结合卷积层构建了一个去噪自编码器模型,并以MNIST数据集为例进行演示。
摘要由CSDN通过智能技术生成

介绍:

自编码器(AutoEncoder)是深度学习中的一类无监督学习模型,有encoder和decoder两个部分组成

  • encoder 将原始表示编码成隐层表示
  • decoder 将隐层表示解码成原始表示
  • 训练目标为最小化重构误差
  • 隐层特征维度一般低于原始特征维度,降维的同时学习更稠密更有意义的表示

自编码器主要是一种思想,encoder和decoder可以由全连接层、CNN或RNN等模型实现。以下使用Keras,用CNN实现自编码器,通过学习从加噪图片到原始图片的映射,完成图像去噪任务。

代码:

在这里插入图片描述使用keras+mnist搭建自编码器,使用卷积层参与搭建。

import numpy as np

from keras.datasets import mnist
from keras.layers import MaxPooling2D, UpSampling2D, Conv2D, Input, Dense
from keras.models import Model, load_model

import matplotlib.pyplot as plt

(x_train, y_train),(x_test, y_test) = mnist.load_data()
# 归一化
x_train = x_train.astype('float32')/255.0
x_test = x_test.astype('float32')/255.
# reshape
x_train = np.reshape(x_train, (len(x_train), 28, 28, 1)) # (n,h,w,c)
x_test = np.reshape(x_test, (x_test.shape[0], 28, 28, 1))

print(x_train.shape, x_test.shape)
# 加入随机白噪
noise_factor = 0.5
x_train_noisy = x_train + noise_factor * np.random.normal(loc=0.0, scale=1.0, size=x_train.shape)
x_test_noisy = x_test + noise_factor * np.random
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用TensorFlow实现去噪自编码器DAE)的示例代码: ```python import tensorflow as tf import numpy as np # 加载数据集 (x_train, _), (x_test, _) = tf.keras.datasets.mnist.load_data() x_train = x_train.astype('float32') / 255. x_test = x_test.astype('float32') / 255. x_train = np.reshape(x_train, (len(x_train), np.prod(x_train.shape[1:]))) x_test = np.reshape(x_test, (len(x_test), np.prod(x_test.shape[1:]))) # 添加噪声 noise_factor = 0.5 x_train_noisy = x_train + noise_factor * np.random.normal(loc=0.0, scale=1.0, size=x_train.shape) x_test_noisy = x_test + noise_factor * np.random.normal(loc=0.0, scale=1.0, size=x_test.shape) x_train_noisy = np.clip(x_train_noisy, 0., 1.) x_test_noisy = np.clip(x_test_noisy, 0., 1.) # 定义模型 input_size = 784 hidden_size = 128 output_size = 784 input_data = tf.keras.layers.Input(shape=(input_size,)) hidden_layer = tf.keras.layers.Dense(hidden_size, activation='relu')(input_data) output_layer = tf.keras.layers.Dense(output_size, activation='sigmoid')(hidden_layer) model = tf.keras.models.Model(input_data, output_layer) model.compile(optimizer='adam', loss='binary_crossentropy') # 训练模型 model.fit(x_train_noisy, x_train, epochs=50, batch_size=128, shuffle=True, validation_data=(x_test_noisy, x_test)) # 测试模型 decoded_imgs = model.predict(x_test_noisy) # 显示结果 import matplotlib.pyplot as plt n = 10 # 显示10个数字 plt.figure(figsize=(20, 4)) for i in range(n): # 原始图像 ax = plt.subplot(2, n, i + 1) plt.imshow(x_test[i].reshape(28, 28)) plt.gray() ax.get_xaxis().set_visible(False) ax.get_yaxis().set_visible(False) # 加噪后的图像 ax = plt.subplot(2, n, i + 1 + n) plt.imshow(x_test_noisy[i].reshape(28, 28)) plt.gray() ax.get_xaxis().set_visible(False) ax.get_yaxis().set_visible(False) # 解码后的图像 ax = plt.subplot(2, n, i + 1 + n * 2) plt.imshow(decoded_imgs[i].reshape(28, 28)) plt.gray() ax.get_xaxis().set_visible(False) ax.get_yaxis().set_visible(False) plt.show() ``` 在这个例子中,我们使用了MNIST数据集,并将每个图像添加了50%的高斯噪声。模型使用一个128个隐藏节点的隐层和一个784个输出节点的输出层。训练过程中使用了Adam优化器和二元交叉熵损失函数。最终,我们将显示10个数字的原始图像、添加噪声后的图像和去噪后的图像。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值