自动编码器的Keras实现【转】

一、什么是自编码器(Autoencoder)



“自编码”是一种数据压缩算法,其中压缩和解压缩功能是1)数据特定的,2)有损的,3)从例子中自动学习而不是由人工设计。此外,在几乎所有使用术语“自动编码器”的情况下,压缩和解压缩功能都是用神经网络来实现的。

1)自动编码器是特定于数据的,这意味着它们只能压缩类似于他们所训练的数据。这与例如MPEG-2音频层III(MP3)压缩算法不同,后者通常只保留关于“声音”的假设,而不涉及特定类型的声音。在面部图片上训练的自动编码器在压缩树的图片方面做得相当差,因为它将学习的特征是面部特定的。

2)自动编码器是有损的,这意味着与原始输入相比,解压缩的输出会降低(类似于MP3或JPEG压缩)。这与无损算术压缩不同。

3)自动编码器是从数据实例中自动学习的,这是一个有用的属性:这意味着很容易培养算法的特定实例,在特定类型的输入上运行良好。它不需要任何新的工程,只需要适当的培训数据。

要构建一个自动编码器,需要三件事情:编码函数,解码函数和数据压缩表示与解压缩表示(即“丢失”函数)之间的信息损失量之间的距离函数。编码器和解码器将被选择为参数函数(通常是神经网络),并且相对于距离函数是可微分的,因此可以优化编码/解码函数的参数以最小化重构损失,使用随机梯度下降。这很简单!而且你甚至不需要理解这些词语在实践中开始使用自动编码器。

什么是自动编码器的好处?

今天自动编码器的两个有趣的实际应用是数据去噪和数据可视化的降维。通过适当的维度和稀疏性约束,自动编码器可以学习比PCA或其他基本技术更有趣的数据投影。
对于2D的数据可视化,t-SNE(读作tee-snee)或许是目前最好的算法,但通常还是需要原数据的维度相对低一些。所以,可视化高维数据的一个好办法是首先使用自编码器将维度降低到较低的水平(如32维),然后再使用t-SNE将其投影在2D平面上。


二、使用Keras建立简单的自编码器

1. 单隐含层自编码器

建立一个全连接的编码器和解码器。也可以单独使用编码器和解码器,在此使用Keras的函数式模型API即Model可以灵活地构建自编码器。

50个epoch后,看起来我们的自编码器优化的不错了,损失val_loss: 0.1037。

[python]  view plain  copy
  1. from keras.layers import Input, Dense  
  2. from keras.models import Model  
  3. from keras.datasets import mnist  
  4. import numpy as np  
  5. import matplotlib.pyplot as plt  
  6.   
  7. (x_train, _), (x_test, _) = mnist.load_data()  
  8.   
  9. x_train = x_train.astype('float32') / 255.  
  10. x_test = x_test.astype('float32') / 255.  
  11. x_train = x_train.reshape((len(x_train), np.prod(x_train.shape[1:])))  
  12. x_test = x_test.reshape((len(x_test), np.prod(x_test.shape[1:])))  
  13. print(x_train.shape)  
  14. print(x_test.shape)  
  15.   
  16. encoding_dim = 32  
  17. input_img = Input(shape=(784,))  
  18.   
  19. encoded = Dense(encoding_dim, activation='relu')(input_img)  
  20. decoded = Dense(784, activation='sigmoid')(encoded)  
  21.   
  22. autoencoder = Model(inputs=input_img, outputs=decoded)  
  23. encoder = Model(inputs=input_img, outputs=encoded)  
  24.   
  25. encoded_input = Input(shape=(encoding_dim,))  
  26. decoder_layer = autoencoder.layers[-1]  
  27.   
  28. decoder = Model(inputs=encoded_input, outputs=decoder_layer(encoded_input))  
  29.   
  30. autoencoder.compile(optimizer='adadelta', loss='binary_crossentropy')  
  31.   
  32. autoencoder.fit(x_train, x_train, epochs=50, batch_size=256,   
  33.                 shuffle=True, validation_data=(x_test, x_test))  
  34.   
  35. encoded_imgs = encoder.predict(x_test)  
  36. decoded_imgs = decoder.predict(encoded_imgs)  
  37.   
  38. n = 10  # how many digits we will display  
  39. plt.figure(figsize=(204))  
  40. for i in range(n):  
  41.     ax = plt.subplot(2, n, i + 1)  
  42.     plt.imshow(x_test[i].reshape(2828))  
  43.     plt.gray()  
  44.     ax.get_xaxis().set_visible(False)  
  45.     ax.get_yaxis().set_visible(False)  
  46.   
  47.     ax = plt.subplot(2, n, i + 1 + n)  
  48.     plt.imshow(decoded_imgs[i].reshape(2828))  
  49.     plt.gray()  
  50.     ax.get_xaxis().set_visible(False)  
  51.     ax.get_yaxis().set_visible(False)  
  52. plt.show()  


2. 稀疏自编码器、深层自编码器

为码字加上稀疏性约束。如果我们对隐层单元施加稀疏性约束的话,会得到更为紧凑的表达,只有一小部分神经元会被激活。在Keras中,我们可以通过添加一个activity_regularizer达到对某层激活值进行约束的目的。

encoded = Dense(encoding_dim, activation='relu',activity_regularizer=regularizers.activity_l1(10e-5))(input_img)

把多个自编码器叠起来即加深自编码器的深度,50个epoch后,损失val_loss:0.0926,比1个隐含层的自编码器要好一些。

[python]  view plain  copy
  1. import numpy as np    
  2. np.random.seed(1337)  # for reproducibility    
  3.     
  4. from keras.datasets import mnist    
  5. from keras.models import Model #泛型模型    
  6. from keras.layers import Dense, Input    
  7. import matplotlib.pyplot as plt    
  8.     
  9. # X shape (60,000 28x28), y shape (10,000, )    
  10. (x_train, _), (x_test, y_test) = mnist.load_data()    
  11.     
  12. # 数据预处理    
  13. x_train = x_train.astype('float32') / 255.        # minmax_normalized    
  14. x_test = x_test.astype('float32') / 255.        # minmax_normalized    
  15. x_train = x_train.reshape((x_train.shape[0], -1))    
  16. x_test = x_test.reshape((x_test.shape[0], -1))    
  17. print(x_train.shape)    
  18. print(x_test.shape)    
  19.     
  20. # 压缩特征维度至2维    
  21. encoding_dim = 2    
  22.     
  23. # this is our input placeholder    
  24. input_img = Input(shape=(784,))    
  25.     
  26. # 编码层    
  27. encoded = Dense(128, activation='relu')(input_img)    
  28. encoded = Dense(64, activation='relu')(encoded)    
  29. encoded = Dense(10, activation='relu')(encoded)    
  30. encoder_output = Dense(encoding_dim)(encoded)    
  31.     
  32. # 解码层    
  33. decoded = Dense(10, activation='relu')(encoder_output)    
  34. decoded = Dense(64, activation='relu')(decoded)    
  35. decoded = Dense(128, activation='relu')(decoded)    
  36. decoded = Dense(784, activation='tanh')(decoded)    
  37.     
  38. # 构建自编码模型    
  39. autoencoder = Model(inputs=input_img, outputs=decoded)    
  40.     
  41. # 构建编码模型    
  42. encoder = Model(inputs=input_img, outputs=encoder_output)    
  43.   
  44.   
  45. # compile autoencoder    
  46. autoencoder.compile(optimizer='adam', loss='mse')    
  47.   
  48. autoencoder.summary()  
  49. encoder.summary()  
  50.   
  51. # training    
  52. autoencoder.fit(x_train, x_train, epochs=10, batch_size=256, shuffle=True)    
  53.   
  54. # plotting    
  55. encoded_imgs = encoder.predict(x_test)    
  56.   
  57. plt.scatter(encoded_imgs[:, 0], encoded_imgs[:, 1], c=y_test,s=3)    
  58. plt.colorbar()    
  59. plt.show()    
  60.   
  61. decoded_imgs = autoencoder.predict(x_test)  
  62. # use Matplotlib (don't ask)  
  63. import matplotlib.pyplot as plt  
  64.   
  65. n = 10  # how many digits we will display  
  66. plt.figure(figsize=(204))  
  67. for i in range(n):  
  68.     # display original  
  69.     ax = plt.subplot(2, n, i + 1)  
  70.     plt.imshow(x_test[i].reshape(2828))  
  71.     plt.gray()  
  72.     ax.get_xaxis().set_visible(False)  
  73.     ax.get_yaxis().set_visible(False)  
  74.   
  75.     # display reconstruction  
  76.     ax = plt.subplot(2, n, i + 1 + n)  
  77.     plt.imshow(decoded_imgs[i].reshape(2828))  
  78.     plt.gray()  
  79.     ax.get_xaxis().set_visible(False)  
  80.     ax.get_yaxis().set_visible(False)  
  81. plt.show()    


3. 卷积自编码器:用卷积层构建自编码器

当输入是图像时,使用卷积神经网络是更好的。卷积自编码器的编码器部分由卷积层和MaxPooling层构成,MaxPooling负责空域下采样。而解码器由卷积层和上采样层构成。50个epoch后,损失val_loss: 0.1018。


[python]  view plain  copy
  1. from keras.layers import Input, Convolution2D, MaxPooling2D, UpSampling2D    
  2. from keras.models import Model    
  3. from keras.datasets import mnist    
  4. import numpy as np    
  5. import matplotlib.pyplot as plt    
  6. from keras.callbacks import TensorBoard    
  7.   
  8. input_img = Input(shape=(28281))    
  9.     
  10. x = Convolution2D(16, (33), activation='relu', padding='same')(input_img)    
  11. x = MaxPooling2D((22), padding='same')(x)    
  12. x = Convolution2D(8, (33), activation='relu', padding='same')(x)    
  13. x = MaxPooling2D((22), padding='same')(x)    
  14. x = Convolution2D(8, (33), activation='relu', padding='same')(x)    
  15. encoded = MaxPooling2D((22), padding='same')(x)    
  16.     
  17. x = Convolution2D(8, (33), activation='relu', padding='same')(encoded)    
  18. x = UpSampling2D((22))(x)    
  19. x = Convolution2D(8, (33), activation='relu', padding='same')(x)    
  20. x = UpSampling2D((22))(x)    
  21. x = Convolution2D(16, (33), activation='relu')(x)    
  22. x = UpSampling2D((22))(x)    
  23. decoded = Convolution2D(1, (33), activation='sigmoid', padding='same')(x)    
  24.     
  25. autoencoder = Model(inputs=input_img, outputs=decoded)    
  26. autoencoder.compile(optimizer='adadelta', loss='binary_crossentropy')    
  27.     
  28. # 打开一个终端并启动TensorBoard,终端中输入 tensorboard --logdir=/autoencoder    
  29. autoencoder.fit(x_train, x_train, epochs=50, batch_size=256,    
  30.                 shuffle=True, validation_data=(x_test, x_test),    
  31.                 callbacks=[TensorBoard(log_dir='autoencoder')])    
  32.     
  33. decoded_imgs = autoencoder.predict(x_test)    


UpSampling2D

上采样,扩大矩阵,可以用于复原图像等。



keras.layers.convolutional.UpSampling2D(size=(2, 2), data_format=None)

将数据的行和列分别重复size[0]和size[1]次 



4. 使用自动编码器进行图像去噪

我们把训练样本用噪声污染,然后使解码器解码出干净的照片,以获得去噪自动编码器。首先我们把原图片加入高斯噪声,然后把像素值clip到0~1。

ps: 去噪自编码器(denoisingautoencoder, DAE)是一类接受损坏数据作为输入,并训练来预测原始未被损坏数据作为输出的自编码器。


[python]  view plain  copy
  1. #去噪 自编码器  
  2. from keras.layers import Input, Convolution2D, MaxPooling2D, UpSampling2D    
  3. from keras.models import Model    
  4. from keras.datasets import mnist    
  5. import numpy as np    
  6. import matplotlib.pyplot as plt    
  7. from keras.callbacks import TensorBoard    
  8.   
  9. (x_train, _), (x_test, _) = mnist.load_data()    
  10. x_train = x_train.astype('float32') / 255.    
  11. x_test = x_test.astype('float32') / 255.    
  12. x_train = np.reshape(x_train, (len(x_train), 28281))    
  13. x_test = np.reshape(x_test, (len(x_test), 28281))    
  14. noise_factor = 0.5    
  15. x_train_noisy = x_train + noise_factor * np.random.normal(loc=0.0, scale=1.0, size=x_train.shape)     
  16. x_test_noisy = x_test + noise_factor * np.random.normal(loc=0.0, scale=1.0, size=x_test.shape)     
  17. x_train_noisy = np.clip(x_train_noisy, 0.1.)  #[0.,1.]  
  18. x_test_noisy = np.clip(x_test_noisy, 0.1.)    
  19. print(x_train.shape)    
  20. print(x_test.shape)    
  21.   
  22. input_img = Input(shape=(28281))    
  23. x=Convolution2D(32,(3,3),activation='relu',padding='same')(input_img)  
  24. x=MaxPooling2D(pool_size=(2,2),padding='same')(x)  
  25. x=Convolution2D(32,(3,3),activation='relu',padding='same')(x)  
  26. encoded=MaxPooling2D(pool_size=(2,2),padding='same')(x)  
  27.   
  28. x=Convolution2D(32,(3,3),activation='relu',padding='same')(encoded)  
  29. x=UpSampling2D(size=(2,2))(x)  
  30. x=Convolution2D(32,(3,3),activation='relu',padding='same')(x)  
  31. x=UpSampling2D((2,2))(x)  
  32. decoded=Convolution2D(1,(3,3),activation='sigmoid',padding='same')(x)  
  33.   
  34. autoencoder=Model(inputs=input_img,outputs=decoded)  
  35. autoencoder.compile(optimizer='adam',loss='binary_crossentropy')  
  36. autoencoder.summary()  
  37.   
  38. # 打开一个终端并启动TensorBoard,终端中输入 tensorboard --logdir=/autoencoder    
  39. autoencoder.fit(x_train_noisy, x_train, epochs=10, batch_size=256,    
  40.                 shuffle=True, validation_data=(x_test_noisy, x_test),    
  41.                 callbacks=[TensorBoard(log_dir='autoencoder', write_graph=False)])    
  42.   
  43. decoded_imgs = autoencoder.predict(x_test_noisy)    
  44.   
  45. plt.figure(figsize=(30,6))  #设置 figure大小  
  46. n=10  
  47. for i in range(n):  
  48.     ax=plt.subplot(3,n,i+1)  # m表示是图排成m行,n表示图排成n列,p是指你现在要把曲线画到figure中哪个图上  
  49.     plt.imshow(x_test[i].reshape(28,28))  
  50.     plt.gray()               #只有黑白两色,没有中间的渐进色  
  51.     ax.get_xaxis().set_visible(False)      # X 轴不可见  
  52.     ax.get_yaxis().set_visible(False)      # y 轴不可见  
  53.       
  54.     ax=plt.subplot(3,n,i+1+n)  
  55.     plt.imshow(x_test_noisy[i].reshape(28,28))  
  56.     plt.gray()  
  57.     ax.get_xaxis().set_visible(False)  
  58.     ax.get_yaxis().set_visible(False)  
  59.       
  60.     ax=plt.subplot(3,n,i+1+2*n)  
  61.     plt.imshow(decoded_imgs[i].reshape(28,28))  
  62.     plt.gray()  
  63.     ax.get_xaxis().set_visible(False)  
  64.     ax.get_yaxis().set_visible(False)  
  65. plt.show()  
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值