导入模块和数据
import numpy as np
import sklearn.preprocessing as prep
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
这里的自编码器采用Xavier initialization方法初始化参数,需要先定义好它。Xavier初始化器的特点是会根据某一层网络的输入、输出节点数量自动整合最合适的分布。使得初始化的权重不大不小,正好合适。从数学的角度分析,Xavier就是让权重满足0均值,同时方差为 2/(n[input] + n[output]),其中n为节点数,分布可以用均匀分布或高斯分布。
下面定义一个去噪自编码器的类,这个类包含构建函数init()和一些常用的成员函数。先看看构建函数init()。
init函数这样几个输入:n_input(输入变量数)、n_hidden(隐含层节点数)、transfer_function(隐含层激活函数,默认为softplus)、optimizer(优化器,默认为Adam)、scale(高斯噪音系数,默认为0.1)。其中,class中的scale参数做成了一个placeholder,参数初始化使用接下来定义的_initialize_weights函数。只使用一个隐含层。
class AdditiveGaussianNoiseAutoencoder(object):
def __init__(self, n_input, n_hidden, transfer_function=tf.nn.softplus,
optimizer=tf.train.AdamOptimizer(), scale=0.1):
self.n_input = n_input
self.n_hidden = n_hidden
self.transfer = transfer_function
self.scale = tf.placeholder(tf.float32)
self.training_scale = scale
network_weights = self._initialize_weights()
self.weights = network_weights
接下里开始定义网络结构,我们为输入x创建一个维度为n_input的placeholder。然后建立一个能提取特征的隐含层,先将x加上噪音,即 self.x+scale*tf.random_normal((n_input,)),然后用tf.mutmul将加了噪音的输入和隐含层的权重相乘,加上bias,最后使用transfer进行激活处理。经过隐含层后,我们要在输出层进行数据复原,重建操作(建立reconstruction层),这里不需要激活函数,直接将隐含层的s输出self.hidden乘以输出层的权重w2,加上bias2就好
self.x = tf.placeholder(tf.float32, [None, self.n_input])
self.hidden = self.transfer(tf.add(tf.matmul(self.x + scale * tf.random_normal((n_input,)),
self.weights["w1"]), self.weights["b1"]))
self.reconstruction = tf.add(tf.matmul(self.hidden, self.weights[