深度学习 | 实战6-利用tensorboard实现卷积可视化

————————————————————————————
原文发表于夏木青 | JoselynZhao Blog,欢迎访问博文原文
————————————————————————————

Github源码

深度学习教程与实战案列系列文章


深度学习 | 绪论
深度学习 | 线性代数基础
深度学习 | 机器学习基础
深度学习 | 实践方法论
深度学习 | 应用
深度学习 | 安装conda、opencv、pycharm以及相关问题
深度学习 | 工具及实践(TensorFlow)
深度学习 | TensorFlow 命名机制和变量共享、变量赋值与模型封装
深度学习 | TFSlim介绍
深度学习 | TensorFlow可视化
深度学习 | 训练及优化方法
深度学习 | 模型评估与梯度下降优化
深度学习 | 物体检测
深度学习| 实战1-python基本操作
深度学习 | 实战2-TensorFlow基础
深度学习 | 实战3-设计变量共享网络进行MNIST分类
深度学习 | 实战4-将LENET封装为class,并进行分类
深度学习 | 实战5-用slim 定义Lenet网络,并训练测试
深度学习 | 实战6-利用tensorboard实现卷积可视化
深度学习 | 实战7- 连体网络MINIST优化
深度学习 | 实战8 - 梯度截断
深度学习 | 实战9- 参数正则化


要求

卷积可视化:

在Lenet中,分别使用ReLU及sigmoid激活函数,观察不同情况下,Lenet学习MNIST分类时,参数的变化。

并在最终训练好Lenet的情况下,观察分类操作前的最后一个全连接层fc2的84位特征向量,比较不同类型样本的fc2特征图。

要求:提交代码,文档。文档包括可视化截图。

(1)tensorboard可视化包括:loss, acc, w、b参数的分布, 卷积核、全连接矩阵的参数可视化,至少比较2种情况:[ReLU, sigmoid] 。

有兴趣可以尝试分别使用GradientDescentOptimizer 和AdamOptimizer的效果。

(2)fc2特征图不用tensorboard显示,plot绘出即可:

在模型训练好的情况下:绘制10个数字类型的fc2特征图,

每个类型一张fc2图,共10张fc2图:

每一张fc2图由同类型的100个不同样本的fc2特征按行拼接组成。

例如数字3的fc2特征图,由100个不同的数字3样本的fc2特征按行拼接组成。

故一张fc2图的大小为:100(行)*84(列)。

实验与结果

运行截图

图 1 程序运行截图
在这里插入图片描述
图1 右上角为分类操作前的最后一个全连接层fc2的84位特征向量,其样本数字为3.

全连接层fc2的84位特征图的实现

图 2 get_sample100()的实现
在这里插入图片描述
通过get_sample100(label)获取100个同一数字的不同样本。参数lable取0-9,分别表示数字0-9。

图 3 get_sample100()的调用

在这里插入图片描述

不同激活函数的控制实现

图 4 _activation_way()的实现
在这里插入图片描述
在封装的Lenet类中,实现了一个关于选用哪一个激活函数的方法。这个_activation_way()在_build_network_graph()执行过程中凡是需要用到激活函数的地方都将被调用。

图 5 _build_network_graph()的改进实现

在这里插入图片描述

[Relu]Tensorboard可视化loss, acc, w、b参数的分布

图 6 [Relu] w和b 的可视化
在这里插入图片描述
图 7 [Relu] loss和accuracy的可视化

在这里插入图片描述

[Relu]卷积核、全连接矩阵的参数可视化

图 8 [Relu] 第一层卷积核55, 共六个
在这里插入图片描述
图 9 [Relu] 第二层卷积核 5
5,共16个
在这里插入图片描述
图 10 [Relu] 三个全连接层的参数可视化
在这里插入图片描述

[sigmoid]Tensorboard可视化loss, acc, w、b参数的分布

图 11 [sigmoid] w和b的可视化
在这里插入图片描述
图 12 [sigmoid] loss和accuracy的可视化
在这里插入图片描述

[sigmoid]卷积核、全连接矩阵的参数可视化

图 13 [sigmoid] 第一层卷积核5*5, 共六个
在这里插入图片描述

图 14 [sigmoid] 第二层卷积核 5*5,共16个

在这里插入图片描述
图 15 [sigmoid] 三个全连接层的参数可视化

在这里插入图片描述

[Relu]全连接层fc2的84位特征图

图 16 :[Relu]100个不同的数字3 对应全连接层fc2的84位特征图
在这里插入图片描述
图 17 :[Relu]100个不同的数字4 对应全连接层fc2的84位特征图

在这里插入图片描述

[sigmoid]全连接层fc2的84位特征图

图 18 [sigmoid]100个不同的数字3 对应全连接层fc2的84位特征图
在这里插入图片描述
图 19 [sigmoid]100个不同的数字4 对应全连接层fc2的84位特征图

在这里插入图片描述

源码展示

LENET

class Lenet():
    def __init__(self,mu,sigma,lr=0.02,act = 'relu'):
        self.mu = mu
        self.sigma = sigma
        self.lr = lr
        self.activation = act  # 默认是relu
        self._build_graph()

    def _build_graph(self,network_name = "Lenet"):
        self._setup_placeholders_graph()
        self._build_network_graph(network_name)
        self._compute_loss_graph()
        self._compute_acc_graph()
        self._create_train_op_graph()

    def _setup_placeholders_graph(self):
        self.x  = tf.placeholder("float",shape=[None,32,32,1],name='x')
        self.y_ = tf.placeholder("float",shape = [None,10],name ="y_")

    def _cnn_layer(self,scope_name,W_name,b_name,x,filter_shape,conv_stride,padding_tag="VALID",reuse=False):
        with tf.variable_scope(scope_name) as scope:
            if reuse:
                scope.reuse_variables()
            conv_W = tf.Variable(tf.truncated_normal(shape=filter_shape, mean=self.mu, stddev=self.sigma), name=W_name)
            conv_b = tf.Variable(tf.zeros(filter_shape[3]),name=b_name)
            conv = tf.nn.conv2d(x, conv_W, strides=conv_stride, padding=padding_tag) + conv_b
            tf.summary.histogram("weights",conv_W)
            tf.summary.histogram("biases",conv_b)
            self._conv_visual(conv,conv_W,filter_shape)  #可视化
            return conv

    def _pooling_layer(self,scope_name,x,pool_ksize,pool_strides,padding_tag="VALID",reuse=False):
        with tf.variable_scope(scope_name) as scope:
            if reuse:
                scope.reuse_variables()
            pool = tf.nn.max_pool(x, ksize=pool_ksize, strides=pool_strides, padding=padding_tag)
            return pool

    def _fully_connected_layer(self,scope_name,W_name,b_name,x,W_shape,reuse=False):
        with tf.variable_scope(scope_name) as scope:
            if reuse:
                scope.reuse_variables()
            fc_W = tf.Variable(tf.truncated_normal(shape=W_shape, mean=self.mu, stddev=self.sigma),name=W_name)
            fc_b = tf.Variable(tf.zeros(W_shape[1]),name=b_name)
            fc = tf.matmul(x, fc_W) + fc_b
            tf.summary.histogram("weights",fc_W)
            tf.summary.histogram("biases",fc_b)
            self._full_visual(fc_W,W_shape)  #可视化
            return fc

    def _build_network_graph(self,scope_name="Lenet"):
        with tf.variable_scope(scope_name):
            conv1 =self._cnn_layer("conv1","w1","b1",self.x,[5,5,1,6],[1, 1, 1, 1])
            self.conv1 = self._activation_way(conv1)
            self.pool1 = self._pooling_layer("pool1",self.conv1,[1, 2, 2, 1],[1, 2, 2, 1])

            conv2 = self._cnn_layer("conv2","w2","b2",self.pool1,[5,5,6,16],[1, 1, 1, 1])
            self.conv2 = self._activation_way(conv2)
            self.pool2 = self._pooling_layer("pool2",self.conv2,[1, 2, 2, 1],[1, 2, 2, 1])

            self.fc0 = self._flatten(self.pool2)

            fc1 = self._fully_connected_layer("fc1","wfc1","bfc1",self.fc0,[400,120])
            self.fc1 = self._activation_way(fc1)

            fc2 = self._fully_connected_layer("fc2","wfc2","bfc2",self.fc1,[120,84])
            self.fc2 = self._activation_way(fc2)

            self.y = self._fully_connected_layer("fc3","wfc3","bfc3",self.fc2,[84,10])
            tf.summary.histogram("ypredict",self.y)

    def _activation_way(self,layer):
        if (self.activation == "relu"):
            layer = tf.nn.relu(layer)
        elif (self.activation =="sigmoid"):
            layer = tf.nn.sigmoid(layer)
        return layer #返回激活后的层


    def _flatten(self,conv):
        conv1 = tf.reshape(conv, [-1, 400])
        return conv1

    def _compute_loss_graph(self):
        with tf.name_scope("loss_function"):
            loss = tf.nn.softmax_cross_entropy_with_logits(labels = self.y_,logits = self.y)
            self.loss = tf.reduce_mean(loss)
            tf.summary.scalar("loss",self.loss)

    def _compute_acc_graph(self):
        with tf.name_scope("acc_function"):
            correct_prediction = tf.equal(tf.argmax(self.y,1),tf.argmax(self.y_,1))
            self.accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
            tf.summary.scalar("accuracy", self.accuracy)

    def _create_train_op_graph(self):
        with tf.name_scope("train_function"):
            self.cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=self.y,labels=self.y_))
            self.train_step = tf.train.AdamOptimizer(self.lr).minimize(self.cross_entropy)
            tf.summary.scalar("cross_entropy",self.cross_entropy)

    def _conv_visual(self,conv,conv_W, filter_shape):
        with tf.name_scope('visual'):
            x_min = tf.reduce_min(conv_W)  #不清楚这个是什么意思
            x_max = tf.reduce_max(conv_W)
            kernel_0_to_1 = (conv_W - x_min) / (x_max - x_min)

            kernel_transposed = tf.transpose(kernel_0_to_1, [3, 2, 0, 1])
            conv_W_img = tf.reshape(kernel_transposed, [-1, filter_shape[0], filter_shape[1], 1])
            tf.summary.image('conv_w', conv_W_img, max_outputs=filter_shape[3])
            feature_img = conv[0:1, :, :, 0:filter_shape[3]]
            feature_img = tf.transpose(feature_img, perm=[3, 1, 2, 0])
            tf.summary.image('feature_conv', feature_img, max_outputs=filter_shape[3])

    def _full_visual(self,fc_W, W_shape):
        with tf.name_scope('visual'):
            x_min = tf.reduce_min(fc_W)
            x_max = tf.reduce_max(fc_W)
            kernel_0_to_1 = (fc_W - x_min) / (x_max - x_min)

            fc_W_img = tf.reshape(kernel_0_to_1, [-1, W_shape[0], W_shape[1], 1])
            tf.summary.image('fc_w', fc_W_img, max_outputs=1)

main

mnist = input_data.read_data_sets('../../../data/mnist', one_hot=True)
x_test = np.reshape(mnist.test.images, [-1, 28, 28, 1])
x_test = np.pad(x_test, ((0, 0), (2, 2), (2, 2), (0, 0)),
                'constant')  # print("Updated Image Shape: {}".format(X_train[0].shape))
tf.logging.set_verbosity(old_v)


iteratons = 2000
batch_size = 64
ma = 0
sigma = 0.1
lr = 0.01


def get_sample100(label):
    sample100_x=[]
    sample100_y=[]
    count = 0
    for i in range(len(mnist.test.images)):
        if mnist.test.labels[i][label]==1:
            count+=1
            sample100_y.append(mnist.test.labels[i])
            sample100_x.append(mnist.test.images[i])
        if count>=100:
            break
    return sample100_x,sample100_y


def train_lenet(lenet):
    with tf.Session() as sess:  
        sess.run(tf.global_variables_initializer())

        tf.summary.image("input",lenet.x,3)
        merged_summary = tf.summary.merge_all()

        writer = tf.summary.FileWriter("LOGDIR/4/",sess.graph)  # 保存到不同的路径下
        # writer.add_graph(sess.graph)
        for ii in range(iteratons):
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            batch_xs = np.reshape(batch_xs,[-1,28,28,1])
            batch_xs = np.pad(batch_xs,((0, 0), (2, 2), (2, 2), (0, 0)), 'constant')
            sess.run(lenet.train_step,feed_dict ={lenet.x:batch_xs,lenet.y_:batch_ys})
            if ii % 50 == 1:
                acc,s = sess.run([lenet.accuracy,merged_summary],feed_dict ={lenet.x:x_test,lenet.y_:mnist.test.labels})
                writer.add_summary(s,ii)
                print("%5d: accuracy is: %4f" % (ii, acc))
        sample100_x,sample100_y = get_sample100(4) #随便选了一个label 输入0-9的值
        sample100_x = np.reshape(sample100_x,[-1,28,28,1])
        sample100_x = np.pad(sample100_x, ((0, 0), (2, 2), (2, 2), (0, 0)), 'constant')
        x_min = tf.reduce_min(lenet.fc2)
        x_max = tf.reduce_max(lenet.fc2)
        fc2 = (lenet.fc2 - x_min) / (x_max - x_min)
        fc2 = sess.run(fc2,feed_dict={lenet.x:sample100_x,lenet.y_:sample100_y})
        plt.imshow(fc2)
        plt.show()

        print('[accuracy,loss]:', sess.run([lenet.accuracy], feed_dict={lenet.x:x_test,lenet.y_:mnist.test.labels}))


if __name__ =="__main__":
    act = "sigmoid" #或者act =“relu”
    lenet = Lenet(ma,sigma,lr,act)
    train_lenet(lenet)
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Matlab可以通过使用空洞卷积实现图像复原。空洞卷积是一种卷积操作,它在卷积核内部引入了一些空洞(也称为膨胀率或孔径),从而增加了感受野的大小。这种方法可以用于图像复原任务,例如去噪、去模糊等。 在Matlab中,可以使用以下步骤来实现空洞卷积图像复原: 1. 导入图像:使用imread函数将需要复原的图像导入到Matlab中。 2. 创建空洞卷积核:使用imfilter函数创建一个空洞卷积核。可以通过设置'imfilter'函数的'style'参数为'hole'来指定使用空洞卷积。 3. 进行空洞卷积:使用imfilter函数将导入的图像与创建的空洞卷积核进行卷积操作。可以通过设置'imfilter'函数的'convolution'参数为'full'来保持输出图像的大小与输入图像相同。 4. 图像复原:根据具体的图像复原任务,可以选择不同的空洞卷积核和参数来实现图像复原。例如,可以使用空洞卷积核进行去噪操作,或者使用不同的空洞卷积核进行图像去模糊。 下面是一个示例代码,演示了如何使用空洞卷积实现图像去噪: ```matlab % 导入图像 image = imread('input_image.jpg'); % 创建空洞卷积核 hole_kernel = fspecial('gaussian', [5 5], 2); % 进行空洞卷积 filtered_image = imfilter(image, hole_kernel, 'conv', 'full'); % 显示原始图像和复原后的图像 figure; subplot(1, 2, 1); imshow(image); title('Original Image'); subplot(1, 2, 2); imshow(filtered_image); title('Filtered Image'); % 保存复原后的图像 imwrite(filtered_image, 'filtered_image.jpg'); ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_Summer tree

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值