CNN框架tflearn处理mnist代码

1、过程详解
(1)卷积核大小为33数量为32的卷积处理。*
(2)池化大小为22的池化处理。
(3)卷积核大小为3
3数量为64的卷积处理。
(4)池化大小为2*2的池化处理以及最后的全连接处理。
(5)最后得到长度为10的一维张量,对应正好是图像识别后的结果,即数字0~9。
2、完成的处理流程图
在这里插入图片描述
3、代码

import tflearn
from tflearn.layers.core import input_data, dropout, fully_connected
from tflearn.layers.conv import conv_2d, max_pool_2d
from tflearn.layers.normalization import local_response_normalization
from tflearn.layers.estimator import regression

# Data loading and preprocessing
import tflearn.datasets.mnist as mnist

import tflearn.datasets.oxflower17 as oxflower17


def cnn():
    X, Y, testX, testY = mnist.load_data(one_hot=True)  #tflearn自带mnist数据集
    X = X.reshape([-1, 28, 28, 1])
    testX = testX.reshape([-1, 28, 28, 1])

    # Building convolutional network
    network = input_data(shape=[None, 28, 28, 1], name='input')  #输入张量28*28*1
    network = conv_2d(network, 32, 3, activation='relu', regularizer="L2")  #卷积处理3*3*32
    network = max_pool_2d(network, 2)  #池化处理2*2
    network = local_response_normalization(network)  #标准化张量
    network = conv_2d(network, 64, 3, activation='relu', regularizer="L2")   #卷积处理3*3*64
    network = max_pool_2d(network, 2)    #池化处理2*2
    network = local_response_normalization(network)
    network = fully_connected(network, 128, activation='tanh')  #128个节点的全连接
    network = dropout(network, 0.8)   #dropout层
    network = fully_connected(network, 256, activation='tanh')
    network = dropout(network, 0.8)
    network = fully_connected(network, 10, activation='softmax')  
    network = regression(network, optimizer='adam', learning_rate=0.01,
                         loss='categorical_crossentropy', name='target')

    # Training
    model = tflearn.DNN(network, tensorboard_verbose=0)
    model.fit({'input': X}, {'target': Y}, n_epoch=20,
               validation_set=({'input': testX}, {'target': testY}),
               snapshot_step=100, show_metric=True, run_id='cnn_demo')

4、代码解析
关于conv_2d卷积函数,在源码里是可以看到总共有14个参数,分别如下:
1.incoming: 输入的张量,形式是[batch, height, width, in_channels]
2.nb_filter: filter的个数
3.filter_size: filter的尺寸,是int类型
4.strides: 卷积操作的步长,默认是[1,1,1,1]
5.padding: padding操作时标志位,“same"或者"valid”,默认是“same”
6.activation: 激活函数(ps:这里需要了解的知识很多,会单独讲)
7.bias: bool量,如果True,就是使用bias
8.weights_init: 权重的初始化
9.bias_init: bias的初始化,默认是0,比如众所周知的线性函数y=wx+b,其中的w就相当于weights,b就是bias
10.regularizer: 正则项(这里需要讲解的东西非常多,会单独讲)
11.weight_decay: 权重下降的学习率
12.trainable: bool量,是否可以被训练
13.restore: bool量,训练的模型是否被保存
14.name: 卷积层的名称,默认是"Conv2D"

关于max_pool_2d池化函数,在源码里有5个参数,分别如下:
1.incoming ,类似于conv_2d里的incoming
2.kernel_size:池化时核的大小,相当于conv_2d时的filter的尺寸
3.strides:类似于conv_2d里的strides
4.padding:同上
5.name:同上

卷积过程:提取特征,发掘图片局部关联性质和空间不变性质,卷积处理后的图像大小与卷积核的大小无关,仅与步长有关。
在这里插入图片描述
池化过程:图像一个区域上的某个特定特征的平均值(或最大值),执行降采样操作。
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值