TensorFlow 神经网络过拟合处理方法

TensorFlow 神经网络过拟合处理方法

概述

机器学习在训练模型时,难免会出现过拟合现象,一般是模型越复杂过拟合的可能性越高,特别是对于神经网络这种涉及非凸函数优化的模型。解决方案一般有:增加训练数据量;正则化以及Dropout。
增加训练集数据量很好理解了,数据的量是比模型重要的;
正则化相当于给模型增加了一个先验策略,用的比较多的是L1和L2正则;
Dropout方法是在神经网络模型中较普遍的方法,采取的方案是在模型训练中随机关闭部分神经元,使部分神经元失效,此外Dropou还有其他相关操作,后面遇到了再做说明。

说明

代码中就手写数字的识别问题进行研究,MNIST中数据都被处理成了14*56的二值图,所以在构建神经网络时间将784个像素点作为输入,所以输入层需要设置784个神经元,输出端设置了10个神经元对应10个类别。此外代码中为了增加模型的复杂度,增设了2个隐藏增,每层神经元个数分别为2000和1000。

代码

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

#载入数据集
mnist=input_data.read_data_sets("MNIST.data",one_hot=True)

#定义每个批次的大小
batch_size=100

#计算一共有多少个批次
n_batch=mnist.train.num_examples//batch_size


#定义两个placeholder
x=tf.placeholder(tf.float32,[None,784])
y=tf.placeholder(tf.float32,[None,10])
keep_prob=tf.placeholder(tf.float32)


#创建神经网络
W1=tf.Variable(tf.truncated_normal([784,2000],stddev=0.1))
b1=tf.Variable(tf.zeros([2000]))
L1=tf.nn.tanh(tf.matmul(x,W1)+b1)
L1_drop=tf.nn.dropout(L1,keep_prob)


W2=tf.Variable(tf.truncated_normal([2000,2000],stddev=0.1))
b2=tf.Variable(tf.zeros([2000])+0.1)
L2=tf.nn.tanh(tf.matmul(L1_drop,W2)+b2)
L2_drop=tf.nn.dropout(L2,keep_prob)

W3=tf.Variable(tf.truncated_normal([2000,1000],stddev=0.1))
b3=tf.Variable(tf.zeros([1000])+0.1)
L3=tf.nn.tanh(tf.matmul(L2_drop,W3)+b3)
L3_drop=tf.nn.dropout(L3,keep_prob)

W4=tf.Variable(tf.truncated_normal([1000,10],stddev=0.1))
b4=tf.Variable(tf.zeros([10])+0.1)
prediction=tf.nn.softmax(tf.matmul(L3_drop,W4)+b4)

#定义二次代价函数
loss=tf.reduce_mean(tf.square(y-prediction))

#使用梯度下降法
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#初始化变量
ini=tf.global_variables_initializer()

#测试模型准确率,结果存放在一个bool型列表中
correct_prediction=tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一维张量中最大值所在的位置

#求准确率
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))#cast函数是转化类型

with tf.Session() as sess:
    sess.run(ini)
    for epoch in range(21):
        for batch in range(n_batch):
            
            batch_xs,bathc_ys=mnist.train.next_batch(batch_size)
            
            sess.run(train_step,feed_dict={x:batch_xs,y:bathc_ys,keep_prob:1.0})
            
        acc=sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels,keep_prob:1.0})
        
        print("Iter"+str(epoch)+"accurency"+str(acc))

代码解释

该代码在之前的博客中已经有所说明,这次只说明一下之前博客中没有提到的方法。

tensorflow.nn.dropout():该对象定义了神经元post-activation层的激活比例,激活比例小于等于1.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值