机器学习实战:TensorFlow模型的保存和读取

模型的保存:tf.train.Saver类中的save

在训练一个TensorFlow模型之后,可以将训练好的模型保存成文件,这样可以方便下一次对新的数据进行预测的时候直接加载训练好的模型即可获得结果,可以通过TensorFlow提供的tf.train.Saver函数,将一个模型保存成文件,一般习惯性的将TensorFlow的模型文件命名为*.ckpt文件。

模型的读取:tf.train.Saver类中的restore

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
#将参数固化到磁盘上
mnist = input_data.read_data_sets('data/', one_hot=True)
trainimg = mnist.train.images
trainlabel=mnist.train.labels
testimg=mnist.test.images[0:1500]#针对可能出现的分配超过系统内存的问题
testlabel=mnist.test.labels[0:1500]
print("MNIST Ready")

n_input = 784
n_output = 10
weights = {
    'wc1': tf.Variable(tf.random_normal([3, 3, 1, 64], stddev=0.1)),
    'wc2': tf.Variable(tf.random_normal([3, 3, 64, 128], stddev=0.1)),
    'wd1': tf.Variable(tf.random_normal([7*7*128, 1024], stddev=0.1)),
    'wd2': tf.Variable(tf.random_normal([1024, n_output], stddev=0.1))
}
biases = {
    'bc1': tf.Variable(tf.random_normal([64], stddev=0.1)),
    'bc2': tf.Variable(tf.random_normal([128], stddev=0.1)),
    'bd1': tf.Variable(tf.random_normal([1024], stddev=0.1)),
    'bd2': tf.Variable(tf.random_normal([n_output], stddev=0.1))
}


def conv_basic(_input, _w, _b, _keepratio):  # 卷积神经网络的前向传播
    # 对输入进行简单的预处理[n,h,w,c]-bitchsize大小,图像的高度、宽度,深度
    _input_r = tf.reshape(_input, shape=[-1, 28, 28, 1])  # -1意思是让TensorFlow自己做一个推断,确定了其他所有维,可推断出第一维
    
    '''
    tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
    除去name参数用以指定该操作的name,与方法有关的一共五个参数:
    第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,
    具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一
    第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,
    具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维
    第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4
    第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式
    第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true
    '''
    
    # "VALID" 仅舍弃最后列,或最后行的数据
    # "SAME" 尝试在数据左右均匀的填充0,若填充个数为奇数时,则将多余的填充值放数据右侧.
    _conv1 = tf.nn.conv2d(_input_r, _w['wc1'], strides=[1, 1, 1, 1], padding='SAME')
    _conv1 = tf.nn.relu(tf.nn.bias_add(_conv1, _b['bc1']))
    
    '''
    tf.nn.max_pool(value, ksize, strides, padding, name=None)
    参数是四个,和卷积很类似:
    第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape
    第二个参数ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个维度设为了1
    第三个参数strides:和卷积类似,窗口在每一个维度上滑动的步长,一般也是[1, stride, stride, 1]
    第四个参数padding:和卷积类似,可以取'VALID'或者'SAME'
    返回一个Tensor,类型不变,shape仍然是[batch, height, width, channels]这种形式
    '''
    
    _pool1 = tf.nn.max_pool(_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
    _pool1_dr1 = tf.nn.dropout(_pool1, _keepratio)  # _keepratio表示保留的比例
    _conv2 = tf.nn.conv2d(_pool1_dr1, _w['wc2'], strides=[1, 1, 1, 1], padding='SAME')
    _conv2 = tf.nn.relu(tf.nn.bias_add(_conv2, _b['bc2']))
    _pool2 = tf.nn.max_pool(_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
    _pool_dr2 = tf.nn.dropout(_pool2, _keepratio)
    
    # 全连接层——把输出转换为矩阵(向量)的形式
    _densel = tf.reshape(_pool_dr2, [-1, _w['wd1'].get_shape().as_list()[0]])
    _fc1 = tf.nn.relu(tf.add(tf.matmul(_densel, _w['wd1']), _b['bd1']))
    _fc_dr1 = tf.nn.dropout(_fc1, _keepratio)
    
    '''
    tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None)
     根据给出的keep_prob参数,将输入tensor x按比例输出。
     使用说明:
参数 keep_prob: 表示的是保留的比例,假设为0.820% 的数据变为0,然后其他的数据乘以 1/keep_prob;keep_prob 越大,保留的越多;
参数 noise_shape:干扰形状。    此字段默认是None,表示第一个元素的操作都是独立,但是也不一定。比例:数据的形状是shape(x)=[k, l, m, n],而noise_shape=[k, 1, 1, n],则第14列是独立保留或删除,第23列是要么全部保留,要么全部删除。
    '''
    
    _out = tf.add(tf.matmul(_fc_dr1, _w['wd2']), _b['bd2'])
    out = {'input_r': _input_r, 'conv1': _conv1, 'pool1': _pool1, 'pool1_dr1': _pool1_dr1,
           'conv2': _conv2, 'pool2': _pool2, 'pool_dr2': _pool_dr2, 'densel': _densel,
           'fc1': _fc1, 'fc_dr1': _fc_dr1, 'out': _out}
    return out


print("CNN READY")

x = tf.placeholder(tf.float32, [None, n_input])
y = tf.placeholder(tf.float32, [None, n_output])
keepratio = tf.placeholder(tf.float32)

_pred = conv_basic(x, weights, biases, keepratio)['out']
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=_pred, labels=y))
optm = tf.train.AdamOptimizer(learning_rate=0.001).minimize(cost)#优化器的选择
_corr = tf.equal(tf.argmax(_pred, 1), tf.argmax(y, 1))
accr = tf.reduce_mean(tf.cast(_corr, tf.float32))

init = tf.global_variables_initializer()

save_step=1
saver=tf.train.Saver(max_to_keep=3)

print("FUNCTIONS READY")

do_train=1
sess = tf.Session()
sess.run(init)

training_epochs = 15
batch_size = 16  # 示范,防止过慢
display_step = 1
#训练
if do_train ==1:
    for epoch in range(training_epochs):
        avg_cost = 0
        total_batch = 10  # 示范,防止过慢
        for i in range(total_batch):
            batch_xs, batch_ys = mnist.train.next_batch(batch_size)
            sess.run(optm, feed_dict={x: batch_xs, y: batch_ys, keepratio: 0.7})
            avg_cost += sess.run(cost, feed_dict={x: batch_xs, y: batch_ys, keepratio: 1.}) / total_batch
        if epoch % display_step == 0:
            print("Epoch: %03d/%03d cost: %.9f" % (epoch, training_epochs, avg_cost))
            train_acc = sess.run(accr, feed_dict={x: batch_xs, y: batch_ys, keepratio: 1.})
            print("Training accuracy: %.3f" % (train_acc))
        if epoch % save_step ==0:
            saver.save(sess,"save/nets/cnn_mnist_basic.ckpt-"+str(epoch))
print("FINISHED")

#测试
if do_train ==0:
    epoch=training_epochs -1
    saver.restore(sess,"save/nets/cnn_mnist_basic.ckpt-"+str(epoch))
    test_acc=sess.run(accr,feed_dict= {x:testimg ,y:testlabel ,keepratio:1.})
    print("TEST ACCURACY: %.3f"% (test_acc))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 机器学习实战:基于scikitlearn和tensorflow是一本介绍机器学习算法和工具的书籍。其中,scikitlearn和tensorflow是两个常用的机器学习库,分别用于传统机器学习和深度学习。本书通过实战案例,让读者了解机器学习的基本概念和应用方法,并学会如何使用这两个库进行机器学习任务的实现。该书适合有一定编程基础和机器学习基础的读者阅读。 ### 回答2: 《机器学习实战:基于scikitlearn和tensorflow》是一本介绍机器学习实战的经典教材,许多从事机器学习的学生和研究人员都借此书入门或深入研究。本书主要讲述了两个比较流行的机器学习框架:scikit-learn和TensorFlow。这两个框架都是目前主流的机器学习工具,可以帮助用户实现各种机器学习算法和模型。 除了介绍机器学习的基本概念和理论之外,本书还包含了大量的实战案例,帮助读者掌握机器学习的实际应用。其中,scikit-learn主要用于实现传统的机器学习算法,如回归、分类、聚类等。而TensorFlow则主要用于实现深度学习算法,如神经网络、卷积神经网络、循环神经网络等。 本书的主要内容包括:机器学习基础、Scikit-Learn实战TensorFlow入门、基于TensorFlow的深度学习实战等。在机器学习基础部分,作者介绍了机器学习的基本概念及分类,并讲述了数据预处理和特征提取方法。在Scikit-Learn实战部分,作者详细介绍了多种传统机器学习算法的原理和应用,并附带相应案例。在TensorFlow入门部分,作者讲解了TensorFlow的基本概念和使用方法,并介绍了常用的深度学习算法。在基于TensorFlow的深度学习实战部分,作者带领读者实现各种深度学习模型,并给出相应的应用案例。 除了介绍机器学习算法和框架,本书还强调了实践。作者详细讲述了各种实践技巧,并针对常见问题提供了解决方案。此外,本书还介绍了一些常用的优化方法和评价指标,帮助读者优化机器学习算法和模型。 总之,《机器学习实战:基于scikitlearn和tensorflow》是一本介绍机器学习实战的优秀教材,涵盖了机器学习的基础和实践技巧,可供初学者和专业人士参考。 ### 回答3: 机器学习是一种应用人工智能的方法,实现对大规模数据的分析和预测。机器学习算法以数据为输入,在经过处理、学习和优化后,可以生成预测模型。这些模型可以帮助机器理解数据,预测未来的趋势和结果。机器学习在社会和经济领域具有广泛的应用,如金融、医疗、交通、销售等。 Python 是一种高效和易学的编程语言,目前正变得比以往更受欢迎。scikitlearn 是 Python 的机器学习库,拥有丰富的算法和工具,用于处理和分析数据。TensorFlow 是谷歌的流行的机器学习框架,具有强大的计算能力和可扩展性,尤其适用于大规模数据的训练和预测。 《机器学习实战:基于scikitlearn和tensorflow》是一本介绍机器学习基础和相关算法的教材。本书首先讲解了机器学习的基本概念和工作原理,让读者了解数据和模型之间的关系。接下来,本书详细介绍了多种机器学习算法,包括支持向量机、决策树、朴素贝叶斯、神经网络等。每个算法都配有详细的代码实现和示例,读者可以根据需要自由调整代码和参数,以适应不同的数据集和问题。 此外,本书还介绍了如何使用 Python、scikitlearn 和 TensorFlow 进行数据处理、特征选择和模型评估。这些技能都对数据科学和机器学习工程师非常重要。读者也可以通过详细的示例学习如何进行数据预处理、数据集拆分、交叉验证和模型调整等。这些实践技能对于机器学习算法的应用和部署都十分重要。 总之,《机器学习实战:基于scikitlearn和tensorflow》是一本非常实用的机器学习教材,它通过丰富的实例和代码,带领读者深入理解机器学习算法和工作流程。这本书不仅可以帮助读者进一步探索机器学习领域,也可以作为初学者的学习指南,帮助他们掌握机器学习的基础知识和实践技能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值