TensorFlow介绍二-线性回归案例

一.案例步骤

1.准备数据集:y=0.8x+0.7  100个样本

2.建立线性模型,初始化w和b变量

3.确定损失函数(预测值与真实值之间的误差),均方误差

4.梯度下降优化损失

二.完整功能代码:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf

def linear_regression():
    """
    自实现线性回归
    :return: None
    """
    # 构造数据X为一百行一列
    X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
    # 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据
    y_true = tf.matmul(X, [[0.8]]) + 0.7
    # 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练
    weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
    bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
    # 构造预测值,使用X乘上更新后的变量w加上b
    y_predict = tf.matmul(X, weights) + bias
    # 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值
    error = tf.reduce_mean(tf.square(y_predict - y_true))
    # 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率
    optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)

    # 初始化变量
    init = tf.global_variables_initializer()

    with tf.Session() as sess:  # 会话
        # 运行初始化变量op
        sess.run(init)
        # 打印一下初始化的权重和偏置
        print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))
        # 开始训练,训练的次数越多越接近真实值
        for i in range(100):

            sess.run(optimizer)
            # 打印每一次更新后的权重,偏置,误差
            print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))

    return None

if __name__ == '__main__':
    linear_regression()

三.增加其他功能

1.增加命名空间

使代码结构更加清晰,Tensorboard图结构更加清楚,

使用tf.variable_scope方法,里面的名字自己定义

with tf.variable_scope("lr_model"):

2.收集变量

这样更容易观察参数的更新情况 

3.写入事件

使用tensorboard观察,在命令行中切换到事件所在文件目录,使用命令:

tensorboard --logdir="事件所在的文件目录"

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf

def linear_regression():
    """
    自实现线性回归
    :return: None
    """
    # 构造数据X为一百行一列
    with tf.variable_scope("original_data"):  # 表示正在创建数据

        X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
        # 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据
        y_true = tf.matmul(X, [[0.8]]) + 0.7

    with tf.variable_scope("linear_model"): # 初始化变量
        # 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练
        weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
        bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
        # 构造预测值,使用X乘上更新后的变量w加上b
        y_predict = tf.matmul(X, weights) + bias

    with tf.variable_scope("loss"):  # 确定误差
        # 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值
        error = tf.reduce_mean(tf.square(y_predict - y_true))

    with tf.variable_scope("gd_optimizer"):  # 构建优化器
        # 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率
        optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)

    # 收集变量
    tf.summary.scalar("error", error)
    tf.summary.histogram("weights", weights)
    tf.summary.histogram("bias", bias)

    # 合并变量
    merge=tf.summary.merge_all()

    # 初始化变量
    init = tf.global_variables_initializer()

    with tf.Session() as sess:  # 会话
        # 运行初始化变量op
        sess.run(init)
        # 打印一下初始化的权重和偏置
        print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))

        # 创建事件文件,将事件写入到ligdir中的目录中
        file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)

        # 开始训练,训练的次数越多越接近真实值
        for i in range(100):

            sess.run(optimizer)
            # 打印每一次更新后的权重,偏置,误差
            print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))

            # 运行合并变量op
            summary=sess.run(merge)
            file_writer.add_summary(summary,i)


    return None

if __name__ == '__main__':
    linear_regression()

 四.模型的保存和加载

tf.train.Saver(var_list=None,max_to_keep=5)

保存和加载模型(保存文件格式:checkpoint文件)
var_list:指定将要保存和还原的变量。它可以作为一个dict或一个列表传递.
max_to_keep:指示要保留的最近检查点文件的最大数量。创建新文件时,会删除较旧的文件。如果无或0,则保留所有检查点文件。默认为5(即保留最新的5个检查点文件。)

例如

# 指定目录+模型名字
# 保存
saver.save(sess, '/tmp/ckpt/test/myregression.ckpt')
# 加载
saver.restore(sess, '/tmp/ckpt/test/myregression.ckpt')

如果判断模型是否存在,直接指定目录

checkpoint = tf.train.latest_checkpoint("./tmp/model/")

saver.restore(sess, checkpoint)

五.命令行参数使用

1.tf.app.flags,它支持应用从命令行接收参数,可以用来指定集训配置等,在tf.app.flags下面各种定义参数的类型

2、 tf.app.flags.,在flags有一个FLAGS标志,它在程序中可以调用到我们

前面具体定义的flag_name

3.通过tf.app.run()启动main(argv)函数

# 定义一些常用的命令行参数
# 训练步数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
# 定义模型的路径
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")

# 定义获取命令行参数
FLAGS = tf.app.flags.FLAGS

# 开启训练
# 训练的步数(依据模型大小而定)
for i in range(FLAGS.max_step):
     sess.run(train_op)

六.完整代码

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf

# 模型保存
tf.app.flags.DEFINE_string("model_path", "./linear_regression/", "模型保存的路径和文件名")
FLAGS = tf.app.flags.FLAGS


def linear_regression():
    """
    自实现线性回归
    :return: None
    """
    # 构造数据X为一百行一列
    with tf.variable_scope("original_data"):  # 表示正在创建数据

        X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
        # 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据
        y_true = tf.matmul(X, [[0.8]]) + 0.7

    with tf.variable_scope("linear_model"): # 初始化变量
        # 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练
        weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
        bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)
        # 构造预测值,使用X乘上更新后的变量w加上b
        y_predict = tf.matmul(X, weights) + bias

    with tf.variable_scope("loss"):  # 确定误差
        # 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值
        error = tf.reduce_mean(tf.square(y_predict - y_true))

    with tf.variable_scope("gd_optimizer"):  # 构建优化器
        # 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率
        optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)

    # 收集变量
    tf.summary.scalar("error", error)
    tf.summary.histogram("weights", weights)
    tf.summary.histogram("bias", bias)

    # 合并变量
    merge=tf.summary.merge_all()

    # 初始化变量
    init = tf.global_variables_initializer()

    with tf.Session() as sess:  # 会话
        # 运行初始化变量op
        sess.run(init)
        # 打印一下初始化的权重和偏置
        print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))

        # 创建事件文件,将事件写入到ligdir中的目录中
        file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)

        # 开始训练,训练的次数越多越接近真实值
        for i in range(100):

            sess.run(optimizer)
            # 打印每一次更新后的权重,偏置,误差
            print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))

            # 运行合并变量op
            summary=sess.run(merge)
            file_writer.add_summary(summary,i)


    return None


def main(argv):
    print("这是main函数")
    print(argv)
    print(FLAGS.model_path)
    linear_regression()

if __name__ == '__main__':
    tf.app.run()

都看到这里了,点个赞呗!!!!!

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值