tensorflow 线性回归简单学习案例

9 篇文章 0 订阅
3 篇文章 0 订阅
import tensorflow.compat.v1 as tf
import os
#去除警告
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
#版本不兼容,加入此行
tf.compat.v1.disable_eager_execution()
#线性回归 深度学习案例
# y = w * x + b
#y = 0.8 * x +0.7
def linearregression():
    print(123)
    #各模块命名空间
    #数据模块
    #模型模块
    #损失模块
    with tf.variable_scope("original_data"):
        #假设100个 样本,每个样本有一个特征值
        #target也是对应100个样本,每个样本1个特征值,2维数组 比如[苹果,4元]
        # x[100,1]    * 0.8 + 0.7 = [100,1]
        #随机生成样本,均值0,平均正态分布
        x = tf.random_normal([100,1],mean=0.0,stddev=1.0, name = "original_data_x")
        #塑造y值,0.8权重必须是二维的,因为x输入二维的
        y_true = tf.matmul(x,[[0.8]]) + [[0.7]]

    #命名空间,线性回归模型模块
    with tf.variable_scope("Linear_Model"):
        #建立线性回归模型
        #w权重应该是二维的,一行一列    w[1,1]  b 1  b=bias偏倚
        #初始化w, b必须使用variable 运算OP,trainable代表可被训练
        #如果某些参数时候固定的,那就不需要被训练
        weights = tf.Variable(initial_value = tf.random_normal([1,1]),trainable = True, name='weights')
        bias = tf.Variable(initial_value = tf.random_normal([1,1]),trainable = True, name='bias')
        #建立预测模型,y预测时,矩阵相乘必须是二维的
        y_predict = tf.matmul(x,weights) + bias

    #命名空间:损失计算模块
    with tf.variable_scope("Loss"):
        #确定损失函数
        #预测值与真实值得误差  均方和误差 E(y_true - y_predict)^2 /样本数
        error = tf.reduce_mean(tf.square(y_true - y_predict))

    #命名空间:最优算法模块,梯度下降算法
    with tf.variable_scope("optimizer"):
        #梯度下降算法优化: 需指定学习率,超参数
        #不断优化,得到新的weights和bias
        #w2 = w1 - 学习率*(方向)
        #b2 = b1 - 学习率*(方向)
        optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01).minimize(error)


    #初始化变量op, 用到的variables都必须进行初始化
    init_op = tf.global_variables_initializer()

    with tf.Session() as sess:
        sess.run(init_op)
        #打印随机预测的损失值
        #print(sess.run([optimizer,weights,bias]))
        #
        # # 序列化graph至硬盘, 使用tensorboard图形可视化命令:tensorboard --logdir="./tmp/summary/"
        writer = tf.summary.FileWriter(logdir='./tmp/summary/',graph=sess.graph)

        #训练模型, 设置训练步长1000次
        for i in range(700):
            print("第%d次训练后,损失值为: "%i,sess.run(optimizer))
            print("此时权重和bias分别为: ", sess.run([weights,bias]))

    return None

if __name__ == '__main__':
    linearregression()

安装的是Anaconda3-2021.11-Windows-x86_64

python 3.9

tensorflow版本 tensorflow-2.8.0-cp39-cp39-win_amd64.whl

cuda版本cuda_11.6.1_511.65_windows

代码写完后执行训练700次结果:

使用tensorboard可视化,命令行:tensorboard --logdir="./tmp/summary/"

 

完成后按提示网址打开

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值