TensorFlow进行多元线性回归

设置四个输入x1,x2,x3,x4,y为输出,通过TensorFlow拟合得到各自系数。

自定义数据集,x1,x2,x3,x4为随机生成(0,1)之间的随机数,y为x1+x2+x3+x4+随机噪声。

x为(49,4)49行4列的数据,y为49行1列;初始参数w1【4,1】4行1列,b1位1行1列;损失函数为均方误差,每500轮打印一次。

代码如下:

import tensorflow as tf
import numpy as np

SEED = 23455

rdm = np.random.RandomState(seed=SEED)  # 生成[0,1)之间的随机数
x = rdm.rand(49, 4)  #生成49行4列的特征x
y_ = [[x1 + x2 +x3+x4+ (rdm.rand() / 10.0 - 0.05)] for (x1, x2, x3,x4) in x]  # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.05)
x = tf.cast(x, dtype=tf.float32)

w1 = tf.Variable(tf.random.normal([4, 1], stddev=1, seed=1))   #随机初始化参数w1,4行1列
b1 = tf.Variable(tf.random.normal([1], stddev=1, seed=1)) #xinjia

epoch = 15000   #数据集迭代15000
lr = 0.002

for epoch in range(epoch):
    with tf.GradientTape() as tape:
        y = tf.matmul(x, w1)+b1     #前向传播计算结果y   #
        loss_mse = tf.reduce_mean(tf.square(y_ - y))  #均方误差损失函数loss

    grads = tape.gradient(loss_mse, [w1,b1])   #损失函数对待训练参数w1求偏导   #
    w1.assign_sub(lr * grads[0])   #更新参数w1
    b1.assign_sub(lr * grads[1])  # 参数b自更新  #

    if epoch % 500 == 0:
        print("After %d training steps,w1 is " % (epoch))
        print(w1.numpy(), "\n")
print("Final w1 is: ", w1.numpy())
print("Final b1 is: ", b1.numpy())

多元线性回归是指有多个自变量的线性回归模型,它可以用来预测因变量和多个自变量之间的关系。在本文中,我们将使用TensorFlow实现多元线性回归模型。 1. 数据准备 我们将使用波士顿房价数据集来演示多元线性回归。该数据集包含506个样本,每个样本有13个自变量和一个因变量,即波士顿地区房价的中位数。我们可以使用sklearn库中的load_boston函数来加载数据集。 ```python from sklearn.datasets import load_boston boston = load_boston() X = boston.data y = boston.target ``` 2. 数据预处理 在进行多元线性回归之前,我们需要对数据进行预处理。首先,我们将数据集拆分为训练集和测试集。我们将80%的数据用于训练,20%的数据用于测试。 ```python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) ``` 接下来,我们需要对数据进行标准化处理,以便模型能够更好地拟合数据。我们可以使用sklearn库中的StandardScaler来标准化数据。 ```python from sklearn.preprocessing import StandardScaler scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) ``` 3. 模型构建 我们将使用TensorFlow来构建多元线性回归模型。我们首先需要定义模型的输入和输出。输入是一个包含13个特征的向量,输出是一个标量,表示房价的中位数。 ```python import tensorflow as tf inputs = tf.keras.layers.Input(shape=(X_train.shape[1],)) outputs = tf.keras.layers.Dense(1, activation=None)(inputs) model = tf.keras.models.Model(inputs=inputs, outputs=outputs) ``` 我们使用一个具有单个神经元的Dense层作为输出层。由于我们是进行回归任务,因此我们不需要使用激活函数。 4. 模型训练 在训练模型之前,我们需要定义损失函数和优化器。我们将使用均方误差作为损失函数,使用Adam优化器来更新模型参数。 ```python loss_fn = tf.keras.losses.MeanSquaredError() optimizer = tf.keras.optimizers.Adam(learning_rate=0.01) model.compile(optimizer=optimizer, loss=loss_fn) ``` 接下来,我们可以使用fit函数来训练模型。 ```python history = model.fit(X_train, y_train, epochs=100, validation_data=(X_test, y_test)) ``` 5. 模型评估 我们可以使用evaluate函数来评估模型在测试集上的性能。 ```python loss = model.evaluate(X_test, y_test) print("Mean squared error on test set:", loss) ``` 6. 模型预测 最后,我们可以使用predict函数来进行预测。 ```python y_pred = model.predict(X_test) # 可视化预测结果和真实值 import matplotlib.pyplot as plt plt.scatter(y_test, y_pred) plt.xlabel("True Values") plt.ylabel("Predictions") plt.show() ``` 以上就是使用TensorFlow实现多元线性回归的完整代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值