常规数学建模比赛大杀器!tensorflow实现梯度下降,多元拟合

常规数学建模比赛大杀器!tensorflow实现梯度下降,多元拟合

代码:

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
ds=pd.read_csv('dateset.csv')    #导入dateset
x1=np.array(ds.iloc[:,1:5])   #读入data
y =np.array(ds.iloc[:,5])  #读入y数据
Y=y.reshape(-1,1)  #将y转置为(2000,1)
#设置训练集
trainx=x1[0:600][:]
trainy=Y[0:600][:]
#设置测试集
testx=x1[600:][:]
testy=Y[600:][:]
num_train=len(trainx)  #设定num_train用于后方增加一列同长度的一列 1做x0
num_test=len(testx)  #设定num_test用于后方增加一列同长度的一列 1做x0
xtrain=(trainx-trainx.min(axis=0))/(trainx.max(axis=0)-trainx.min(axis=0))  #进行线性归一化
ytrain=trainy  #让我的标签方式变得一致,嘻嘻嘻
xtest=(testx-testx.min(axis=0))/(testx.max(axis=0)-testx.min(axis=0))  #进行线性归一化
ytest=testy

x0_train=np.ones(num_train).reshape(-1,1)  #设定一列x0=1
x0_test=np.ones(num_test).reshape(-1,1)    #设定一列x0=1

Xtrain=tf.cast(tf.concat([x0_train,xtrain],axis=1),tf.float32)  #增加一列x0都为1使计算方便
Xtest=tf.cast(tf.concat([x0_test,xtest],axis=1),tf.float32)  #增加一列x0都为1使计算方便

Ytrain=tf.constant(ytrain,tf.float32)  #转化为tesor对象
Ytest=tf.constant(ytest,tf.float32)  #转化为tesor对象

learn_rate=0.4  #设置学习率
iter=2780   #设定迭代次数
display=20  #设置展示参数
np.random.seed(16)  #设置种子保证每次生成的随机数据相同
W=tf.Variable(np.random.randn(5,1),dtype=tf.float32)  #随机生成可训练variable W
mse_train=[]  #记录loss——train
mse_test=[]  #记录loss_test
for i in range(0,iter+1):
    with tf.GradientTape() as tape:  #利用tf的自动求导机制
        pred_train=tf.matmul(Xtrain,W)  #设定拟和函数
        loss_train=0.5*tf.reduce_mean(tf.square(Ytrain-pred_train))  #设定train损失函数
        
        
        pred_test=tf.matmul(Xtest,W)  #设定拟和函数
        loss_test=0.5*tf.reduce_mean(tf.square(Ytest-pred_test))  #设定test损失函数        
    mse_train.append(loss_train)  #记录train损失函数
    mse_test.append(loss_test)  #记录test损失函数
    
    dl_dw=tape.gradient(loss_train,W)  #求出train的梯度
    W.assign_sub(learn_rate*dl_dw)  #更新W_train
    if i % display==0:
        print("i: %d, trainloss: %f,testloss: %f"%(i,loss_train,loss_test))  #展示部分数据
print(W)
plt.figure()
#画出两个集的loss曲线
plt.plot(mse_train,color="g",linewidth=6)
plt.plot(mse_test,color="red",linewidth=2)
plt.figure()
#画出train的数
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用TensorFlow 2.0实现梯度下降的示例代码: ``` import tensorflow as tf # 定义训练数据 x_train = [1.0, 2.0, 3.0, 4.0] y_train = [2.0, 4.0, 6.0, 8.0] # 定义模型参数 W = tf.Variable(1.0) b = tf.Variable(1.0) # 定义模型 def model(x): return W * x + b # 定义损失函数 def loss(predicted_y, desired_y): return tf.reduce_mean(tf.square(predicted_y - desired_y)) # 定义训练函数 def train(x, y, learning_rate): with tf.GradientTape() as t: current_loss = loss(model(x), y) dW, db = t.gradient(current_loss, [W, b]) W.assign_sub(learning_rate * dW) b.assign_sub(learning_rate * db) # 训练模型 for epoch in range(100): for x, y in zip(x_train, y_train): train(x, y, learning_rate=0.01) current_loss = loss(model(x_train), y_train) print(f"Epoch {epoch}: Loss: {current_loss.numpy()}") # 测试模型 x_test = [5.0, 6.0, 7.0, 8.0] y_test = [10.0, 12.0, 14.0, 16.0] predicted_y = model(x_test) print(f"Predicted Y: {predicted_y.numpy()}") print(f"Desired Y: {y_test}") ``` 在这个例子中,我们使用TensorFlow 2.0实现了一个简单的线性回归模型,并使用梯度下降算法对其进行了训练。我们首先定义了训练数据,然后定义了模型参数W和b。接下来,我们定义了模型函数,它将输入x映射到输出y。然后,我们定义了损失函数,它将模型的预测输出y与真实输出y进行比较,并计算它们之间的平方差。最后,我们定义了一个训练函数,它使用梯度带自动计算模型参数W和b的梯度,并使用学习率更新它们。在训练过程中,我们迭代地将训练数据馈送给训练函数,直到达到指定的训练轮数。最后,我们使用训练好的模型对测试数据进行预测,并将预测结果与真实结果进行比较。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值