二元线性回归的代码实现(python)

数据如下:

代码如下:

import copy
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd

# 读取excel 并将其向量化为训练数据集x y
data = pd.read_excel("D:\python\python_for_beginner\成本产量数据表.xlsx", head=None, index_col=None, usecols='B' )
x_train = np.asarray(data.stack())
print(x_train)
data = pd.read_excel("D:\python\python_for_beginner\成本产量数据表.xlsx", head=None, index_col=None, usecols='C' )
y_train = np.asarray(data.stack())
print(y_train)

# 开始实现线性回归
# 函数准备


# 线性拟合函数 返回函数值列表
def computer_model_output(x, w, b):
    m = x.shape[0]
    f_wb = np.zeros(m)
    for i in range(m):
        f_wb[i] = w * x[i] + b

    return f_wb


# 成本函数 返回总偏差
def compute_cost(x, y, w, b):
    m = x.shape[0]
    total_cost =0
    for i in range(m):
        total_cost = total_cost + ((w * x[i] + b )-y[i]) ** 2

    total_cost = (1/(2*m)) * total_cost
    return total_cost


# 梯度计算函数 返回成本函数分别对w,b的偏导
def compute_gradient(x, y, w, b):
    m = x.shape[0]
    dj_dw = 0
    dj_db = 0

    for i in range(m):
        f_wb = w * x[i] +b
        dj_dw_i = (f_wb - y[i]) * x[i]
        dj_db_i = f_wb - y[i]
        dj_dw += dj_dw_i
        dj_db += dj_db_i

    dj_dw = (1/m) * dj_dw
    dj_db = (1/m) * dj_db
    return dj_dw, dj_db


# 梯度下降函数 返回__次回归后w,b的值和此处梯度
def gradient_descent(x, y, w, b, alpha1, alpha2, iter_num, compute_gradient):
    w = copy.deepcopy(w)
    while iter_num:
        dj_dw, dj_db = compute_gradient(x, y, w, b)
        w = w - dj_dw * alpha1
        b = b - dj_db * alpha2
        iter_num -= 1

    return w, b, compute_gradient(x, y, w, b)


# 学习率设置
tmp_alpha1 = 0.00000005
tmp_alpha2 = 0.00009
# 迭代次数
iter_num = 500000
w_final, b_final, dj_dw = gradient_descent(x_train, y_train, 0, 0, tmp_alpha1, tmp_alpha2, iter_num, compute_gradient)
print(dj_dw)

# 拟合出的线性函数y值
tmp_f_wb = computer_model_output(x_train, w_final, b_final)
print(w_final)

# 使中文正常显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False


# 绘制出拟合曲线 和 训练集数据点
plt.plot(x_train, tmp_f_wb, c='b', label='Our Prediction')
plt.scatter(x_train, y_train, c='r', marker='x', s=50, label='Actual Value')
plt.title("成本产量关系预测图")
plt.xlabel("人工成本费(元)")
plt.ylabel("产量(公斤)")

# 显示
plt.legend()
plt.show()

运行结果如下:

为检测是否正常导入数据,梯度下降最终效果,下列输出分别为训练集数据x、训练集数据y、最终梯度(dj_dw, dj_db)、最终w。

拟合曲线如下(采用不同的学习率和迭代次数最终曲线会有不同,此代码为更好地拟合曲线采用了alpha1、alpha2两个学习率):

希望内容对你有所帮助!也期待大佬们的纠正!

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 二元线性回归是一种机器学习方法,用于建立两个变量之间的线性关系模型。在Python中,可以使用scikit-learn库来实现二元线性回归。 首先,导入必要的库: ```python from sklearn.linear_model import LinearRegression import numpy as np ``` 接下来,准备训练数据。假设有两个变量X和Y,它们的取值如下: ```python X = np.array([1, 2, 3, 4, 5]).reshape(-1, 1) Y = np.array([2, 3, 4, 5, 6]) ``` 然后,创建线性回归模型对象,并进行拟合: ```python model = LinearRegression() model.fit(X, Y) ``` 拟合后,我们可以获得线性回归模型的截距和斜率: ```python intercept = model.intercept_ slope = model.coef_ ``` 最后,我们可以使用模型进行预测: ```python prediction = model.predict(np.array([6]).reshape(-1, 1)) ``` 上述代码中,使用了reshape(-1, 1)来将一维数组转换为二维数组,以便适应线性回归模型的输入要求。 总结起来,通过导入必要的库,准备训练数据,创建线性回归模型,拟合数据,获取模型的截距和斜率,以及进行预测,就可以在Python实现二元线性回归。 ### 回答2: 二元线性回归是一种简单但常用的回归分析方法,用于研究两个变量之间的线性关系。在Python中,我们可以使用scikit-learn库中的线性回归模型来实现。 首先,我们需要导入必要的库: ``` from sklearn.linear_model import LinearRegression import numpy as np ``` 然后,我们需要准备我们的输入数据。假设我们有两个变量x和y,我们需要将它们存储在NumPy数组中: ``` x = np.array([1, 2, 3, 4, 5]) # 自变量x的取值 y = np.array([2, 4, 6, 8, 10]) # 因变量y的取值 ``` 接下来,我们需要将x转换为二维数组,以便将其传递给线性回归模型: ``` x = x.reshape(-1, 1) ``` 然后,我们可以创建一个线性回归模型的实例并进行拟合: ``` model = LinearRegression() model.fit(x, y) ``` 现在,我们的模型已经拟合了数据。我们可以使用该模型来进行预测,或者获取拟合的系数和截距: ``` predictions = model.predict(x) # 使用模型进行预测 coefficients = model.coef_ # 获取拟合的系数 intercept = model.intercept_ # 获取拟合的截距 ``` 最后,我们可以通过绘制图表来可视化拟合的结果: ``` import matplotlib.pyplot as plt plt.scatter(x, y) # 绘制散点图 plt.plot(x, predictions) # 绘制拟合的直线 plt.show() ``` 这样,我们就完成了用Python实现二元线性回归的过程。注意,这只是一个示例,实际情况下可能需要更多的数据和更复杂的模型来获得准确的结果。 ### 回答3: 二元线性回归是一种统计模型,通过寻找最佳拟合直线来建立自变量和因变量之间的关系。在Python中,我们可以使用scikit-learn库来进行二元线性回归分析。 首先,我们需要导入相关库的模块。可以使用以下代码示例: ```python import numpy as np from sklearn.linear_model import LinearRegression ``` 接下来,我们需要准备一些自变量和因变量的数据集。自变量数据集通常是一个矩阵,而因变量数据集是一个向量。可以使用NumPy库创建这些数据。例如: ```python X = np.array([[1], [2], [3], [4], [5]]) # 自变量数据集 y = np.array([3, 4.5, 6, 8, 8.5]) # 因变量数据集 ``` 然后,我们可以创建一个线性回归模型并进行训练。可以使用以下代码完成: ```python model = LinearRegression() # 创建线性回归模型 model.fit(X, y) # 使用训练数据进行模型拟合 ``` 拟合完成后,我们可以通过查看回归系数和截距来了解模型的拟合结果。可以使用以下代码示例: ```python print('回归系数:', model.coef_) # 输出回归系数 print('截距:', model.intercept_) # 输出截距 ``` 最后,我们可以使用训练好的模型对新的自变量数据进行预测。可以使用以下代码: ```python new_X = np.array([[6], [7], [8]]) # 新的自变量数据 prediction = model.predict(new_X) # 使用模型进行预测 print('预测结果:', prediction) # 输出预测结果 ``` 通过以上步骤,我们可以使用Python进行二元线性回归分析。希望以上解答对您有帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值