第二章.线性回归以及非线性回归—标准方程法

第二章.线性回归以及非线性回归

2.8 标准方程法

1.公式

1).代价函数:

在这里插入图片描述

2).累加平方和用矩阵表示:

在这里插入图片描述

2.对(𝑦 − 𝑋𝑤)𝑇(𝑦 − 𝑋𝑤)求导的两种布局方式:

1).分子布局(Numerator-layout)

  • 分子为列向量或者分母为行向量

2).分母布局(Denominator-layout)

  • 分子为行向量或者分母为列向量

  • 公式推导
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  • 维基百科中的求导公式:
    请添加图片描述

3.矩阵不可逆的情况:

  • 线性相关的特征(多重公用性)

在这里插入图片描述

  • 特征数据太多(样本数m<=特征数n)

4.梯度下降法VS标准方程法:

/梯度下降法标准方程法
优点当特征值非常多的时候也可以很好的工作1).不需要学习率; 2).不需要迭代; 3).可以得到全局最优解;
缺点1).需要选择合适的学习率; 2).需要迭代很多个周期; 3).只能得到最优解的近似值;1).需要计算(X T X)−1 ; 2).时间复杂度大约是O(n3),n是特征数量;

说明:sklearn中封装的线性回归模型是标准方程法,而不是梯度下降法

5.实战: 标准方程法

1).CSV中的数据:

  • data.xlsx
  • 上传文件为excel文件,需转换成csv文件使用

2).代码

import numpy as np
import matplotlib.pyplot as plt

# 加载数据
data = np.loadtxt('D:\\data\\data.csv', delimiter=',')
# 数据切片并增加一个维度
x_data = data[:, 0, np.newaxis]
y_data = data[:, 1, np.newaxis]

# 样本增加偏置项
X_data = np.concatenate((np.ones((100, 1)), x_data), axis=1)


# 标准方程法求解回归参数
def weights(xArr, yArr):
    xMat = np.mat(xArr)
    yMat = np.mat(yArr)
    # 矩阵乘法
    xTx = xMat.T * xMat
    # 判断该矩阵是否存在逆矩阵
    if np.linalg.det(xTx) == 0.0:
        print("This matrix cannot do inverse")
        return

    return xTx.I * xMat.T * yMat


ws = weights(X_data, y_data)
print('参数:', ws)

# 画图
x_test = np.array([[20], [80]])
y_test = x_test * ws[1] + ws[0]
plt.plot(x_data, y_data, 'b.')
plt.plot(x_test, y_test, 'r')
plt.show()

3).结果展示:

①.数据

在这里插入图片描述

②.图像

请添加图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值