基于最小二乘法的线性回归

import numpy as np


def inverse_matrix(matrix):  # 利用svd分解求逆矩阵
    u, s, vh = np.linalg.svd(matrix, full_matrices=False)
    # print(u, s, vh)
    c = np.linalg.multi_dot([u * s, vh])
    inverse = np.linalg.multi_dot([vh.T * 1 / s, u.T])
    return inverse


test = [15, 12, 1]  # 训练集,注意最后一个维度的元素值一定为1
data = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10], [1, 5]]  # 训练集
label = [3, 7, 11, 15, 19, 6]  # 标签


def linear_regression(test, data, label):  # 最小而成求参数w,注意此w包含权重w和偏置b两部分
    y = np.array(label)
    x_test = np.array(test)
    x = np.array(data)
    x_1 = np.ones(x.shape[0])
    x = np.c_[x, x_1]
    # print(np.dot(x.T, x).shape, x.T.shape, y.T.shape)
    w = np.linalg.multi_dot([inverse_matrix(np.dot(x.T, x)), x.T, y.T])  # 核心公式,参考《机器学习》p.55的右下角公式
    f_x = np.dot(x_test.T, w)
    return f_x


print(linear_regression(test, data, label))  # 打印预测值

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值