【深度学习学习笔记】2.线性回归之一:最小二乘实现模型优化

原理:

最小二乘法即使经验风险最小化。
用平方损失函数衡量真实标签和预测标签的差异,经验风险函数 R ( x ) = 1 2 ∣ ∣ y − X T w ∣ ∣ 2 R(x)=\frac{1}{2}||y-X^Tw||^2 R(x)=21yXTw2, y y y是真实标签, X T w X^Tw XTw得到预测值。其对w的偏导数为 ∂ R ( w ) ∂ w = − X ( y − X T w ) \frac{∂R(w)}{∂w}=−X(y − X^Tw) wR(w)=X(yXTw)。令
∂ R ( w ) ∂ w = 0 \frac{∂R(w)}{∂w}=0 wR(w)=0得到最优的参数为 w ∗ = ( X X T ) − 1 X y w^*=(XX^T)^{-1}Xy w=(XXT)1Xy

特征矩阵X,标签y
在这里插入图片描述

数据集下载

参数优化公式:

w ∗ = ( X X T ) − 1 X y w^*=(XX^T)^{-1}Xy w=(XXT)1Xy

代码

import numpy as np
import matplotlib.pyplot as plt
def readdata(filename):
    # filename = './train.txt'
    with open(filename, "r") as f:  # 打开文件
        data = f.readlines()  # 读取文
    X = []
    Y = []
    for line in data:
        list = line.split()
        X.append(float(list[0]))
        Y.append(float(list[1]))
    X = np.array(X)
    Y = np.array(Y)
    return X, Y

最小二乘法核心代码

def Leastsq(X, Y):
    # w∗ = (X·X转置)逆· X· y,
    # 其中X矩阵是n个样本点矩阵下面新增一行1
    array_1 = np.ones(len(X))
    X = np.vstack((X.T, array_1.T))

    w = np.dot(np.dot(np.linalg.inv(np.dot(X, X.T)), X), Y)

    return w
def main(X,Y):
    # train_file = './train.txt'
    # X, Y = readdata(train_file)

    w = Leastsq(X, Y)
    k = w[0]
    b = w[1]
    def f(x):
        y = k * x + b
        return y
    return f
def evaluate(ys, ys_pred):
    """评估模型。"""
    std = np.sqrt(np.mean(np.abs(ys - ys_pred) ** 2))
    return std
# 程序主入口(建议不要改动以下函数的接口)
if __name__ == '__main__':
    train_file = 'train.txt'
    test_file = 'test.txt'
    # 载入数据
    x_train, y_train = readdata(train_file)
    x_test, y_test = readdata(test_file)
    print(x_train.shape)
    print(x_test.shape)

    # 使用线性回归训练模型,返回一个函数f()使得y = f(x)
    f = main(x_train, y_train)

    y_train_pred = f(x_train)
    std = evaluate(y_train, y_train_pred)
    print('训练集预测值与真实值的标准差:{:.1f}'.format(std))

    # 计算预测的输出值
    y_test_pred = f(x_test)
    # 使用测试集评估模型
    std = evaluate(y_test, y_test_pred)
    print('预测值与真实值的标准差:{:.1f}'.format(std))

结果可视化

   
    plt.plot(x_train, y_train, 'ro', markersize=3)
    plt.plot(x_test, y_test)
    plt.plot(x_test, y_test_pred, 'k')
    plt.xlabel('x')
    plt.ylabel('y')
    plt.title('Linear Regression')
    plt.legend(['train', 'test', 'pred'])
    plt.show()

运行结果:

(300,)
(200,)
训练集预测值与真实值的标准差:2.0
预测值与真实值的标准差:2.2
在这里插入图片描述

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值