机器学习模型:线性回归最小二乘法

最小二乘法

在这里插入图片描述

基于均方误差最小化进行模型求解的方法称为“最小二乘法”(least square method)
它的主要思想就是选择未知参数,使得理论值与观测值之差的平方和达到最小;

求解线性回归

在这里插入图片描述

代码实现

步骤:
1.导入数据,data.csv

#引用numpy和 matplotlib.pyplot模型
import numpy as np
import matplotlib.pyplot as plt
##1.导入数据,data.csv
# 导入csv文件数据
points = np.genfromtxt('data.csv', delimiter=',')
# 提取points中的两列数据,分别作为x,y
x = points[:, 0]
y = points[:, 1]

# 用plt画出散点图
plt.scatter(x, y)
plt.show()

在这里插入图片描述

2.定义损失函数

## 2.定义损失函数
#损失函数是系数的函数,另外还要传入数据的x,y
def  computer_cost(w,b,points):
    total_cost =0
    M =len(points)
    # 逐点计算平方损失误差,然后求平均数
    for i in range(M):
        x =points[i,0]
        y =points[i,1]
        total_cost +=(y-w*x-b)**2
        return total_cost

3.定义算法拟合函数

##3.定义算法拟合函数
#先定义一个求均值的函数
def average(data):
    sum =0
    num =len(data)
    for  i  in range(num):
        sum += data[i]
    return sum/num    

#定义核心拟合函数
def fit(points):
    M =len(points)
    x_bar =average(points[:,0])
    sum_yx =0
    sum_x2 =0
    sum_delta =0
    for i  in range(M):
        x =points[i,0]
        y =points[i,1]
        sum_yx += y * ( x - x_bar)
        sum_x2 += x ** 2 
    # 根据公式计算w
    w =  sum_yx/(sum_x2 -M *(x_bar ** 2))

    for i in range(M) :
        x =points[i,0]
        y =points[i,1]
        sum_delta += (y - w * x)
        b =sum_delta /M
    return w,b

4.测试

##4.测试 
w,b =fit(points)   
print("w is :",w)
print("b is :",b)
cost =computer_cost(w,b,points)
print ("cost is :",cost)

5.画出拟合曲线

##5.画出拟合曲线
plt.scatter(x,y)
pred_y =w*x +b

plt.plot(x,pred_y,c ='r')
plt.show()

在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值