sklearn笔记30手写代码实现线性回归

完整代码 sklearn代码22 3-手写代码实现线性回归

import numpy as np

import matplotlib.pyplot as plt
%matplotlib inline

from sklearn.linear_model import LinearRegression
X = np.linspace(2,10,20).reshape(-1,1)

# f(x) = wx +b
y = np.random.randint(1,6,size = 1)*X + np.random.randint(-5,5,size =1)

# 噪声,加盐

y += np.random.randn(20,1)*0.5

plt.scatter(X,y,color = 'red')

在这里插入图片描述
*0.25时,波动不明显
在这里插入图片描述
*1时,波动十分剧烈
在这里插入图片描述

对数据进行拟合,让线尽量经过点的中间位置
在这里插入图片描述
使用线性回归去计算

lr = LinearRegression()
lr.fit(X,y)

w = lr.coef_[0,0]
b = lr.intercept_[0]
print(w,b)

在这里插入图片描述

plt.scatter(X,y)

x = np.linspace(1,11,50)

plt.plot(x,w*x + b,color = 'green')

在这里插入图片描述
自定义线性回归模型并计算结果

# 使用梯度下降解决一元一次的线性问题:w,b
class LinearModel(object):
    def __init__(self):
        self.w = np.random.randn(1)[0]
        self.b = np.random.randn(1)[0]
#         数学建模:将数据X和目标值关系用数学公式来表达
    def model(self,x):    # model模型 f(x) = wx + b
        return self.w*x + b
    def loss(self,x,y):   #最小二乘法
        cost = (y - self.model(x))**2
#         偏导数,求解两个未知数:w,b
        gradient_w = 2*(y-self.model(x))*(-x)
        gradient_b = 2*(y-self.model(x))*(-1)
        return cost,gradient_w,gradient_b
#     梯度下降
    def gradient_descent(self,gradient_w,gradient_b,learning_rate=0.1):
#         更新w,b
        self.w -= gradient_w*learning_rate
        self.b -= gradient_b*learning_rate
#         训练fit
        
    def fit(self,X,y):
        count = 0  # 算法执行优化了3000次,退出 代表着算法执行的最大次数
        tol = 0.0001
        
        last_w = self.w + 0.1
        last_b = self.b + 0.1
        length = len(X)
        while True:
            if count > 3000:   # 执行的次数到了
                break
#                 求解的斜率和截距的精确度达到要求
            if (abs(last_w - self.w) < tol) and (abs(last_b - self.b) < tol):
                break
            cost = 0
            gradient_w = 0
            gradient_b = 0
            for i in range(length):
                cost_,gradient_w_,gradient_b_ = self.loss(X[i,0],y[i,0])
                cost += cost_/length
                gradient_w += gradient_w_/length
                gradient_b += gradient_b_/length
            print('--------------------------执行次数:%d.损失值:%0.2f'%(count,cost))
        
            last_w = self.w
            last_b = self.b
#         更新截距和斜率
            self.gradient_descent(gradient_w,gradient_b,0.002)
            count += 1
    def result(self):
        return self.w,self.b
lm = LinearModel()
lm.fit(X,y)

在这里插入图片描述

lm.result()
# sklearn中的LinerRegression
print(w,b)
plt.scatter(X,y,c= 'red')

plt.plot(x,1.9649*x - 4.64088,color = 'green')

plt.plot(x,w*x  + b,color = 'blue')

plt.title('自定义的算法拟合曲线',fontproperties = 'KaiTi')

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sklearn中的线性回归模型是通过最小二乘法来进行参数估计的,它可以用来建立一个线性关系模型,预测因变量与自变量之间的关系。在sklearn中,可以使用LinearRegression类来构建线性回归模型。\[1\] 在构建线性回归模型之前,需要导入必要的模块和库,例如从sklearn.linear_model中导入LinearRegression类,从sklearn.model_selection中导入train_test_split和cross_val_score函数,以及从sklearn.datasets中导入fetch_california_housing函数。然后,可以使用这些函数和数据集来进行模型的训练和评估。\[3\] 在使用线性回归模型之前,还需要注意一些问题。首先,线性回归模型要求因变量的分布服从正态分布,因此可能需要对因变量进行正态化处理,例如取对数或使用QuantileTransformer或PowerTransformer进行处理。其次,线性回归模型的性能往往取决于数据本身,而不是调参能力,因此对数据的质量有着很高的要求。\[2\] 总结来说,sklearn中的线性回归模型可以用来建立一个线性关系模型,预测因变量与自变量之间的关系。在使用之前,需要导入必要的模块和库,并注意因变量的分布和数据的质量。 #### 引用[.reference_title] - *1* [sklearn线性回归](https://blog.csdn.net/luguojiu/article/details/103252707)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [使用sklearn库学习线性回归(一)](https://blog.csdn.net/qq_38163244/article/details/109442545)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [sklearn 线性回归](https://blog.csdn.net/kingsure001/article/details/113841439)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值