Udacity机器学习入门笔记5-回归

1.sklearn 广义线性模型

以下是一组用于线性回归的方法,这些方法中,目标值是一组特征的线性组合。在数学公式中, y ^ \hat{y} y^是预测值
y ^ ( w , x ) = w 0 + w 1 x 1 + … + w p x p \hat{y}(w, x)=w_{0}+w_{1} x_{1}+\ldots+w_{p} x_{p} y^(w,x)=w0+w1x1++wpxp
其中,向量 w = ( w 1 , … , w p ) w=\left(w_{1}, \dots, w_{p}\right) w=(w1,,wp)作为coef_, w 0 w_0 w0为截距intercept_。

1.1 普通最小二乘

LinearRegression 用影响系数 w = ( w 1 , … , w p ) w=\left(w_{1}, \dots, w_{p}\right) w=(w1,,wp)拟合一个线性模型,该模型最小化数据集中观察到的目标和通过线性近似预测的目标之间总和残留的平方。数学上它解决形式:
min ⁡ w ∥ X w − y ∥ 2 2 \min _{w}\|X w-y\|_{2}^{2} wminXwy22
在这里插入图片描述

1.2 脊回归(ridge regression)

Ridge回归通过对系数的大小判罚解决了普通最小二乘法一些问题。脊系数最小化带有惩罚的残差的平方和:
min ⁡ w ∥ X w − y ∥ 2 2 + α ∥ w ∥ 2 2 \min _{w}\|X w-y\|_{2}^{2}+\alpha\|w\|_{2}^{2} wminXwy22+αw22
复杂性参数 α ≥ 0 \alpha \geq 0 α0 控制收缩量:较大的值 α \alpha α ,收缩的量越大,因此系数变得更稳健于共线性
在这里插入图片描述

2.Udacity test

from sklearn import linear_model
reg = linear_model.LinearRegression()
reg.fit(feature_train,target_train)
print reg.score(feature_train,target_train)
print reg.score(feature_test,target_test)

在这里插入图片描述

在这里插入图片描述

参考文献

sklearn Generalized Linear Models https://scikit-learn.org/stable/modules/linear_model.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值