线性回归

基本形式

线性模型试图学的一个通过属性的线性组合来进行预测的函数,函数形式为:
f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b f(x)=w_1x_1+w_2x_2+...+w_dx_d+b f(x)=w1x1+w2x2+...+wdxd+b
向量表示
f ( x ) = w T x + b f(x)=w^Tx+b f(x)=wTx+b
我们的目标是学习得到 w w w b b b,这样模型就确定了。
这里有一个小技巧,我们令 x 0 = 1 x_0=1 x0=1这样,模型就可以进行简化、统一为
h θ ( x ) = θ 0 x 0 + θ 1 x 1 + . . . + θ n x n = θ T x h_\theta(x)=\theta_0x_0+\theta_1x_1+...+\theta_nx_n=\theta^Tx hθ(x)=θ0x0+θ1x1+...+θnxn=θTx
θ 0 \theta_0 θ0为截距,在sklearn中为intercept_

Cost function

定义

线性回归的损失函数有很多种形式,但都可以称为最小二乘法。最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。最小二乘法
下面以sklearn的线性回归为例:

普通最小二乘法(RSS)

J ( θ ) = ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta)=\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2 J(θ)=i=1m(hθ(x(i))y(i))2

岭回归(Ridge)

使用了L2正则
J ( θ ) = ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 + α ∑ j = 0 n θ j 2 J(\theta)=\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2+\alpha\sum_{j=0}^n\theta_j^2 J(θ)=i=1m(hθ

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值