回归算法注意点

1.回归算法的基本假设是:误差是独立且有相同分布,通常情况下服从高斯分布其均值为0。

2.回归算法的推导原理。极大似然估计

3.线性回归 θ=(XTX)1XTy

其中 X.shape=N,D ,N为样本个数,D为输入维度

θ.shape=(D,d) ,D为输入维度,d为输出维度

y.shape=(N,d) ,N为样本个数,d为输出维度

若对X所有维度数据进行中心话处理即将每个维度上的数据-该维度上的平均值并且替代原来的X矩阵
得到的
(XTX)
为关联矩阵

4逻辑回归(用作二分类问题)
运用sigmoid函数将output映射到[0,1]上的概率空间。然后进行回归推导
hθ(x)=g(θT)=11+eθTx

5 Ridge Regression
在误差计算上引入一个关于 θ 的Bias,并且引入控制变量 λ

ξ=||XθY||2+λ||θ||2

最终结果

θ=(XTX1+λI)1XTy

通过 λ 来控制模型的复杂程度

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值