机器学习----线性回归模型

一,线性模型描述
image

简单线性回归如:
y= ax+b
image
对于多变量的情形
image
通常,通过机器学习训练模型计算的值和真实值可能存在一定的误差:
image
image
因此,我们使用最大似然估计就可以得到损失函数:
image
利用高斯的对数似然化简:
image
致此,我们就得到了损失函数。
通常,我们想要使我们的目标函数值最小,这样我们模型预测的值就更加精确。
二,梯度下降和最小二乘法
1.最小二乘法:
在目标函数的导数为零的点为极值点,
image
得到:
image
2.梯度下降:
梯度下降又分为批量梯度下降和随机梯度下降,二者的区别在于,批量梯度下降是对全样本量的迭代,而随机梯度下降是单个样本下降迭代。
image

三,线性回归过拟合和正则项
在我们的模型训练过程中,可能存在在模型训练时产生的效果很好,但在应用中可能得不到我们想法的效果,可能存在模型过拟合的情况,为了避免过拟合的发生,我们在目标函数中添加一个正则项。
通常,我们有多种拟合方式,以下列举3种,
image
image

第三种则集中了前两者的优点。

参考:
刘建平Pinard:http://www.cnblogs.com/pinard/p/6004041.html
邹博:机器学习PPT

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值