机器学习(三):数据回归

机器学习系列主要为 我在国科大研一期间,在《机器学习方法与应用》课程中所学知识概述,以及课后补充学习的内容。

---------------------------------------------------------------------------------------------------------------------------------------------

回归和分类的区别:回归预测的目标函数是连续值,分类预测的目标函数是离散值

最小二乘法(最小均方差LMS):基于预测值和真实值的均方差最小化的方法来估计参数w和b

广义线性回归:将线性回归的预测值再做一个非线性的函数变化去逼近真实值,这样得到的模型统称为广义线性回归。这个非线性函数称为联系函数,理论可以是任意函数。比如当联系函数被指定为指数函数的时候,得到的回归模型称为对数线性回归(将真实值的对数作为线性回归逼近的目标)。

Logistic回归:将回归预测值划分为0,1两类值,联系函数可以为单位阶跃函数,但是单位阶跃函数在临界点不连续。希望找到能在一定程度上近似单位阶跃函数的替代函数,并且在临界点连续且单调可微,Logistic函数正式这样一个常用函数(y=e^z/(1+e^z)。Logistic函数形似S,是sigmoid函数的典型代表,可将线性函数的预测值转换为一个接近0或者接近1的值,在预测值为0时,变化很陡,其对应的模型为Logistic回归模型。名字虽然是回归,但却是一种分类方法。

Logistic回归的优点:①可以直接对分类可能性进行预测,将y视为样本x作为正例的概率;②无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题;③是任意阶可导的凸函数,可直接应用现有数值优化算法取最优解。

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值